Recueil - Portail libre

January 15, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Recueil - Portail libre...

Description

Analyse statistique Exercices et solutions

Analyse statistique Exercices et solutions

Vincent Goulet École d’actuariat Université Laval

Mathieu Pigeon Institut de statistique Université Catholique de Louvain

Première édition préliminaire

© 2010 Vincent Goulet, Mathieu Pigeon

Cette création est mise à disposition selon le contrat Paternité-Partage des conditions initiales à l’identique 2.5 Canada disponible en ligne http://creativecommons.org/ licenses/by-sa/2.5/ca/ ou par courrier postal à Creative Commons, 171 Second Street, Suite 300, San Francisco, California 94105, USA. Historique de publication Janvier 2010 : Première édition préliminaire Code source Le code source LATEX de ce document est disponible à l’adresse http://vgoulet.act.ulaval.ca/analyse_statistique/ ou en communiquant directement avec les auteurs.

Introduction Ce document est une collection des exercices distribués par les auteurs dans le cadre du cours Analyse statistique des risques actuariels à l’École d’actuariat de l’Université Laval. Certains exercices sont le fruit de l’imagination des auteurs, alors que plusieurs autres sont des adaptations d’exercices tirés des ouvrages cités dans la bibliographie. C’est d’ailleurs afin de ne pas usurper de droits d’auteur que ce document est publié selon les termes du contrat Paternité-Partage des conditions initiales à l’identique 2.5 Canada de Creative Commons. Il s’agit donc d’un document «libre» que quiconque peut réutiliser et modifier à sa guise, à condition que le nouveau document soit publié avec le même contrat. Le recueil d’exercices se veut un complément à un cours de statistique mathématique pour des étudiants de premier ou deuxième cycle universitaire. Les exercices sont divisés en sept chapitres qui correspondent aux chapitres de notre cours. Le chapitre 1 porte sur des rappels de notions de base en probabilité. Il est suivi d’un chapitre qui traite des transformations de variables aléatoires pour mener à la présentation des lois t de Student et F de Fisher. L’analyse statistique à proprement parler débute véritablement au chapitre 3 avec l’étude de la notion d’échantillon aléatoire, de la distribution de la moyenne et de la variance et de l’échantillon, ainsi que des statistiques d’ordre. Le chapitre 4, qui traite d’estimation ponctuelle par les méthodes classiques (maximum de vraisemblance, méthode des moments, etc.) et des diverses propriétés des estimateurs constitue le cœur du recueil. Le chapitre 5 propose quant à lui quelques exercices d’estimation bayesienne. Enfin, les notions étroitement liées d’estimation par intervalle et de test d’hypothèses font l’objet des chapitres 6 et 7. Les réponses des exercices se trouvent à la fin de chacun des chapitres, alors que les solutions complètes sont regroupées à l’annexe E. De plus, on trouvera à la fin de chaque chapitre une liste non exhaustive d’exercices proposés dans Wackerly et collab. (2008). Des solutions de ces exercices sont offertes dans Owen (2008), ou encore sous forme de petits clips vidéo (solutions clip) disponibles dans le portail Libre de l’École d’actuariat à l’adresse http://libre.act.ulaval.ca Les annexes A à D contiennent des tables de quantiles des lois normale, khi carré, t et F. v

vi

Introduction Nous encourageons le lecteur à utiliser le logiciel R (R Development Core Team, 2009) pour résoudre certains exercices, notamment ceux du chapitre 7. Nous remercions d’avance les lecteurs qui voudront bien nous faire part de toute erreur ou omission dans les exercices ou leurs solutions. Vincent Goulet Mathieu Pigeon Québec, janvier 2010

Notation – Les lettres majuscules sont réservées pour les variables aléatoires et les lettres minuscules, pour les observations de ces variables aléatoires ou pour les constantes. ˆ qui représente à la fois un estimateur (ou une – La seule exception est θ, statistique, donc une variable aléatoire) et une estimation (une valeur de la statistique). – On note zα le 100(1 − α)e quantile de la variable aléatoire Z. Par exemple, le 95e centile est noté z0,05 .

vii

Table des matières Introduction

v

Notation

vii

1

Notions de base en probabilité

1

2

Transformations de variables aléatoires

7

3

Échantillon aléatoire

11

4

Estimation ponctuelle

15

5

Estimation bayesienne

21

6

Estimation par intervalle

23

7

Tests d’hypothèses

25

A Table de quantiles de la loi normale

31

B Table de quantiles de la loi khi carré

33

C Table de quantiles de la loi t

35

D Table de quantiles de la loi F

37

E Solutions Chapitre 1 Chapitre 2 Chapitre 3 Chapitre 4 Chapitre 5 Chapitre 6 Chapitre 7

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

Bibliographie

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

41 . 41 . 55 . 66 . 75 . 93 . 97 . 102 113

ix

1

Notions de base en probabilité 1.1 a) Démontrer que les fonctions suivantes sont des fonctions de densité de probabilité. i) f 1 ( x ) = e− x , x > 0 ii) f 2 ( x ) = 2e−2x , x > 0 iii) f 3 ( x ) = (1 + θ ) f 1 ( x ) − θ f 2 ( x ), x > 0, 0 < θ < 1 b) Démontrer que les fonctions continues suivantes sont des fonctions de répartition (supposer qu’elles sont continues à droite). i) F ( x ) = (1 + e− x )−1 , −∞ < x < ∞ −x

ii) F ( x ) = e−e , −∞ < x < ∞ 1.2 Trouver la constante k faisant en sorte que f ( x ) = kx2 , −k < x < k, soit une densité. 1.3 Trouver la constante c faisant en sorte que f ( x ) = ce−| x| , −∞ < x < ∞, soit une densité. 1.4 Une pièce de monnaie équilibrée est lancée jusqu’à ce qu’un résultat de face soit obtenu. Soit X la variable aléatoire du nombre de lancers nécessaires. a) Trouver la fonction de masse de probabilité de X. b) Calculer l’espérance et la variance de X. c) Déterminer la fonction génératrice des moments de X. 1.5 Soit

1 f (x) = β



 x − α , 1− β

α − β < x < α + β,

où α ∈ R et β > 0 sont des constantes quelconques. a) Démontrer que f ( x ) est une densité. b) Déterminer la fonction de répartition correspondant à f ( x ). 1.6 Soit X une variable aléatoire avec fonction de répartition FX ( x ) = pH ( x ) + (1 − p) G ( x ) 1

2

Notions de base en probabilité où 0 < p < 1 est une constante fixe, ( x, 0 < x ≤ 1 H (x) = 1, x > 1 et ( G(x) =

x/2, 1,

0 2.

Une telle distribution est appelée mélange (discret), ou distribution contaminée lorsque p est grand. Dans les questions ci-dessous, supposer que p = 1/2. a) Déterminer la formule explicite de la fonction de répartition de X. b) Déterminer la fonction de densité de probabilité de X. c) Évaluer Pr[ X ≤ 1/2| X ≤ 1]. 1.7 Soit X une variable aléatoire de moyenne µ et de variance σ2 . Déterminer la valeur de c qui minimise E[( X − c)2 ]. 1.8 Soit une variable aléatoire X de moyenne E[ X ] = µ et de variance Var[ X ] = σ2 . Le coefficient d’asymétrie de X est défini comme "  # X−µ 3 E[( X − µ)3 ] γ1 = E . = σ σ3 Pour chacune des fonctions de densité de probabilité ci-dessous, calculer le coefficient d’asymétrie et en esquisser le graphique. Comparer la valeur du coefficient d’asymétrie à la forme de la densité. a) f ( x ) = ( x + 1)/2, −1 < x < 1. b) f ( x ) = 1/2, −1 < x < 1. c) f ( x ) = (1 − x )/2, −1 < x < 1. 1.9 Démontrer que la fonction génératrice des moments de la variable aléatoire X avec fonction de densité de probabilité f ( x ) = 1/3, −1 < x < 2 est e2t − e−t , t ≠ 0. MX (t ) = 3t 1.10 Soit X une variable aléatoire continue non négative. Démontrer que E[ X ] =

Z ∞ 0

(1 − FX ( x )) dx,

où FX ( x ) est la fonction de répartition de X.

Notions de base en probabilité

3

1.11 a) Soient X1 , X2 et X3 des variables aléatoires non corrélées de même variance σ2 . Trouver le coefficient de corrélation entre X1 + X2 et X2 + X3 . b) Soient X1 , X2 et X3 des variables aléatoires indépendantes et identiquement distribuées avec moyenne µ et variance σ2 . Trouver le coefficient de corrélation entre X2 − X1 et X3 − X1 . 1.12 Soient X et Y deux variables aléatoires avec fonction de densité conjointe f ( x, y) = x + y, 0 < x < 1, 0 < y < 1. Calculer l’espérance et la variance conditionnelles de Y sachant que X = x, 0 < x < 1. 1.13 Soient f X |Y ( x |y) = c1 x/y2 , 0 < x < y, 0 < y < 1 et f Y (y) = c2 y4 , 0 < y < 1, la densité conditionnelle de X sachant Y = y et la densité marginale de Y, respectivement. a) Déterminer les constantes c1 et c2 . b) Déterminer la densité conjointe de X et Y. c) Calculer Pr[ 14 < X < 12 |Y = 58 ]. d) Calculer Pr[ 14 < X < 12 ]. 1.14 Soit MX (t) la fonction génératrice des moments de la variable aléatoire X. a) Soit Y = aX + b, où a et b sont des constantes quelconques. Démontrer que MY (t) = ebt MX ( at). b) Soient X1 , . . . , Xn des variables aléatoires indépendantes et Y = X1 + · · · + Xn . Démontrer que n

MY (t) = ∏ MX j (t). j =1

1.15 Démontrer que les variables aléatoires X et Y avec fonction de densité conjointe f ( x, y) = 12xy(1 − y), 0 < x < 1, 0 < y < 1 sont stochastiquement indépendantes. 1.16 La densité conjointe des variables aléatoires X et Y est f ( x, y) = 2e− x−y , 0 < x < y, 0 < y < ∞. Démontrer que les deux variables aléatoires sont stochastiquement dépendantes. 1.17 Si X suit une loi de Poisson avec Pr[ X = 1] = Pr[ X = 2], qu’elle est la probabilité que X = 1 ou X = 2 ? 1.18 Démontrer que si X est une variable aléatoire continue, alors min E[| X − a|] = E[| X − m|] a

où m est la médiane de X.

4

Notions de base en probabilité 1.19 La distribution de Weibull est fréquemment utilisée en assurance IARD pour la modélisation des montants de sinistres, entre autres. Sa fonction de répartition est F ( x ) = 1 − e−λx , τ

x > 0, λ > 0, τ > 0.

a) Déterminer la fonction de densité de probabilité de la Weibull. b) Calculer l’espérance et la variance de la Weibull. 1.20 Soient X et Y deux variables aléatoires continues avec ( 1, x < y < x + 1 f Y |X (y| x ) = 0, ailleurs et ( f X (x) =

1, 0,

0 0. Démontrer que Y1 =

X1 , X1 + X2

Y2 =

X1 + X2 , X1 + X2 + X3

Y3 = X1 + X2 + X3

sont mutuellement indépendantes. 2.9 Soit X ∼ N (µ, σ2 ). La variable aléatoire Y = e X est distribuée selon la loi log-normale. a) Exprimer la fonction de densité de probabilité et la fonction de répartition de Y en fonction de celles de X. b) Calculer E[Y k ]. 2.10 La distribution de Cauchy a comme densité f (x) =

1 , π (1 + x 2 )

−∞ < x < ∞.

Elle est visuellement similaire à une normale, mais elle est surtout utilisée comme exemple pathologique : aucun de ses moments n’existe. Soient X1 et X2 deux variables aléatoires indépendantes chacune distribuée selon une loi normale centrée réduite (moyenne 0 et variance 1). Démontrer que la distribution marginale de Y1 = X1 /X2 est Cauchy. (Astuce : définir Y2 = X2 , trouver la distribution conjointe de Y1 et Y2 puis intégrer pour trouver la distribution marginale de Y1 .) 2.11 Soit T une variable aléatoire distribuée selon une loi t avec 10 degrés de liberté. a) Trouver Pr[| T | > 2,228] à l’aide d’une table de la loi t. b) Répéter la partie a) à l’aide de R. La fonction pt(x, n) donne la valeur de la fonction de répartition en x d’une loi t avec n degrés de liberté.

Transformations de variables aléatoires

9

2.12 Soit T une variable aléatoire distribuée selon une loi t avec 14 degrés de liberté. a) Trouver la valeur de b tel que Pr[−b < T < b] = 0,90 à l’aide d’une table de la loi t. b) Répéter la partie a) à l’aide R. La fonction qt(p, n) retourne le pe quantile d’une loi t avec n degrés de liberté, c’est-à-dire la valeur de x où la fonction de répartition vaut p. 2.13 a) Démontrer qu’une loi t avec un degré de liberté est une loi de Cauchy. b) Sachant que  1 a n = lim (1 + ax ) x = e a , lim 1 + n→∞ n x →0 vérifier que la loi t tend vers une normale centrée réduite lorsque le nombre de degrés de liberté tend vers l’infini. (Supposer que les constantes de la densité de la loi t tendent vers ce qu’il se doit lorsque r → ∞.) 2.14 Soit Z ∼ N (0, 1). Démontrer que le quatrième moment de Z est égal à 3 et donc que le coefficient d’aplatissement d’une loi normale centrée réduite est nul. 2.15 Soit U ∼ χ2 (r1 ) et V ∼ χ2 (r2 ), deux variables aléatoires indépendantes. a) Démontrer que la densité de F= est f (x) =

U/r1 V/r2

Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 xr1 /2−1 . Γ(r1 /2)Γ(r2 /2)(1 + r1 x/r2 )(r1 +r2 )/2

b) Calculer E[ F ]. c) Calculer Var[ F ]. 2.16 Soit F une variable aléatoire distribuée selon une loi F avec r1 et r2 degrés de liberté (dans l’ordre). Démontrer que 1/F est aussi distribuée selon une loi F, mais avec r2 et r1 degrés de liberté. 2.17 Si F a une distribution F avec paramètres r1 = 5 et r2 = 10, trouver a et b de sorte que Pr[ F ≤ a] = 0,05 et Pr[ F ≤ b] = 0,95. Les quantiles de la loi F peuvent être trouvés soit dans une table, soit à l’aide de la fonction qf(x, r1, r2) de R. (Astuce : en travaillant avec une table, utiliser le fait que Pr[ F ≤ a] = Pr[ F −1 ≥ a−1 ] = 1 − Pr[ F −1 ≤ a−1 ].) √ 2.18 Soit T = W/ V/r, où W et V sont des variables aléatoires indépendantes avec une distribution, respectivement, normale centrée réduite et khi carré avec r degrés de liberté. Démontrer que la distribution de T 2 est F avec 1 et r degrés de liberté.

10

Transformations de variables aléatoires 2.19 Soit Y=

1 , 1 + (r1 /r2 ) F

où F ∼ F(r1 , r2 ). Démontrer que Y a une distribution Bêta. 2.20 Soit X |Θ = θ ∼ Exponentielle(θ ) et Θ ∼ Gamma(α, λ). a) Démontrer que la distribution marginale de X est une loi de Pareto avec densité αλα f X (x) = , x > 0. ( λ + x ) α +1 b) Démontrer que E[ X ] = λ(α − 1)−1 .

Exercices proposés dans Wackerly et collab. (2008) 6.37, 6.38, 6.39, 6.40, 6.41, 6.42, 6.43, 6.44, 6.46, 6.47, 6.49, 6.50, 6.53, 6.62, 7.91, 7.93, 7.94

Réponses 2.1 f Y (y) = 1/27, 0 < y < 27 2.2 (1/3)(2/3)y/(1−y) 2.3 f X ( x ) = σ−1 φ(( x − µ)/σ ), FX ( x ) = Φ(( x − µ)/σ ) 2.6 a) Gamma(1/2, 1/(2σ2 )) b) χ2 (1) 2.9 a) FY (y) = Φ((log y − µ)/σ ) b) ekµ+k

2 σ2 /2

2.11 0,05 2.12 1,761 2.15 b) r2 /(r2 − 2) c) 2[r22 (r2 + r1 − 2)]/[r1 (r2 − 2)2 (r2 − 4)] 2.17 a = 0,211 et b = 3,326

3

Échantillon aléatoire 3.1 Soit X¯ la moyenne d’un échantillon de taille 5 d’une distribution normale avec moyenne 10 et variance 125. Trouver c tel que Pr[ X¯ < c] = 0,90. 3.2 Si X¯ est la moyenne d’un échantillon de taille n tiré d’une distribution normale de moyenne µ et de variance 100, trouver la valeur de n telle que Pr[µ − 5 < X¯ < µ + 5] = 0,954. 3.3 Soit X1 , . . . , X25 un échantillon aléatoire issu d’une distribution N (0, 16) et Y1 , . . . , Y25 un échantillon aléatoire issu d’une distribution N (1, 9). Les deux échantillons sont indépendants. Soient X¯ et Y¯ les moyennes des deux échantillons. Calculer Pr[ X¯ > Y¯ ]. 3.4 Démontrer à l’aide du Théorème central limite que la distribution gamma avec paramètre de forme α entier et paramètre d’échelle λ tend vers la distribution normale avec moyenne α/λ et variance α/λ2 lorsque α tend vers l’infini. (Astuce : définir Y = X1 + · · · + Xα où Xi ∼ Exponentielle(λ) et trouver la distribution asymptotique de Y.) 3.5 Soit X¯ la moyenne d’un échantillon aléatoire de taille 100 tiré d’une loi χ2 (50). ¯ a) Trouver la distribution exacte de X. b) Calculer à l’aide d’un logiciel statistique la valeur exacte de Pr[49 < X¯ < 51]. c) Calculer une valeur approximative de la probabilité en b). 3.6 Soit X¯ la moyenne d’un échantillon de taille 128 d’une loi Gamma(2, 1/4). Trouver une approximation pour Pr[7 < X¯ < 9]. 3.7 Trouver une valeur approximative de la probabilité que la moyenne d’un échantillon de taille 15 d’une loi avec densité f ( x ) = 3x2 , 0 < x < 1, soit entre 3/5 et 4/5. 3.8 Trouver la moyenne et la variance de la statistique S2 =

∑in=1 ( Xi − X¯ )2 , n

où X1 , . . . , Xn est un échantillon aléatoire d’une loi normale de moyenne µ et variance σ2 . 11

12

Échantillon aléatoire 3.9 Soit S2 la variance d’un échantillon de taille 6 d’une distribution normale de moyenne µ et de variance 12. Calculer Pr[2,30 < S2 < 22,2]. 3.10 Soit X1 , . . . , Xn un échantillon aléatoire tiré d’une loi avec fonction de répartition FX (·) et X(1) ≤ · · · ≤ X(n) les statistiques d’ordre correspondantes. Trouver la fonction de répartition de X(1) = min( X1 , . . . Xn ). 3.11 Soient X(1) ≤ X(2) ≤ X(3) ≤ X(4) les statistiques d’ordre d’un échantillon aléatoire de taille 4 issu d’une distribution avec fonction de densité de probabilité f ( x ) = e− x , 0 < x < ∞. Calculer Pr[ X(4) > 3]. 3.12 Soit X1 , X2 , X3 un échantillon aléatoire issu d’une loi bêta de paramètres α = 2 et β = 1. Calculer la probabilité que la plus petite valeur de l’échantillon soit supérieure à la médiane (théorique) de la distribution. 3.13 Soit X une variable aléatoire discrète avec fonction de masse de probabilité Pr[ X = x ] = 1/6, x = 1, 2, 3, 4, 5, 6. Démontrer que la fonction de masse de probabilité du minimum d’un échantillon aléatoire de taille 5 issu de cette distribution est i  7 − x 5  6 − x 5 h − , x = 1, 2, 3, 4, 5, 6. Pr X(1) = x = 6 6 3.14 Soient X(1) ≤ · · · ≤ X(n) les statistiques d’ordre d’un échantillon aléatoire tiré d’une loi de Weibull, dont la fonction de répartition est FX ( x ) = τ 1 − e−(λx) . Calculer la fonction de répartition, la fonction de densité et l’espérance de X(1) . 3.15 Calculer la probabilité que l’étendue d’un échantillon aléatoire de taille 4 issu d’une loi uniforme sur l’intervalle (0, 1) soit inférieure à 1/2. 3.16 Si un échantillon de taille 2 est tiré d’une loi bêta avec paramètres α = 1 et β = 2, quelle est la probabilité que l’une des deux valeurs de l’échantillon soit au moins deux fois plus grande que l’autre ? (Astuce : intégrer la densité conjointe des deux valeurs de l’échantillon au-dessus de la surface correspondant à la probabilité recherchée.) 3.17 Soit X ∼ U (0, 1). Calculer l’espérance de la mi-étendue d’un échantillon de taille n issu de cette distribution. 3.18 Soit X1 , . . . , Xn un échantillon aléatoire d’une loi uniforme sur l’intervalle (0, 1). a) Calculer la moyenne et la variance de R = X(n) − X(1) . b) Calculer la moyenne et la variance de T = ( X(1) + X(n) )/2.

Exercices proposés dans Wackerly et collab. (2008) 6.72, 6.73, 6.74, 6.81, 6.86, 6.76, 6.89, 7.9, 7.10, 7.15, 7.18, 7.20, 7.27, 7.36, 7.37, 7.38, 7.73, 7.74, 7.75, 7.76, 7.77, 7.78, 7.81, 7.88, 7.89, 7.90, 7.92, 7.96, 7.97

Échantillon aléatoire

13

Réponses 3.1 16,41 3.2 16 3.3 0,159 3.5 a) Gamma(2 500, 50) b) 0,6827218 c) 0,682 3.6 0,954 3.7 0,840 3.8 E[S2 ] = (n − 1)σ2 /n, Var[S2 ] = 2(n − 1)σ4 /n2 3.9 0,90 3.10 FX(1) ( x ) = 1 − (1 − FX ( x ))n 3.11 1 − (1 − e−3 )4 3.12 1/8 1

3.14 X(1) ∼ Weibull(n τ λ, τ ). 3.15 5/16 3.16 7/12 3.17 1/2. 3.18 a) E[ R] = (n − 1)/(n + 1) et Var[ R] = (2n − 2)/[(n + 1)2 (n + 2)]. b) E[ T ] = 1/2 et Var[ T ] = 1/[2(n + 1)(n + 2)].

4

Estimation ponctuelle 4.1 Soit X1 , . . . , Xn un échantillon aléatoire issu des distributions ci-dessous. Dans chaque cas trouver l’estimateur du paramètre θ à l’aide de la méthode des moments. a) f ( x; θ ) = θ x e−θ /x!, x = 0, 1, . . . , θ > 0. b) f ( x; θ ) = θx θ −1 , 0 < x < 1, θ > 0. c) f ( x; θ ) = θ −1 e− x/θ , θ > 0. d) f ( x; θ ) = e−| x−θ | /2, −∞ < x < ∞, −∞ < θ < ∞. e) f ( x; θ ) = e−( x−θ ) , x ≥ θ, θ > 0. 4.2 Trouver l’estimateur du maximum de vraisemblance du paramètre θ de chacune des distributions de l’exercice 4.1. 4.3 Soit X1 , . . . , Xn un échantillon aléatoire de la distribution exponentielle translatée avec fonction de répartition F ( x; µ, λ) = 1 − e−λ( x−µ) et densité f ( x; µ, λ) = λe−λ( x−µ) ,

x ≥ µ,

où −∞ < µ < ∞ et λ > 0. a) Démontrer que la distribution exponentielle translatée est obtenue par la transformation X = Z + µ, où Z ∼ Exponentielle(λ). b) Calculer l’espérance et la variance de cette distribution. c) Calculer les estimateurs du maximum de vraisemblance des paramètres µ et λ. d) Simuler 100 observations d’une loi Exponentielle translatée de paramètres µ = 1000 et λ = 0,001 à l’aide de la fonction rexp de R et de la transformation en a). Calculer des estimations ponctuelles de µ et λ pour l’échantillon ainsi obtenu. Ces estimations sont-elles proches des vraies valeurs des échantillons ? Répéter l’expérience plusieurs fois au besoin. 15

16

Estimation ponctuelle 4.4 Soient X(1) < · · · < X(n) les statistiques d’ordre d’un échantillon aléatoire tiré d’une distribution uniforme sur l’intervalle [θ − 12 , θ + 21 ], −∞ < θ < ∞. Démontrer que toute statistique T ( X1 , . . . , Xn ) satisfaisant l’inégalité X( n ) −

1 1 ≤ T ( X1 , . . . , X n ) ≤ X ( 1 ) + 2 2

est un estimateur du maximum de vraisemblance de θ. Ceci est un exemple où l’estimateur du maximum de vraisemblance n’est pas unique. 4.5 Soit X1 , . . . , Xn un échantillon aléatoire issu de la distribution inverse gaussienne, dont la densité est  f ( x; µ,λ) =

λ 2πx3

1/2

  λ ( x − µ )2 exp − , 2µ2 x

x > 0.

Calculer les estimateurs du maximum de vraisemblance de µ et λ. 4.6 Considérer la distribution géométrique avec fonction de masse de probabilité Pr[ X = x ] = θ (1 − θ ) x , x = 0, 1, . . . . On a obtenu l’échantillon aléatoire suivant de cette distribution : 5 7 4 11 0 9 1 1 3 2 1 0 6 0 1 1 1 9 2 0. Utiliser la méthode des moments pour obtenir une estimation ponctuelle du paramètre θ. 4.7 On a une urne contenant θ boules numérotées de 1 à θ, où θ est une quantité inconnue. Soit X1 , . . . , Xn un échantillon aléatoire composé de n boules pigées au hasard, avec remise, dans cette urne. a) Déterminer l’estimateur des moments de θ. b) Calculer l’estimateur des moments de θ si n = 4 et x1 = x2 = x3 = 3 et x4 = 12. Interpréter le résultat. 4.8 Soit X1 , . . . , Xn un échantillon aléatoire issu d’une loi uniforme sur l’intervalle ( a, b) où a et b sont des constantes inconnues. Calculer l’estimateur du maximum de vraisemblance de a et b. 4.9 Soit X1 , . . . , Xn un échantillon aléatoire issu d’une distribution dont la loi de probabilité est Pr[ X = x ] = θ x (1 − θ )1− x ,

x = 0, 1,

1 0≤θ≤ . 2

a) Calculer les estimateurs du maximum de vraisemblance et des moments de θ. b) Calculer l’erreur quadratique moyenne pour les estimateurs développés en a).

Estimation ponctuelle

17

c) Lequel des estimateurs développés en a) est le meilleur ? Justifier. 4.10 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution avec moyenne µ et variance σ2 . Démontrer que n−1 ∑in=1 ( Xi − µ)2 est un estimateur sans biais de σ2 . 4.11 Si X1 , . . . , Xn est un échantillon aléatoire d’une distribution avec moyenne µ, quelle condition doit-on imposer sur les constantes a1 , . . . , an pour que a 1 X1 + . . . a n X n soit un estimateur sans biais de µ ? 4.12 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution avec moyenne µ et variance σ2 . a) Démontrer que X¯ 2 est un estimateur biaisé de µ2 et calculer son biais. b) Démontrer que X¯ 2 est un estimateur asymptotiquement sans biais de µ2 . 4.13 Démontrer que la médiane empirique d’un échantillon aléatoire de taille 3 issu d’une loi exponentielle est un estimateur biaisé de λ−1 . 4.14 Soient X(1) < X(2) < X(3) les statistiques d’ordre d’un échantillon aléatoire de taille 3 tiré d’une distribution uniforme avec fonction de densité f ( x ) = θ −1 ,

0 < x < θ,

θ > 0.

Démontrer que 4X(1) et 2X(2) sont tous deux des estimateurs sans biais de θ. Trouver la variance de chacun de ces estimateurs. 4.15 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution uniforme sur l’intervalle (0, θ ). a) Développer un estimateur sans biais de θ basé sur max( X1 , . . . , Xn ). b) Répéter la partie a), mais cette fois à partir de min( X1 , . . . , Xn ). 4.16 Soit X ∼ Binomiale(n, p). Démontrer que, malgré que X/n soit un estimateur sans biais de p,    X X n 1− n n est un estimateur biaisé de la variance de X. Calculer le biais de l’estimateur. 4.17 Démontrer que si θˆ est un estimateur sans biais de θ et que Var[θˆ] ≠ 0, alors θˆ2 est un estimateur biaisé de θ 2 . 4.18 Démontrer que, sous les hypothèses appropriées, " 2 #  2  ∂ ∂ ln f ( X; θ ) = −E ln f ( X; θ ) . E ∂θ ∂θ 2

18

Estimation ponctuelle Pour ce faire, dériver par rapport à θ l’identité Z ∞ −∞

afin d’obtenir

Z ∞  ∂ −∞

∂θ

f ( x; θ ) dx = 1

 ln f ( x; θ )

f ( x; θ ) dx = 0,

puis dériver de nouveau par rapport à θ. 4.19 Démontrer que la moyenne arithmétique est un estimateur sans biais à variance minimale du paramètre λ d’une loi de Poisson. 4.20 Démontrer que la proportion de succès X/n est un estimateur sans biais à variance minimale de la probabilité de succès θ d’une distribution Binomiale. (Astuce : considérer X/n comme la moyenne d’un échantillon aléatoire d’une distribution de Bernoulli.) 4.21 Soit X1 , . . . , Xn un échantillon aléatoire de taille n > 2 de la densité f ( x; θ ) = θx θ −1 ,

0 < x < 1.

a) Vérifier que la borne de Rao–Cramér pour un estimateur de θ est θ 2 /n. b) Trouver la distribution de la variable aléatoire Yi = − ln Xi , puis celle de Z = − ∑in=1 ln Xi . Vérifier alors que E[ Z ] = n/θ. c) Le résultat précédent suggère d’utiliser 1/Z comme estimateur de θ. Développer un estimateur sans biais de θ basé sur 1/Z. 4.22 L’inégalité de Rao–Cramér fournit un seuil minimal pour la variance d’un estimateur du paramètre θ d’une distribution f ( x; θ ). Qu’en est-il si l’on souhaite estimer non pas le paramètre θ, mais plutôt une fonction g de celui-ci ? (On peut penser, ici, à la moyenne d’une loi Exponentielle.) L’inégalité de Rao–Cramér se généralise ainsi : soit θˆ = T ( X1 , . . . , Xn ) un estimateur de g(θ ) ; alors

( g0 (θ ))2

Var[θˆ] ≥

" nE

∂ ln f ( X; θ ) ∂θ

2 # .

Soit X1 , . . . , Xn un échantillon aléatoire issu d’une loi de Poisson de paramètre λ. a) Calculer la borne de Rao–Cramér pour un estimateur de λ. b) Considérer g(λ) = e−λ = Pr[ X = 0]. Calculer la borne de Rao–Cramér pour un estimateur de e−λ .

Estimation ponctuelle

19

c) Soit la statistique T=

1 n I{ Xi =0} , n i∑ =1

où IA est une fonction indicatrice valant 1 si A est vraie et 0 sinon. La statistique T représente donc la proportion d’observations nulles dans l’échantillon. Démontrer que T est un estimateur sans biais de e−λ et que e − λ (1 − e − λ ) Var[ T ] = . n d) Calculer l’efficacité de la statistique T définie en c). 4.23 Si θˆ1 et θˆ2 sont deux estimateurs sans biais d’un paramètre θ et que Var[θˆ1 ] = 3Var[θˆ2 ], trouver les constantes a1 et a2 tel que a1 θˆ1 + a2 θˆ2 est un estimateur sans bias à variance minimale de θ. (Astuce : il s’agit d’un problème de minimisation sous contrainte, à résoudre à l’aide des multiplicateurs de Lagrange.) 4.24 Supposons que X¯ 1 est la moyenne d’un échantillon aléatoire de taille n d’une population normale avec moyenne µ et variance σ12 , que X¯ 2 est la moyenne d’un échantillon aléatoire de taille n d’une population normale avec moyenne µ et variance σ22 et que les deux échantillons aléatoires sont indépendants. a) Démontrer que ω X¯ 1 + (1 − ω ) X¯ 2 , 0 ≤ ω ≤ 1, est un estimateur sans biais de µ. b) Démontrer que la variance de ω X¯ 1 + (1 − ω ) X¯ 2 est minimale lorsque ω=

σ22 . σ12 + σ22

c) Calculer l’efficacité relative de l’estimateur en a) avec ω = de l’estimateur à variance minimale trouvé en b).

1 2

à celle

4.25 Démontrer, à partir de la définition, que X(1) = min( X1 , . . . , Xn ) est un estimateur convergent du paramètre θ d’une loi uniforme sur l’intervalle (θ, θ + 1). 4.26 Soit X1 , . . . , Xn un échantillon aléatoire d’une loi exponentielle de moyenne θ. Démontrer que X¯ est un estimateur convergent de θ. 4.27 Soit X1 une observation d’une loi normale avec moyenne 0 et variance σ2 , σ > 0. Démontrer que | X1 | est une statistique exhaustive pour σ2 . 4.28 Trouver une statistique exhaustive pour le paramètre θ de la loi uniforme sur l’intervalle (−θ, θ ). 4.29 Démontrer que la somme des éléments d’un échantillon aléatoire issu d’une loi de Poisson est une statistique exhaustive pour le paramètre de cette loi.

20

Estimation ponctuelle 4.30 Soit X1 , . . . , Xn un échantillon aléatoire d’une loi géométrique avec fonction de masse de probabilité Pr[ X = x ] = θ (1 − θ ) x , Démontrer que T ( X1 , . . . , Xn ) = pour θ.

∑in=1 Xi

x = 0, 1, . . . est une statistique exhaustive

Exercices proposés dans Wackerly et collab. (2008) 8.2, 8.8, 8.9, 8.10, 8.11, 8.33, 8.35, 9.1, 9.3, 9.5, 9.7, 9.8, 9.18, 9.19, 9.20, 9.29, 9.69–9.74, 9.75 9.80, 9.81, 9.82, 9.83, 9.84, 9.87, 9.88, 9.91, 9.97

Réponses ¯ (1 − X¯ ) c) X¯ d) X¯ e) X¯ − 1 4.1 a) X¯ b) X/ 4.2 a) X¯ b) −n/ ln( X1 · · · Xn ) c) X¯ d) med( X1 , . . . , Xn ) e) X(1) 4.3 a) E[ X ] = µ + λ−1 , Var[ X ] = λ−2 b) µˆ = X(1) , λˆ = n/ ∑in=1 ( Xi − X(1) ) ¯ λˆ = n/ ∑n ( X −1 − X¯ −1 ) 4.5 µˆ = X, i =1 i 4.6 0,2381. 4.7 a) θˆ = 2X¯ − 1 b) 9,5 4.8 aˆ = min( X1 , . . . , Xn ) et bˆ = max( X1 , . . . , Xn ) ¯ θˆ = min( X, ¯ 1/2) 4.9 a) θ˜ = X, [n/2]

b) MSE(θ˜) = θ (1 − θ )/n, MSE(θˆ) = ∑y=0 (y/n − θ )2 (ny)θ y (1 − θ )n−y + n ∑ny=[n/2]+1 (1/2 − θ )2 ( y )θ y (1 − θ )n−y c) MSE(θˆ) ≤ MSE(θ˜) 4.11 ∑in=1 ai = 1 4.12 a) σ2 /n 4.14 Var[4X(1) ] = 3θ 2 /5, Var[2X(2) ] = θ 2 /5. 4.15 a) (n + 1) X(n) /n b) (n + 1) X(1) 4.16 − p(1 − p) 4.21 b) Yi ∼ Exponentielle(θ ) c) (n − 1)/Z 4.22 a) λ/n b) λe−2λ /n d) λe−λ /(1 − e−λ ) 4.23 a1 = 1/4 et a2 = 3/4 4.24 c) (σ12 + σ22 )2 /(4σ12 σ22 ) 4.28 maxi=1,...,n (| Xi |), ou ( X(1) , X(n) )

5

Estimation bayesienne 5.1 On tire une observation d’une loi de Poisson de moyenne λ égale à 2 ou 4. On croit que la valeur λ = 2 est quatre fois plus probable que λ = 4. a) Calculer une estimation du paramètre λ minimisant l’erreur quadratique moyenne avant que l’observation ne soit disponible. b) L’expérience effectuée, la valeur de l’observation est x = 6. Quelle est la nouvelle distribution de probabilité du paramètre λ. c) Répéter la partie a) maintenant que l’observation mentionnée en b) est disponible. 5.2 Trouver l’estimateur bayesien de la probabilité de succès d’une loi géométrique si la distribution a priori du paramètre est une loi Bêta(α, β). Utiliser la loi géométrique avec support x = 0, 1, 2, . . . et une fonction de perte quadratique. 5.3 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution de Poisson avec moyenne inconnue θ. Si l’on utilise une fonction de perte quadratique et que l’on suppose que θ est une observation d’une loi gamma de paramètres α et λ, quel est l’estimateur bayesien de θ ? 5.4 L’estimateur bayesien du paramètre d’une loi de Bernoulli est α + ∑in=1 Xi θˆ = α+β+n lorsque la distribution a priori du paramètre est une Bêta(α, β) et que la fonction de perte utilisée est L(θ, θˆ) = (θ − θˆ)2 . a) Soit n = 30, α = 15 et β = 5. En notant que ∑30 i =1 Xi ∼ Binomiale(30, θ ), calculer l’espérance de la fonction de perte en fonction de θ. (Astuce : écrire l’erreur quadratique moyenne comme la somme de la variance et du biais au carré.) b) L’erreur quadratique moyenne de X¯ — l’estimateur du maximum de vraisemblance de θ — est θ (1 − θ )/30, cet estimateur étant sans biais. Trouver pour quelles valeurs de θ l’erreur de l’estimateur bayesien en a) est inférieure à celle de l’estimateur du maximum de vraisemblance. 21

22

Estimation bayesienne 5.5 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution normale de moyenne θ et de variance σ2 , où σ2 est une constante connue. On suppose que θ est une observation d’une variable aléatoire Θ avec distribution Normale(µ, τ 2 ), où µ et τ 2 sont des constantes connues. a) Démontrer que la distribution a posteriori de la variable aléatoire Θ ˜ τ˜ 2 ), avec est N (µ, τ 2 ∑in=1 Xi + σ2 µ nτ 2 + σ2 2 τ σ2 τ˜ 2 = . nτ 2 + σ2 µ˜ =

(Astuce : calculer la distribution a posteriori à une constante de normalisation près. Pour ce faire, compléter le carré à l’exposant en ne conservant que les termes impliquant θ.) b) Trouver un estimateur ponctuel bayesien de θ si la fonction de perte utilisée est L(θ, θˆ) = |θ − θˆ|.

Exercices proposés dans Wackerly et collab. (2008) Il n’y a pas de solutions clips pour ces exercices 16.1, 16.6, 16.7, 16.10, 16.12

Réponses 5.1 a) 12/5 b) Pr[Λ = 2| X = 6] = 0,316, Pr[Λ = 4| X = 6] = 0,684 c) 3,368 5.2 (α + n)/(α + β + n + ∑in=1 Xi ) 5.3 (α + ∑in=1 Xi )/(λ + n) 5.4 a) (74θ 2 − 114θ + 45)/500 b) 0,5692 < θ < 0,8720 ˜ 5.5 b) µ.

6

Estimation par intervalle 6.1 La valeur observée de la moyenne empirique X¯ d’un échantillon aléatoire de taille 20 tiré d’une N (µ, 80) est 81,2. Déterminer un estimateur par intervalle de niveau 95 % pour µ. 6.2 Soit X¯ la moyenne d’un échantillon aléatoire de taille n d’une distribution normale de moyenne µ inconnue et de variance 9. Trouver la valeur n tel que, approximativement, Pr[ X¯ − 1 < µ < X¯ + 1] = 0,90. 6.3 Un échantillon aléatoire comptant 17 observations d’une distribution normale de moyenne et de variance inconnues a donné x¯ = 4,7 et s2 = 5,76. Trouver des intervalles de confiance à 90 % pour µ et pour σ2 . 6.4 Lors d’une très sérieuse et importante analyse statistique de la taille des étudiantes en sciences et génie à l’Université Laval, on a mesuré un échantillon aléatoire d’étudiantes en actuariat et un autre en génie civil. Les résultats obtenus se trouvent résumés dans le tableau ci-dessous. On suppose que les deux échantillons aléatoires sont indépendants et que la taille des étudiantes est distribuée selon une loi normale. Quantité Taille de l’échantillon Taille moyenne (en cm) Variance (en cm2 )

Actuariat

Génie civil

15 152 101

20 154 112

a) Déterminer un intervalle de confiance à 90 % pour la taille moyenne des étudiantes de chacun des deux programmes en supposant que l’écart type de la distribution normale est 9 cm. b) Répéter la partie a) en utilisant plutôt les variances des échantillons. c) Y a-t-il une différence significative, avec un niveau de confiance de 90 %, entre la taille des étudiantes en actuariat et celles en génie civil ? d) Déterminer un intervalle de confiance à 90 % pour la variance de la taille des étudiantes en actuariat. e) La différence observée entre les variances dans la taille des étudiantes des deux programmes est-elle significative ? Utiliser un niveau de confiance de 90 %. 23

24

Estimation par intervalle 6.5 Soit X1 , . . . , Xn un échantillon aléatoire tiré d’une population normale de moyenne et variance inconnues. Développer la formule d’un estimateur par intervalle de niveau 1 − α pour σ, l’écart type de la distribution normale. 6.6 Soit X1 , X2 , . . . , Xn un échantillon aléatoire d’une distribution normale de moyenne µ et de variance σ2 = 25. Déterminer la taille de l’échantillon nécessaire pour que la longueur de l’intervalle de confiance de niveau 0,90 pour la moyenne ne dépasse pas 0,05. 6.7 Soit S2 la variance d’un échantillon aléatoire de taille n issu d’une distribution N (µ, σ2 ) où µ et σ2 sont des paramètres inconnus. On sait que Y = nS2 /σ2 ∼ χ2 (n − 1). Soit g(y) la fonction de densité de Y et G (y) la fonction de répartition. Soit a et b des constantes telles que (ns2 /b, ns2 /a) est un intervalle de confiance de niveau 1 − α pour σ2 . La longueur de cet intervalle est donc ns2 (b − a)/( ab). Démontrer que la longueur de l’intervalle de confiance est minimale si a et b satisfont la condition a2 g( a) = b2 g(b). (Astuce : minimiser la longueur de l’intervalle sous la contrainte que G (b) − G ( a) = 1 − α.)

Exercices proposés dans Wackerly et collab. (2008) 8.39, 8.41, 8.43, 8.47, 8.57, 8.59, 8.63, 8.70, 8.72, 8.75, 8.77

Réponses 6.1 (77,28, 85,12) 6.2 24 ou 25 6.3 µ ∈ (3,7, 5,7) et σ2 ∈ (3,72, 12,30) 6.4 a) 148,18 < µ1 < 155,82 et 150,69 < µ2 < 157,31 b) 147,27 < µ1 < 156,73 et 149,80 < µ2 < 158,20 c) µ1 − µ2 ∈ −2 ± 5,99 d) 63,98 < σ12 < 230,59 e) 0,417 < σ22 /σ12 < 2,256 √ √ 6.5 ( nS2 /b, nS2 /a). 6.6 108 241

7

Tests d’hypothèses Pour les exercices comportant des données d’échantillons aléatoires, il est recommandé de faire les calculs «à la main» ainsi qu’avec R. Les principales fonctions pour faire des tests d’hypothèses sont prop.test, t.test et var.test. Consulter les rubriques d’aide pour le détail des arguments de ces fonctions. 7.1 Soit X une variable aléatoire dont la fonction de densité de probabilité est f ( x; θ ) = θx θ −1 , 0 < x < 1. On suppose que θ peut prendre exclusivement les valeurs θ = 1 ou θ = 2. a) Trouver la statistique exhaustive pour le paramètre θ de cette distribution. b) On teste l’hypothèse H0 : θ = 1 versus H1 : θ = 2 à partir d’un échantillon aléatoire X1 , X2 . Si la région critique est C = {( x1 , x2 ); x1 x2 ≥ 3/4}, calculer la probabilité de faire une erreur de type I (α) et la probabilité de faire une erreur de type II (β). 7.2 On suppose que la durée de vie d’un pneu en kilomètres a une distribution normale de moyenne 30 000 et d’écart type 5 000. Le fabricant du nouveau pneu Super Endurator X24 prétend que la durée de vie moyenne de ce pneu est bien supérieure à 30 000 km. Afin de vérifier les prétentions du fabricant, on testera H0 : µ ≤ 30 000 contre l’alternative H1 : µ > 30 000 à partir de n observations indépendantes x1 , . . . , xn . On rejettera H0 si x¯ ≥ c. Trouver les valeurs de n et de c de sorte que la probabilité de faire une erreur de type I en µ = 30 000 est 0,01 et que la probabilité de faire une erreur de type II en µ = 35 000 est 0,02. 7.3 Un fabricant de dentifrice prétend que 75 % de tous les dentistes recommandent son produit à ses patients. Sceptique, un groupe de protection des consommateurs décide de tester H0 : θ = 0,75 contre H1 : θ 6= 0,75, où θ est la proportion de dentistes recommandant le dentifrice en question. Un sondage auprès de 390 dentistes a révélé que 273 d’entre eux recommandent effectivement ce dentifrice. a) Quelle est la conclusion du test avec un seuil de signification de α = 0,05 ? 25

26

Tests d’hypothèses b) Quelle est la conclusion du test avec un seuil de signification de α = 0,01 ? c) Quelle est la valeur p du test ? 7.4 Soit θ la proportion de bonbons rouges dans une boîte de Smarties. On prétend que θ = 0,20. a) Définir la statistique de test et la région critique avec un seuil de signification de 5 % pour le test H0 : θ = 0,20 H1 : θ ≠ 0,20. b) Pour faire le test, les 20 membres de la section locale des Amateurs de Smarties Associés (ASA) ont chacun compté le nombres de bonbons rouges dans une boîte de 50 grammes de Smarties. Ils ont obtenu les proportions suivantes : 8 , 56

13 , 55

12 , 58

13 , 56

14 , 57

5 , 54

14 , 56

15 , 57

11 , 54

13 , 55

10 , 57

8 , 59

10 , 54

11 , 55

12 , 56

11 , 57

6 , 54

7 , 58

12 , 58

14 . 58

Si chaque membre de l’ASA fait le test mentionné en a), quelle proportion des membres rejette l’hypothèse H0 ? c) En supposant vraie l’hypothèse H0 , à quelle proportion de rejets de l’hypothèse H0 peut-on s’attendre ? d) Pour chacun des ratios en b) on peut construire un intervalle de confiance à 95 % pour θ. Quelle proportion de ces intervalles de confiance contiennent θ = 0,20 ? e) Si les 20 résultats en b) sont agrégés de sorte que l’on a compté un total de 219 bonbons rouges parmi 1 124 Smarties, rejette-t-on l’hypothèse H0 , toujours avec α = 0,05 ? 7.5 Lors d’un sondage mené auprès de 800 adultes dont 605 non-fumeurs, on a posé la question suivante : Devrait-on introduire une nouvelle taxe sur le tabac pour aider à financer le système de santé au pays ? Soit θ1 et θ2 la proportion de non-fumeurs et de fumeurs, respectivement, qui ont répondu par l’affirmative à cette question. Les résultats du sondage sont les suivants : x1 = 351 non-fumeurs ont répondu oui, contre x2 = 41 fumeurs. a) Tester H0 : θ1 = θ2 versus θ1 ≠ θ2 avec un seuil de signification de 5 %. b) Trouver un intervalle de confiance à 95 % pour θ1 − θ2 . Cet intervalle permet-il d’obtenir la même conclusion qu’en a) ? c) Trouver un intervalle de confiance à 95 % pour la proportion de la population totale en faveur de l’introduction d’une nouvelle taxe sur le tabac.

Tests d’hypothèses

27

7.6 Parmi les statistiques relevées par l’Organisation mondiale de la santé (OMS) on compte la concentration en µg/m3 de particules en suspension dans l’air. Soit X et Y les concentrations en µg/m3 de particules en suspension dans l’air aux centres-villes de Melbourne (Australie) et Houston (Texas), respectivement. À partir de n = 13 observations de la variable aléatoire X et m = 16 observations de la variable aléatoire Y, on souhaite tester H0 : µ X = µY versus H1 : µ X < µY . a) Définir la statistique du test et la région critique en supposant égales les variances des distributions de X et Y. Utiliser un seuil de signification de 5 %. b) Si x¯ = 72,9, s X = 25,6, y¯ = 81,7 et sY = 28,3, quelle est la conclusion pour ce test ? c) Calculer la valeur p de ce test. Est-elle conforme à la conclusion en b) ? d) Tester si l’hypothèse de variances égales faite en a) est valide avec un niveau de confiance de 95 %. 7.7 On suppose que le poids en grammes des bébés à la naissance au Canada est distribué selon une loi normale de moyenne µ = 3 315 et de variance σ2 = 5252 , garçons et filles confondus. Soit X le poids d’une fillette née au Québec. On suppose X ∼ N (µ X , σX2 ). a) Donner l’expression de la statistique du test H0 : µ X = 3 315 versus H1 : µ X > 3 315 (les bébés sont en moyenne plus gros au Québec) si n = 11 et α = 0,01. (La valeur de σX2 est inconnue ici.) b) Calculer la valeur de la statistique et tirer une conclusion si l’échantillon de poids de 11 fillettes nées au Québec est le suivant : 3 119, 3 515,

2 657, 3 856,

3 459, 3 629,

3 629, 3 345,

3 345, 3 062.

3 629,

c) À quel niveau de confiance maximal rejette-t-on H0 ? d) Énoncer la statistique du test et la région critique du test H0 : σX2 = 5252 versus H1 : σX2 < 5252 (moins de variation dans le poids des bébés nés au Québec) si α = 0,05. e) Calculer la statistique du test à partir des données de la partie b). Quelle est la conclusion à tirer de ce résultat ? f) Calculer la valeur p du test sur la variance. 7.8 Soit Y le poids en grammes d’un garçon né au Québec et supposons que Y ∼ N (µY , σY2 ). On a les observations suivantes : 4 082, 3 686,

3 686, 3 430,

4 111, 3 289,

3 686, 3 657,

3 175, 4 082.

4 139,

Refaire les questions de l’exercice 7.7. Les réponses obtenues dans ces deux exercices suggèrent-elles d’autres hypothèses à explorer ? Faire les tests appropriés le cas échéant.

28

Tests d’hypothèses 7.9 On considère WS , la statistique de Wilcoxon dans dans une expérience comportant 40 sujets divisés en deux groupes : un groupe contrôle de 23 sujets et un groupe traitement de 17 sujets. On considère le test H0 : le traitement n’est pas efficace H1 : le traitement est efficace. a) Calculer la plus petite valeur possible de WS . b) Calculer la plus grande valeur possible de WS . c) Calculer l’espérance de WS lorsque l’hypothèse nulle est vraie. 7.10 On considère WS , la statistique de Wilcoxon dans dans une expérience comportant 7 sujets divisés en deux groupes avec 4 sujets dans le groupe traitement et 3 sujets dans le groupe contrôle. On teste les hypothèses H0 : le traitement n’est pas efficace H1 : le traitement est efficace. On suppose qu’un traitement est efficace s’il fait augmenter la valeur de la statistique. a) On obtient pour les sujets du groupe traitement les rangs {1, 3, 5, 6}. Calculer la valeur de la statistique de Wilcoxon. b) Calculer le nombre de configurations possibles. c) Calculer la valeur p du test.

Exercices proposés dans Wackerly et collab. (2008) 10.19, 10.29, 10.34, 10.37, 10.39, 10.42, 10.75, 10.79

Réponses 7.1 a) ∏in=1 Xi b) α = 0,034, β = 0,886 7.2 n = 19 ou 20, c = 32 658 7.3 a) z = −2,28 c) 0,0226 p 7.4 a) Z = (θˆ − 0,20)/ 0,20(1 − 0,20)/n b) 0 % c) 0,05 d) 100 % e) p = 0,6654 7.5 a) z = 10,45 > 1,96 b) (0,3005, 0,4393) c) (0,4555, 0,5246) q 7.6 a) T = [( X¯ − Y¯ ) − (µ X − µY )]/ (nS2X + mSY2 )(n−1 + m−1 )/(n + m − 2), T ∼ t(n + m − 2) b) t = −0,838 > t0,05 (27) c) p = 0,2047 d) f = 0,8311 < f 0,05 (12, 15)

Tests d’hypothèses 7.7 b) t = 0,6993 < t0,01 (10) c) 0,7498 e) y = 4,103 > χ20,05 (10) f) 0,0574 7.8 b) t = 4,028 < t0,01 (10) c) 0,9988 e) y = 4,223 > χ20,95 (10) f) 0,0633 g) tests sur les moyennes et les variances 7.9 a) 153 b) 544 c) 348,5 7.10 a) 15 b) 35 c) 24/35

29

A Table de quantiles de la loi normale Pr[ X ≤ x ] = Φ( x ) =

Z x −∞

2 1 √ e−y /2 dy 2π

Φ(− x ) = 1 − Φ( x ) x

Φ( x )

x

Φ( x )

x

Φ( x )

0,00 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50 0,55 0,60 0,65 0,70 0,75 0,80 0,85 0,90 0,95 1,00 1,05

0,500 0,520 0,540 0,560 0,579 0,599 0,618 0,637 0,655 0,674 0,691 0,709 0,726 0,742 0,758 0,773 0,788 0,802 0,816 0,829 0,841 0,853

1,10 1,15 1,20 1,25 1,282 1,30 1,35 1,40 1,45 1,50 1,55 1,60 1,645 1,65 1,70 1,75 1,80 1,85 1,90 1,95 1,96 2,00

0,864 0,875 0,885 0,894 0,900 0,903 0,911 0,919 0,926 0,933 0,939 0,945 0,950 0,951 0,955 0,960 0,964 0,968 0,971 0,974 0,975 0,977

2,05 2,10 2,15 2,20 2,25 2,30 2,326 2,35 2,40 2,45 2,50 2,55 2,576 2,60 2,65 2,70 2,75 2,80 2,85 2,90 2,95 3,00

0,980 0,982 0,984 0,986 0,988 0,989 0,990 0,991 0,992 0,993 0,994 0,995 0,995 0,995 0,996 0,997 0,997 0,997 0,998 0,998 0,998 0,999

31

B Table de quantiles de la loi khi carré Pr[ X ≤ x ] =

Z x 0

1 yr/2−1 e−r/2 dx Γ(r/2)2r/2 Pr[ X ≤ x ]

r

0.01

0.025

0.05

0.95

0.975

0.99

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

0.000 0.020 0.115 0.297 0.554 0.872 1.239 1.646 2.088 2.558 3.053 3.571 4.107 4.660 5.229 5.812 6.408 7.015 7.633 8.260 8.897 9.542 10.196 10.856 11.524 12.198 12.879 13.565 14.256 14.953

0.001 0.051 0.216 0.484 0.831 1.237 1.690 2.180 2.700 3.247 3.816 4.404 5.009 5.629 6.262 6.908 7.564 8.231 8.907 9.591 10.283 10.982 11.689 12.401 13.120 13.844 14.573 15.308 16.047 16.791

0.004 0.103 0.352 0.711 1.145 1.635 2.167 2.733 3.325 3.940 4.575 5.226 5.892 6.571 7.261 7.962 8.672 9.390 10.117 10.851 11.591 12.338 13.091 13.848 14.611 15.379 16.151 16.928 17.708 18.493

3.841 5.991 7.815 9.488 11.070 12.592 14.067 15.507 16.919 18.307 19.675 21.026 22.362 23.685 24.996 26.296 27.587 28.869 30.144 31.410 32.671 33.924 35.172 36.415 37.652 38.885 40.113 41.337 42.557 43.773

5.024 7.378 9.348 11.143 12.833 14.449 16.013 17.535 19.023 20.483 21.920 23.337 24.736 26.119 27.488 28.845 30.191 31.526 32.852 34.170 35.479 36.781 38.076 39.364 40.646 41.923 43.195 44.461 45.722 46.979

6.635 9.210 11.345 13.277 15.086 16.812 18.475 20.090 21.666 23.209 24.725 26.217 27.688 29.141 30.578 32.000 33.409 34.805 36.191 37.566 38.932 40.289 41.638 42.980 44.314 45.642 46.963 48.278 49.588 50.892

33

C Table de quantiles de la loi t Pr[ T ≤ t] =

Z t −∞

Γ((r + 1)/2) 1 √ dx 2 πr Γ(r/2) (1 + x /r )(r+1)/2

Pr[ T ≤ −t] = 1 − Pr[ T ≤ t] Pr[ T ≤ t] r

0.90

0.95

0.975

0.99

0.995

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

3.078 1.886 1.638 1.533 1.476 1.440 1.415 1.397 1.383 1.372 1.363 1.356 1.350 1.345 1.341 1.337 1.333 1.330 1.328 1.325 1.323 1.321 1.319 1.318 1.316 1.315 1.314 1.313 1.311 1.310

6.314 2.920 2.353 2.132 2.015 1.943 1.895 1.860 1.833 1.812 1.796 1.782 1.771 1.761 1.753 1.746 1.740 1.734 1.729 1.725 1.721 1.717 1.714 1.711 1.708 1.706 1.703 1.701 1.699 1.697

12.706 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042

31.821 6.965 4.541 3.747 3.365 3.143 2.998 2.896 2.821 2.764 2.718 2.681 2.650 2.624 2.602 2.583 2.567 2.552 2.539 2.528 2.518 2.508 2.500 2.492 2.485 2.479 2.473 2.467 2.462 2.457

63.657 9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750

35

D Table de quantiles de la loi F

Pr[ Fr1 ,r2 ≤ f ] =

Z f Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 x (r1 /2−1) 0

Γ(r1 /2)Γ(r2 /2)(1 + r1 x/r2 )(r1 +r2 )/2

La table se trouve répartie sur les deux pages suivantes.

37

dx

r2

1

2

3

4

5

6

Pr[ F ≤ f ]

0.95 0.975 0.99

0.95 0.975 0.99

0.95 0.975 0.99

0.95 0.975 0.99

0.95 0.975 0.99

0.95 0.975 0.99

5.99 8.81 13.75

6.61 10.01 16.26

7.71 12.22 21.20

10.13 17.44 34.12

18.51 38.51 98.50

161.45 647.79 4052.18

1

5.14 7.26 10.92

5.79 8.43 13.27

6.94 10.65 18.00

9.55 16.04 30.82

19.00 39.00 99.00

199.50 799.50 4999.50

2

4.76 6.60 9.78

5.41 7.76 12.06

6.59 9.98 16.69

9.28 15.44 29.46

19.16 39.17 99.17

215.71 864.16 5403.35

3

4.53 6.23 9.15

5.19 7.39 11.39

6.39 9.60 15.98

9.12 15.10 28.71

19.25 39.25 99.25

224.58 899.58 5624.58

4

4.39 5.99 8.75

5.05 7.15 10.97

6.26 9.36 15.52

9.01 14.88 28.24

19.30 39.30 99.30

230.16 921.85 5763.65

5

4.28 5.82 8.47

4.95 6.98 10.67

6.16 9.20 15.21

8.94 14.73 27.91

19.33 39.33 99.33

233.99 937.11 5858.99

6

r1

4.21 5.70 8.26

4.88 6.85 10.46

6.09 9.07 14.98

8.89 14.62 27.67

19.35 39.36 99.36

236.77 948.22 5928.36

7

4.15 5.60 8.10

4.82 6.76 10.29

6.04 8.98 14.80

8.85 14.54 27.49

19.37 39.37 99.37

238.88 956.66 5981.07

8

4.10 5.52 7.98

4.77 6.68 10.16

6.00 8.90 14.66

8.81 14.47 27.35

19.38 39.39 99.39

240.54 963.28 6022.47

9

4.06 5.46 7.87

4.74 6.62 10.05

5.96 8.84 14.55

8.79 14.42 27.23

19.40 39.40 99.40

241.88 968.63 6055.85

10

4.00 5.37 7.72

4.68 6.52 9.89

5.91 8.75 14.37

8.74 14.34 27.05

19.41 39.41 99.42

243.91 976.71 6106.32

12

3.94 5.27 7.56

4.62 6.43 9.72

5.86 8.66 14.20

8.70 14.25 26.87

19.43 39.43 99.43

245.95 984.87 6157.28

15

r2

7

8

9

10

12

15

Pr[ F ≤ f ]

0.95 0.975 0.99

0.95 0.975 0.99

0.95 0.975 0.99

0.95 0.975 0.99

0.95 0.975 0.99

0.95 0.975 0.99

4.54 6.20 8.68

4.75 6.55 9.33

4.96 6.94 10.04

5.12 7.21 10.56

5.32 7.57 11.26

5.59 8.07 12.25

1

3.68 4.77 6.36

3.89 5.10 6.93

4.10 5.46 7.56

4.26 5.71 8.02

4.46 6.06 8.65

4.74 6.54 9.55

2

3.29 4.15 5.42

3.49 4.47 5.95

3.71 4.83 6.55

3.86 5.08 6.99

4.07 5.42 7.59

4.35 5.89 8.45

3

3.06 3.80 4.89

3.26 4.12 5.41

3.48 4.47 5.99

3.63 4.72 6.42

3.84 5.05 7.01

4.12 5.52 7.85

4

2.90 3.58 4.56

3.11 3.89 5.06

3.33 4.24 5.64

3.48 4.48 6.06

3.69 4.82 6.63

3.97 5.29 7.46

5

2.79 3.41 4.32

3.00 3.73 4.82

3.22 4.07 5.39

3.37 4.32 5.80

3.58 4.65 6.37

3.87 5.12 7.19

6

r1

2.71 3.29 4.14

2.91 3.61 4.64

3.14 3.95 5.20

3.29 4.20 5.61

3.50 4.53 6.18

3.79 4.99 6.99

7

2.64 3.20 4.00

2.85 3.51 4.50

3.07 3.85 5.06

3.23 4.10 5.47

3.44 4.43 6.03

3.73 4.90 6.84

8

2.59 3.12 3.89

2.80 3.44 4.39

3.02 3.78 4.94

3.18 4.03 5.35

3.39 4.36 5.91

3.68 4.82 6.72

9

2.54 3.06 3.80

2.75 3.37 4.30

2.98 3.72 4.85

3.14 3.96 5.26

3.35 4.30 5.81

3.64 4.76 6.62

10

2.48 2.96 3.67

2.69 3.28 4.16

2.91 3.62 4.71

3.07 3.87 5.11

3.28 4.20 5.67

3.57 4.67 6.47

12

2.40 2.86 3.52

2.62 3.18 4.01

2.85 3.52 4.56

3.01 3.77 4.96

3.22 4.10 5.52

3.51 4.57 6.31

15

E Solutions Chapitre 1 1.1 a) Dans tous R ∞ les cas, il faut démontrer que f ( x ) > 0 sur tout son domaine et que −∞ f ( x ) dx = 1. i) On a f 1 ( x ) = e− x > 0, pour tout x > 0 et Z ∞ 0

e− x dx = −e−∞ − (−e−0 ) = 1.

La fonction f 1 est donc une densité de probabilité. ii) On a f 2 ( x ) = 2e−2x > 0, pour tout x > 0 et Z ∞ 0

2e−2x dx = −e−(2)(∞) − (−e−(2)(0) ) = 1.

Ainsi, f 2 est une densité de probabilité. iii) On a f 3 ( x ) = (1 + θ ) f 1 ( x ) − θ f 2 ( x ) avec 0 < θ < 1. Par conséquent, on a clairement f 3 ( x ) > 0 pour tout x > 0 et Z ∞ 0

f 3 ( x ) dx = (1 + θ )

Z ∞ 0

f 1 ( x ) dx − θ

Z ∞ 0

f x ( x ) dx

= (1 + θ )(1) − θ (1) = 1. La fonction f 3 est donc une densité de probabilité. De manière générale, toute combinaison linéaire de densités de probabilité est elle-même une densité. b) On doit vérifier que les fonctions commencent à 0, tendent vers 1 et sont non décroissantes, c’est-à-dire que limx→−∞ F ( x ) = 0, que limx→+∞ F ( x ) = 1 et que F 0 ( x ) > 0 pour tout x dans le domaine de définition de F. i) On démontre sans difficulté que limx→−∞ (1 + e− x )−1 = 0 et que limx→+∞ (1 + e− x )−1 = 1. De plus, F0 (x) = 41

e− x

(1 + e − x )2

>0

42

Solutions pour tout x ∈ R. La fonction F ( x ) = (1 + e− x )−1 est donc une fonction de répartition sur R. (Il s’agit en fait de la fonction de répartition de la loi logistique.) ii) On a limx→−∞ e−e

−x

= 0, limx→+∞ e−e F 0 ( x ) = e− x e−e

−x

−x

= 1 et

>0

pour tout x ∈ R. La fonction F ( x ) = e−e de répartition sur R.

−x

est donc une fonction

1.2 Pour avoir une densité, il faut que f ( x ) ≥ 0 pour −k < x < k et que Rk −k f ( x ) = 1. Or, Z k −k

k4 k4 + 3 3 2k4 . = 3

kx2 dx =

Par conséquent, k = ±(3/2)1/4 . Afin d’avoir une image positive pour tout −k < x < k, on doit choisir k = (3/2)1/4 . 1.3 En premier lieu, puisque e−| x| > 0 pour tout x ∈ R, on doit avoir c > 0. De plus, Z ∞ −∞

ce−| x| dx = c

Z 0 −∞

e x dx + c

Z ∞ 0

e− x dx

=c+c = 2c, Par conséquent, f ( x ) = ce−| x| , −∞ < x < ∞ est une densité si, et seulement si c = 1/2. 1.4 On se souviendra que la distribution du nombre d’essais avant d’obtenir un premier succès dans une série d’expériences de Bernoulli avec probabilité de succès p est une géométrique avec fonction de masse de probabilité Pr[ X = x ] = p(1 − p) x−1 , x = 1, 2, . . . a) La variable aléatoire X obéit à une loi géométrique de paramètre p = 1/2, d’où Pr[ X = x ] = (1/2)(1/2) x−1 = (1/2) x , x = 1, 2, . . . b) Posons q = 1 − p. En général, on a que ∞

E[ X ] =

∑ xpqx−1

x =1 ∞

= p ∑ xq x−1 . x =1

Solutions

43

La dernière somme est la dérivée d’une série géométrique. En effet, on sait que ∞

1

∑ qx = 1 − q .

x =0

En dérivant de part et d’autre par rapport à q, on obtient ∞



x =0

x =1

1

∑ xqx−1 = ∑ xqx−1 = (1 − q)2 .

De manière équivalente, ∞



d x q dq x =0

∑ xqx−1 = ∑

x =1

=

d ∞ x q dq x∑ =0

d 1 dq 1 − q 1 . = (1 − q )2

=

Par conséquent, E[ X ] =

p 1 = . p (1 − q )2

Pour la variance, on a Var[ X ] = E[ X 2 ] − E[ X ]2 ∞

= p ∑ x 2 q x −1 − x =1

1 . p2

Or, en réécrivant l’identité obtenue plus haut sous la forme ∞

q

∑ xqx = (1 − q)2 ,

x =1

puis en dérivant de part et d’autre par rapport à q, on obtient ∞

1 − q2

∑ x 2 q x −1 = (1 − q )4 .

x =1

44

Solutions Comme précédemment, on peut aussi procéder ainsi pour atteindre le même résultat : ∞



d x xq dq x =1

∑ n 2 q x −1 = ∑

x =1

=

d ∞ xq x dq x∑ =1

=

d ∞ q xq x−1 dq x∑ =1

=

d q dq (1 − q)2

=

1 − q2 . (1 − q )4

Par conséquent,  1 − (1 − p )2 1 − 2 4 p p   1 2 1 − 2 − 2 =p p3 p p 1− p . = p2 

Var[ X ] = p

Ici, on a p = 1/2 d’où E[ X ] = Var[ X ] = 2. c) On a, en général, MX (t) = E[etX ] ∞

=

∑ etx pqx−1

x =1 ∞

=

p (qet ) x q n∑ =1 ∞

p = q

∑ (qe )

t x

!

−1

x =0



=

p q

=

pet . 1 − qet

1 −1 1 − qet



En posant p = 1/2 et après quelques simplifications, on obtient MX (t) = (2e−t − 1)−1 .

Solutions

45

1.5 On a la fonction définie par branches suivante :    x − α 1   , α−β2} . 4 2 4

FX ( x ) =

b) En dérivant F ( x ), on obtient directement f ( x ) = 34 I{0< x≤1} + 41 I{1< x≤2} . c) On a Pr[ X ≤ 1/2 ∩ X ≤ 1] Pr[ X ≤ 1] F (1/2) = F (1)

Pr[ X ≤ 1/2| X ≤ 1] =

=

3 4

×

1 2

3 4

1 = . 2 1.7 On doit trouver le point où la fonction f (c) = E[( X − c)2 ] atteint son minimum. Or, f 0 (c) = −2E[ X − c] = 0 lorsque E[ X ] − c = 0, soit c = E[ X ] = µ. De plus, il s’agit bien d’un minimum puisque f 00 (c) = 2 > 0 pour tout c. 1.8 a) Si f ( x ) = ( x + 1)/2, −1 < x < 1, alors  Z 1  2 x +x

1 dx = 3 −1  Z 1  3 x + x2 1 2 E[ X ] = dx = 2 3 −1 Z 1  4 3 x + x 1 E[ X 3 ] = dx = , 2 5 −1 E[ X ] =

2

3 3 2 3 d’où σ2 = 2/9 et E[( X √− µ) ] = E[ X ] − 3µE[ X ] + 2µ = −8/135. Par conséquent, γ1 = −2 2/5.

b) La densité f ( x ) = 12 , −1 < x < 1 est celle de la loi uniforme sur (−1, 1). On sait que cette distribution est symétrique autour de sa moyenne, d’où γ1 = 0. Cette symétrie implique également que tous les moments centraux (centrés autour de la moyenne) impairs sont nuls. En effet,

−1.0

−0.5

0.0

0.5

1.0

(a) f ( x ) = ( x + 1)/2

1.0 0.8 0.6 0.4 0.2 0.0

0.3

0.0

0.2

0.4

0.4

0.5

0.6

0.6

0.8

0.7

47

1.0

Solutions

−1.0

−0.5

0.0

0.5

1.0

−1.0

−0.5

0.0

0.5

1.0

(c) f ( x ) = (1 − x )/2

(b) f ( x ) = x/2

Fig. E.1: Graphiques des fonctions de l’exercice 1.8. Toutes sont définies sur l’intervalle (−1, 1).

ici, E[ X ] = µ = 0 et E[( X − µ)3 ] = E[ X 3 ]

=

Z 1 3 x −1

2

dx

= 0, d’où γ1 = 0.

√ c) Par symétrie avec la partie a), on trouve rapidement que γ1 = 2 2/5. On trouvera à la figure E.1 les graphes des trois densités. On constate que la densité en a) est asymétrique vers la droite (d’où un coefficient d’asymétrie négatif) et que celle en c) est asymétrique vers la gauche (coefficient positif). Tel que mentionné précédemment, la densité en b) est symétrique. 1.9 Par définition de la fonction génératrice des moments, on a MX (t) = E[etX ] Z 2

  1 = e dx 3 −1 tx

e2t e−t − 3t 3t e2t − e−t , = 3t

=

t 6= 0.

1.10 Comme souvent dans ce genre de démonstration, le truc consiste à écrire l’expression sous forme d’intégrale double, puis d’inverser l’ordre d’in-

48

Solutions tégration. Ici, on a Z ∞ 0

(1 − FX ( x )) dx = = = =

Z ∞ 0 0

x

0

0

Z ∞Z y Z ∞ 0

=

Pr[ X > x ] dx

Z ∞Z ∞

Z ∞ 0

f X (y) dy dx f X (y) dx dy

f X (y)

Z y 0

dx dy

y f X (y) dy

= E [ X ]. 1.11 a) Soit ρ le coefficient de corrélation entre X1 + X2 et X2 + X3 . Par définition, ρ= p

Cov( X1 + X2 , X2 + X3 )

Var[ X1 + X2 ]Var[ X2 + X3 ] Cov( X1 , X2 ) + Cov( X1 , X3 ) + Cov( X2 , X2 ) + Cov( X2 , X3 ) p = . Var[ X1 + X2 ]Var[ X2 + X3 ]

Or, puisque les variables aléatoires ne sont pas corrélées et que leurs variances sont identiques, on a ρ= p

Var[ X2 ] (Var[ X1 ] + Var[ X2 ])(Var[ X2 ] + Var[ X3 ])

σ2 =√ 4σ4 1 = . 2 b) De manière similaire, on a ρ= p

Cov( X2 − X1 , X3 − X1 )

Var[ X2 − X1 ]Var[ X3 − X1 ] Cov( X2 , X3 ) − Cov( X1 , X2 ) − Cov( X1 , X3 ) + Var[ X1 ] p = (Var[ X2 ] + Var[ X1 ])(Var[ X3 ] + Var[ X1 ])

σ2 =√ 4σ4 1 = . 2 1.12 Par définition, E [Y k | X = x ] =

Z 1 0

yk f Y | X (y| x ) dy.

Solutions

49

Or, f XY ( x, y) f X (x) f ( x, y) = R 1 XY 0 f XY ( x, y ) dy x+y = R1 0 ( x + y ) dy x+y = . x + 21

f Y |X (y| x ) =

On a donc E [Y | X = x ] =

Z 1 xy + y2

dy x + 12 3x + 2 , = 6x + 3 Z 1 xy2 + y3 E [Y 2 | X = x ] = dy 0 x + 12 4x + 3 = 12x + 6 0

et Var[Y | X = x ] = E[Y 2 | X = x ] − E[Y | X = x ]2

=

6x2 + 6x + 1 . 2(6x + 3)2

1.13 a) On doit avoir Z 1Z y 0

0

f X |Y ( x |y) dx dy = c1

Z 1 Z 1 y 0 y2

0

x dx dy =

c1 = 1, 2

d’où c1 = 2. De manière similaire, on doit avoir Z 1 0

f Y (y) dy = c2

Z 1 0

y4 dy =

c2 = 1, 5

d’où c2 = 5. b) On a f XY ( x, y) = f X |Y ( x |y) f Y (y) = 10xy2 ,

0 < x < y, 0 < y < 1.

50

Solutions c) On a Pr[ 41 < X < 12 |Y = 85 ] =

Z 1/2 1/4 Z 1/2

f X |Y ( x | 58 ) dx

2x dx 1/4 (5/8)2   64 1 1 = − 25 4 16 12 = . 25

=

d) On a Pr[ 14 < X < 21 ] =

= = =

Z 1/2

f X ( x ) dx 1/4 Z 1/2 Z 1 1/4 0 Z 1/2 Z 1

f XY ( x, y) dy dx

10xy2 dy dx

1/4 0 Z 1/2 10x

3 5 5 = − 12 48 5 = . 16 1/4

dx

1.14 a) On a MY (t) = E[eYt ]

= E[e(aX +b)t ] = E[e aXt ebt ] = ebt E[e aXt ] = ebt MX ( at). b) On a MY (t) = E[eYt ]

= E[e(X1 +···+Xn )t ] = E [ e X1 t · · · e X n t ]

Solutions

51

et, par indépendance entre les variables aléatoires, MY (t) = E[e X1 t ] · · · E[e Xn t ] n

= ∏ M X j ( t ). i= j

Si, en plus, les variables aléatoires X1 , . . . , Xn sont identiquement distribuées comme X, alors MY (t) = ( MX (t))n . 1.15 Attention, pour démontrer l’indépendance entre deux variables aléatoires, il ne suffit pas de démontrer que la covariance est nulle. Il faut plutôt démontrer que la densité conjointe est le produit des densités marginales. Or, ici, f X (x) =

Z 1 0

= 12x

f XY ( x, y) dy Z 1 0

(y − y2 ) dy

= 2x et f Y (y) =

Z 1 0

f XY ( x, y) dx

= 12y(1 − y)

Z 1 0

x dx

= 6y(1 − y), d’où f XY ( x,y) = f X ( x ) f Y (y). Les variables aléatoires X et Y sont donc stochastiquement indépendantes. Cela implique que Cov( X, Y ) = 0, mais pas l’inverse. 1.16 On pourrait démontrer que Cov( X, Y ) ≠ 0, ce qui est une raison suffisante (mais non nécessaire) pour que deux variables aléatoires soient dépendantes. Cependant, ici, il est plus simple de démontrer que la densité conjointe n’est pas le produit des densités marginales. En effet, f X (x) =

Z ∞ 0

f XY ( x, y) dy

= 2e− x = 2e− x

Z ∞ 0

e−y dy

52

Solutions et f Y (y) =

Z y 0

f XY ( x, y) dx

= 2e−y = 2e

Z y

e− x dx

0 −y −y

(e

− 1) ,

d’où f XY ( x,y) ≠ f X ( x ) f Y (y). 1.17 Pour commencer, on trouve la valeur du paramètre λ de la loi de Poisson : on a Pr[ X = 1] = Pr[ X = 2], d’où λe−λ =

λ2 e − λ 2

et donc λ = 2. Ainsi, Pr[ X = 1 ∪ X = 2] = Pr[ X = 1] + Pr[ X = 2]

= 2e−2 +

4e−2 2

= 4e−2 . 1.18 On doit trouver le minimum de E[| X − a|] =

=

Z ∞ −∞

Z a −∞

| x − a| f ( x ) dx ( a − x ) f ( x ) dx +

Z ∞ a

( x − a) f ( x ) dx.

Or, ∞ a d f ( x ) dx + f ( x ) dx E[| X − a|] = da −∞ a = FX ( a) − (1 − FX ( a))

Z

Z

= 2FX ( a) − 1 Par conséquent, le minimum est atteint au point a tel que 2FX ( a) − 1 = 0, soit FX ( a) = 1/2. Par définition, cette valeur est la médiane de X. 1.19 a) On a directement f ( x ) = F 0 ( x ) = λτx τ −1 e−λx . τ

b) On a E[ X ] =

=

Z ∞ 0

Z ∞ 0

x f ( x ) dx λτx τ e−λx dx. τ

Solutions

53

On effectue le changement de variable y = λx τ , d’où dy = λτx τ −1 dx et donc 1

Z ∞

y1/τ e−y dy λ1/τ 0 Z Γ(1 + τ1 ) ∞ 1 = y1/τ e−y dy 1/τ λ 0 Γ (1 + τ1 )

E[ X ] =

=

Γ(1 + τ1 ) λ1/τ

puisque l’intégrande ci-dessus est la fonction de densité de probabilité d’une loi gamma de paramètre de forme α = 1 + τ1 et de paramètre d’échelle λ = 1. En procédant exactement de la même façon, on trouve 2

E[ X ] =

=

Z ∞ 0

Z ∞ 0

x2 f ( x ) dx λτx τ +1 e−λx dx

1

τ

Z ∞

y2/τ e−y dy λ2/τ 0 Γ(1 + τ2 ) = . λ2/τ

=

Par conséquent, Var[ X ] =

Γ(1 + τ2 ) − Γ(1 + τ1 )2 . λ2/τ

1.20 a) Nous indiquons la méthode la plus simple et la plus rapide pour obtenir la réponse. On observe que Y | X = x ∼ Uniforme( x, x + 1) et que X ∼ Uniforme(0, 1). On a donc   1 1 1 E[Y ] = E[ E[Y | X ]] = E X + = + = 1. 2 2 2 b) Le calcul de Cov( X, Y ) = E[ XY ] − E[ X ] E[Y ] requiert la fonction de densité conjointe de X et Y. Or, f XY ( x, y) = f Y | X (y| x ) f X ( x ) = 1, 0 < x < 1, x < y < x + 1. Par conséquent, E[ XY ] =

Z 1 Z x +1 x Z 1

0

xy dy dx

1 ( x3 + 2x2 + x − x2 ) dx 2 0 7 = . 12

=

De a) on sait que E[ X ] = 1/2 et E[Y ] = 1, d’où Cov( X, Y ) = 1/12.

Solutions

1.0 0.0

0.5

y

1.5

2.0

54

0.0

0.5

1.0

1.5

2.0

x

Fig. E.2: Domaine de définition de f XY ( x, y) = 1, 0 < x < 1, x < y < x + 1. La zone hachurée représente l’aire où x + y < 1.

c) Par définition, Pr[ X + Y < 1] =

ZZ R

f XY ( x, y) dy dx,

où R est la région du domaine de définition de f XY telle que x + y < 1. Cette région est représentée à la figure E.2. On a donc

Pr[ X + Y < 1] =

=

Z 1/2 Z 1− x x

0

Z 1/2 0

(1 − 2x ) dx

1 1 − 2 4 1 = . 4

=

dy dx

Solutions

55

Chapitre 2 2.1 Par la technique de la fonction de répartition : FY (y) = Pr[Y ≤ y]

= Pr[ X 3 ≤ y] = Pr[ X ≤ y1/3 ] 1/3

1 y x2 dx 9 0 y = , 0 < y < 27. 27

=

Z

On trouve donc que f Y (y) = FY0 (y) =

1 , 27

0 < y < 27,

soit que Y ∼ U (0, 27). 2.2 Avec les variables aléatoires discrètes, on peut généralement procéder directement au calcul de la fonction de masse de probabilité. Ici, on a  X =y Pr[Y = y] = Pr X+1   y = Pr X = 1−y  y/(1−y) 1 2 1 2 3 = , y = 0, , , , . . . 3 3 2 3 4 

2.3 On a X = µ + σZ. Par la technique de la fonction de répartition, on obtient : FX ( x ) = Pr[ X ≤ x ]

= Pr[µ + σZ ≤ x ]   x−µ = Pr Z ≤ σ   x−µ =Φ . σ Ainsi, la fonction de densité de probabilité de X est f X (x) =

d Φ dx



x−µ σ



=

1 φ σ



x−µ σ

 .

56

Solutions 2.4 Soit Z ∼ N (0, 1). La fonction génératrice des moments de la variable aléatoire Z2 est h 2i MZ2 ( t ) = E e Z t

=

Z ∞ −∞ Z ∞

2

ez t φ(z) dz

2 2 1 √ ez t e−z /2 dz −∞ 2π Z ∞ 2 1 √ e−z (1−2t)/2 dz. = −∞ 2π

=

En posant σ2 = (1 − 2t)−1 , on voit que l’on peut écrire l’expression cidessus sous la forme Z ∞ 2 2 1 √ e−z /(2σ ) dz. MZ2 ( t ) = σ −∞ σ 2π On reconnaît alors sous l’intégrale la densité d’une loi normale de moyenne 0 et de variance σ2 . Par conséquent,  1/2 1 MZ2 ( t ) = σ = , 1 − 2t soit la fonction génératrice des moments d’une loi gamma de paramètres α = λ = 1/2 ou, de manière équivalente, d’une distribution χ2 (1). 2.5 Soit X une variable aléatoire et Y = FX ( X ) avec F continue et strictement croissante. Par conséquent, Pr[Y ≤ y] = Pr[ FX ( X ) ≤ y]

= Pr[ X ≤ FX−1 (y)] = FX ( FX−1 (y)) = y, d’où Y ∼ U (0, 1), peu importe la loi de X. 2.6 a) On a X ∼ N (0, σ2 ) et Y = X 2 . Il faut voir que Y = X 2 n’est pas une transformation bijective. On pose donc d’abord Z = | X | et on trouve la densité de Z à l’aide de la technique de la fonction de répartition : FZ (z) = Pr[| X | ≤ z]

= Pr[−z ≤ X ≤ z] = FX (z) − FX (−z) d’où f Z (z) = f X (z) + f X (−z) 2 2 2 = √ e− x /(2σ ) , σ 2π

z > 0.

Solutions

57

Ensuite, on pose la transformation bijective Y = Z2 = | X |2 = X 2 . Par la technique du changement de variable, on a 1 f Y (y) = f Z (y1/2 ) √ 2 y 2 2 = √ e−y/(2σ ) σ 2π

= puisque Γ( 21 ) =





1 √



2 y

(2σ2 )−1/2 1/2−1 −y/(2σ2 ) y e , Γ( 12 )

y>0

π. On voit donc que  Y ∼ Gamma

1 1 , 2 2σ2

 .

√ b) On sait que Z = X1 − X2 ∼ N (0, 2) et que Z/ 2 ∼ N (0, 1). En utilisant le résultat de la partie a), on a immédiatement que Y = Z2 /2 ∼ χ2 (1). 2.7 Ici, les variables aléatoires Y1 et Y2 ne sont clairement pas indépendantes. La fonction génératrice des moments conjointe n’est donc pas égale au produit des fonctions génératrices des moments marginales. En revanche, h i MY1 Y2 (t1 , t2 ) = E et1 Y1 +t2 Y2 i h 2 2 = E et1 (X1 +X2 )+t2 (X1 +X2 ) h i 2 2 = E e t 1 X1 + t 2 X1 e t 1 X2 + t 2 X2 h i h i 2 2 = E e t 1 X1 + t 2 X1 E e t 1 X2 + t 2 X2 par indépendance entre X1 et X2 . Puisque X1 et X2 sont aussi identiquement distribuées, on a h i 2 2 MY1 Y2 (t1 , t2 ) = E et1 X +t2 X , où X ∼ N (0, 1). Or, ∞

2 2 1 √ e−(x −2t1 x−2t2 x )/2 dx −∞ 2π Z ∞ 2 1 √ e−[(1−2t2 )x −2t1 x]/2 dx = −∞ 2π    Z ∞ 1 1 − 2t2 2 2t1 √ = exp − x − x dx 2 1 − 2t2 −∞ 2π

h i Z 2 E e t1 X + t2 X =

58

Solutions et, en complétant le carré dans l’expression entre parenthèses, h

E e

t1 X + t2 X 2

i

(

)Z ∞ t21 1 √ = exp 2(1 − 2t2 ) −∞ 2π (   2  ) 1 2t1 t1 2 × exp − x − x+ dx 1 − 2t2 1 − 2t2 2(1 − 2t2 )−1 ( )Z ∞ t21 1 √ = exp 2(1 − 2t2 ) −∞ 2π ( 2 )  1 t1 × exp − dx x− 1 − 2t2 2(1 − 2t2 )−1 ( ) t21 −1/2 = (1 − 2t2 ) exp , 2(1 − 2t2 )

d’où 1 exp MY1 Y2 (t1 , t2 ) = 1 − 2t2

(

t21 1 − 2t2

) ,

1 −∞ < t1 < ∞, −∞ < t2 < . 2

2.8 La transformation de variables aléatoires est définie par les systèmes d’équations suivants : x1 x1 + x2 x1 + x2 y2 = x1 + x2 + x3 y3 = x1 + x2 + x3 y1 =

x1 = y1 y2 y3 x2 = (1 − y1 ) y2 y3 x3 = y3 − y2 y3 .

La distribution conjointe des variables aléatoires Y1 , Y2 et Y3 est f Y1 Y2 Y3 (y1 , y2 , y3 ) = f X1 X2 X3 (y1 y2 y3 , (1 − y1 )y2 y3 , y3 − y2 y3 )| J |, où

3

f X1 X2 X3 ( x1 , x2 , x3 ) = ∏ f Xi ( xi ) = e−( x1 + x2 + x3 ) . i =1

et ∂x1 /∂y1 ∂x1 /∂y2 ∂x1 /∂y3 J = ∂x2 /∂y1 ∂x2 /∂y2 ∂x2 /∂y3 ∂x3 /∂y1 ∂x3 /∂y2 ∂x3 /∂y3 y2 y3 y1 y3 y1 y2 = −y2 y3 y3 − y1 y3 y2 − y1 y2 0 − y3 1 − y2

= y2 y23 .

Solutions

59

Ainsi, f Y1 Y2 Y3 (y1 , y2 , y3 ) = e−(y1 y2 y3 +y2 y3 −y1 y2 y3 +y3 −y2 y3 ) |y2 y23 |

= y2 y23 e−y3 ,

y1 , y2 , y3 > 0.

Puisque la densité conjointe est le produit de trois fonctions g1 (y1 ) = 1, g2 (y2 ) = y2 et g3 (y3 ) = y23 e−y3 (qui ne sont pas nécessairement les densités marginales), alors les variables aléatoires Y1 , Y2 et Y3 sont stochastiquement indépendantes. On pourrait aussi calculer densités mariginales et vérifier que leur produit égale à la densité conjointe. Il est laissé en exercice de vérifier que e−y3 y23 2 f Y2 (y2 ) = 2y2

f Y3 (y3 ) =

f Y1 (y1 ) = 1, d’où le résultat. 2.9 a) On a X ∼ N (µ, σ2 ) et Y = e X . On sait que   x−µ FX ( x ) = Φ . σ Or, par la technique de la fonction de répartition, on trouve FY (y) = Pr[e X ≤ y]

= Pr[ X ≤ ln(y)] = FX (ln(y))   ln(y) − µ =Φ σ et 1 f X (ln(y)) y   1 ln(y) − µ φ . = σy σ

FY (y) =

b) On a simplement E[Y k ] = E[ekX ]

= MX (k ) = ekµ+k

2 σ2 /2

,

où MX (t) est la fonction génératrice des moments de la variable aléatoire X.

60

Solutions 2.10 On pose Y1 = X1 /X2 et, tel que suggéré dans l’énoncé, Y2 = X2 . Les relations inverses sont X1 = Y1 Y2 et X2 = Y2 . La distribution conjointe de Y1 et Y2 est donc f Y1 Y2 (y1 , y2 ) = f X1 X2 (y1 y2 , y2 )| J |, avec f X1 X2 ( x 1 , x 2 ) =

1 −( x2 + x2 )/2 e 1 2 2π

et y J = 2 0

y1 = y2 . 1

Ainsi, f Y1 Y2 (y1 , y2 ) = f X1 X2 (y1 y2 , y2 )|y2 |

=

|y2 | −(y2 y2 +y2 )/2 e 1 2 2 . 2π

Il ne reste qu’à intégrer pour trouver la densité marginale de Y1 : Z ∞ |y2 | −(1+y2 )y2 /2 1 2 f Y1 (y1 ) = e dy2 −∞ 2π Z 0

y2 −(1+y2 )y2 /2 1 2 e dy2 + −∞ 2π Z ∞ y2 −(1+y2 )y2 /2 1 2 =2 e dy2 0 2π 1 = , π (1 + y21 )

=−

Z ∞ y2 −(1+y2 )y2 /2 1 2 e dy 0



2

d’où Y1 = X1 /X2 ∼ Cauchy. 2.11 a) Puisque la loi t est symétrique autour de zéro, on a Pr[| T | > 2,228] = Pr[ T > 2,228] + Pr[ T < −2,228]

= 2Pr[ T > 2,228]. Or, on trouve dans la table de la loi t de l’annexe C que Pr[ T ≤ 2,228] = 0,975 si T ∼ t(10). Par conséquent, Pr[| T | > 2,228] = 2(1 − 0,975) = 0,05. b) Toutes les fonction R servant à évaluer des fonctions de répartition ont un argument lower.tail. Ce argument est TRUE par défaut, mais lorsque qu’il est FALSE, la fonction retourne la probabilité au-dessus du point x. Ainsi, la probabilité cherchée ici est

Solutions

61

> 2 * pt(2.228, 10, lower.tail = FALSE) [1] 0.05001177

Il est recommandé d’utiliser cette approche parce qu’elle est, de manière générale, plus précise que le calcul du type 1 - pt(x, n), surtout loin dans les queues des distributions. 2.12 a) Par symétrie de la loi t, Pr[−b < T < b] = Pr[ T < b] − Pr[ T < −b]

= Pr[ T < b] − (1 − Pr[ T < b]) = 2Pr[ T < b] − 1 = 0,90. On cherche donc la valeur de b tel que Pr[ T < b] = (1 + 0,90)/2 = 0,95, où T ∼ t(14). Dans la table de la loi t de l’annexe C on trouve que b = 1,761. b) En définitive, on cherche le 95e centile d’une loi t(14). Avec R, on obtient > qt(0.95, 14) [1] 1.76131

2.13 a) La fonction de densité de la loi t avec r degrés de liberté est Γ((r + 1)/2) 1 f (t) = √ . 2 πr Γ(r/2) (1 + t /r )(r+1)/2 √ Si r = 1, et puisque Γ(1) = 1 et que Γ( 21 ) = π, la densité se simplifie en Γ (1) f (t) = √ π Γ(1/2)(1 + t2 ) 1 = , π (1 + t2 ) qui est la densité de la loi de Cauchy. b) En ne tenant pas compte, tel que suggéré dans l’énoncé, des constantes dans la densité de la loi t, on a −(r+1)/2  t2 lim f (t) ∝ lim 1 + r →∞ r →∞ r " r #−1/2  −1/2 t2 t2 = lim 1+ 1+ r →∞ r r 2

= (et )−1/2 (1) = e−t

2 /2

,

qui est, à une constante près, la densité de la loi normale centrée réduite.

62

Solutions 2.14 On sait que si Z ∼ N (0, 1), alors Y = Z2 ∼ χ2 (1). Ainsi, E[ Z4 ] = E[Y 2 ] et donc le quatrième moment de la normale centrée réduite est simplement le second moment de la khi carré. Or, E[Y 2 ] = Var[Y ] + E[Y ]2 = 2 + 1 = 3, d’où le coefficient d’applatissement de la loi normale est γ2 ( Z ) = 3 − 3 = 0. 2.15 a) On a U ∼ χ2 (r1 ) et V ∼ χ2 (r2 ). On pose F = (U/r1 )/(V/r2 ) et, disons, G = V. Pour trouver la densité (marginale) de F, il faudra passer par la densité conjointe de F et G. Les équations régissant la transformation de variables aléatoires sont r r2  u  u = 1 xy x= r1 v r2 y=v v = y. Ainsi, le jacobien de la transformation est r1 y/r2 r1 x/r2 r1 = y J= 0 1 r2 et la densité conjointe de F et G est   r1 r1 f FG ( x, y) = f UV xy, y y r2 r2     r1 r1 = y fU xy f V (y) r2 r2

=

(r1 /r2 )(1/2)(r1 +r2 )/2 (r1 xy/r2 )r1 /2−1 yr2 /2 e−(r1 x/r2 +1)y/2 Γ(r1 /2)Γ(r2 /2)

pour x > 0 et y > 0. En intégrant, on trouve la densité marginale de F: f F (x) =

Z ∞ 0

f FG ( x, y) dy

(r1 /r2 )(r1 +r2 )/2 xr1 /2−1 Γ(r1 /2)Γ(r2 /2) Z ∞  (r1 +r2 )/2 1 × y(r1 +r2 )/2−1 e−(r1 x/r2 +1)y/2 dy 2 0

=

=

Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 xr1 /2−1 Γ(r1 /2)Γ(r2 /2)(r1 x/r2 + 1)(r1 +r2 )/2

×

Z ∞ (1/2)(r1 +r2 )/2 (r1 x/r2 + 1)(r1 +r2 )/2 (r1 +r2 )/2−1 −(r1 x/r2 +1)y/2 y e dy 0

=

Γ((r1 + r2 )/2)

Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 xr1 /2−1 , Γ(r1 /2)Γ(r2 /2)(1 + r1 x/r2 )(r1 +r2 )/2

Solutions

63

puisque l’intégrande ci-dessus est la densité d’une loi gamma. La loi de la variable aléatoire F est appelée loi F avec r1 et r2 degrés de liberté. b) Par indépendance entre les variables aléatoires U et V, on a  E[ F ] = E r2 r1 r = 2 r1

=

 U/r1 V/r2   U E V   1 E [U ] E . V

Or, E[U ] = r1 et  Z ∞ 1 1 E = f V (v) dv V 0 v Z ∞ 1 = vr2 /2−1−1 e−v/2 dv r /2 2 2 Γ (r2 /2) 0 

=

2r2 /2−1 Γ(r2 /2 − 1) , 2r2 /2 Γ(r2 /2)

r2 − 1 > 0. 2

Avec la propriété de la fonction gamma Γ( x ) = ( x − 1)Γ( x − 1), cette expression se simplifie en  E

 1 1 = , V r2 − 2

d’où, enfin, E[ F ] =

r2 r2 − 2

pour r2 > 2. c) En procédant comme en b), on trouve que E[U 2 ] = Var[U ] + E[U ]2 = 2r1 + r12 , que   1 1 E 2 = (r2 − 2)(r2 − 4) V et donc que   h i r2 1 E F2 = 22 E[U 2 ] E 2 V r1

=

r22 (r1 + 2) . r1 (r2 − 2)(r2 − 4)

64

Solutions Par conséquent,  2 r22 (r1 + 2) r2 Var[ F ] = − r1 (r2 − 2)(r2 − 4) r2 − 2  2   r2 r2 + r1 − 2 =2 , r2 − 2 r1 (r2 − 4) pour r2 > 4. 2.16 On a 

U/r1 V/r2 V/r2 = U/r1

1 = F

 −1

où U ∼ χ2 (r1 ) et V ∼ χ2 (r2 ). Puisqu’il s’agit d’un ratio de deux variables aléatoires χ2 divisées chacune par son nombre de degrés de liberté, on a donc que 1 ∼ F (r2 , r1 ). F 2.17 On a F ∼ F (5, 10) et l’on cherche a et b tel que Pr[ F ≤ a] = 0,05 et Pr[ F ≤ b] = 0,95. Dans une table de loi F, on trouve que Pr[ F ≤ 3,326] = 0,95 et donc que b = 3,326. Puisque les quantiles inférieurs ne sont pas inclus dans la table de l’annexe D, on doit utiliser pour trouver a la relation Pr[ F ≤ a] = 1 − Pr[ F −1 ≤ a−1 ] où, tel que démontré à l’exercice 2.16, F −1 ∼ F (10, 5). Dans une table, on trouve que a−1 = 4,74, d’où a = 0,211. Avec R, on obtient les mêmes résultats encore plus simplement : > qf(c(0.05, 0.95), 5, 10) [1] 0.2111904 3.3258345

2.18 On sait que W 2 ∼ χ2 (1). Ainsi, T2 =

W 2 /1 , V/r

qui est un ratio de deux variables aléatoires χ2 divisées par leur nombre de degrés de liberté. Par définition de la loi F, on a donc que T 2 ∼ F (1, r ). 2.19 Par la technique de la fonction de répartition, FY (y) = Pr[Y ≤ y]   1 = Pr ≤y 1 + r1 F/r2     1 r = Pr F ≥ −1 2 y r1    1 r = 1 − FF −1 2 . y r1

Solutions

65

En dérivant, on trouve que la fonction de densité de la variable aléatoire Y est  f Y (y) =

r2 r1



1 y2



 fF

1 −1 y



r2 r1

 ,

soit, en posant a = r1 /2 et b = r2 /2, Γ( a + b)( ba ) a ( ba ) a y−2 (y−1 − 1) a−1 Γ( a)Γ(b) [1 + (y−1 − 1)] a+b Γ ( a + b ) b −1 = y (1 − y ) a −1 , Γ( a)Γ(b)

f Y (y) =

d’où Y ∼ Bêta(b, a). 2.20 a) On a f X |Θ ( x |θ ) = θe−θx ,

x>0

et uΘ (θ ) =

λα α−1 −λθ θ e , Γ(α)

θ > 0.

Par conséquent, f X (x) =

Z ∞ 0

f X |Θ ( x |θ )uΘ (θ ) dθ

∞ λα θ α+1−1 e−( x+λ)θ dθ Γ(α) 0 Γ ( α + 1) λ α = Γ(α)( x + λ)α+1 αλα = , ( λ + x ) α +1

=

Z

d’où X ∼ Pareto(α, λ). Pour passer de la seconde à la troisième égalité, ci-dessus, il faut identifier l’intégrande comme la densité d’une loi Gamma(α + 1, x + λ), à une constante près. b) Dans la mesure où l’on connaît la distribution marginale de X, on sait immédiatement que E[ X ] = α/(λ − 1). On aurait aussi pu passer par l’espérance conditionnelle, technique qui ne requiert pas de connaître

66

Solutions la distribution marginale : E[ X ] = E[ E[ X |Θ]]   1 =E Θ Z ∞ 1 = uΘ (θ ) dθ 0 θ Z ∞ λα θ α−1−1 e−λθ dθ = Γ(α) 0 λ α Γ ( α − 1) = α −1 λ Γ(α) λ = . α−1

Chapitre 3 3.1 On sait que X¯ ∼ N ( E[ X¯ ], Var[ X¯ ]) avec E[ X¯ ] = E[ X ] = 10 et Var[ X¯ ] = Var[ X ]/n = 125/5 = 5. Par conséquent, X¯ − 10 c − 10 √ < √ 25 25 = Pr[ Z < zα ]

Pr[ X¯ < c] = Pr





=1−α avec Z ∼ N (0, 1) et zα = (c − 10)/5. Ici, on a 1 − α = 0,90. On trouve dans une table de quantiles de la loi normale que z0,10 = 1,282, d’où c = 16,41. 3.2 On a E[ X¯ ] = E[ X ] = µ, Var[ X¯ ] = Var[ X ]/n = 100/n et X¯ ∼ N (µ, 100/n). Ainsi, on cherche n tel que   5 X¯ − µ 5 ¯ √ < √ < √ Pr[µ − 5 < X < µ + 5] = Pr − 10/ n 10/ n 10/ n  √   √  5 n 5 n =Φ −Φ − 10 10  √  5 n = 2Φ −1 10

= 0,954, soit

 √  5 n Φ = 0,977. 10

√ On trouve dans une table de loi normale que 5 n/10 = 2, d’où n = 16.

Solutions

67

3.3 On a X¯ ∼ N (0, 16/25), Y¯ ∼ N (1, 9/25) et, par conséquent, X¯ − Y¯ ∼ N (−1, 1). On a donc Pr[ X¯ > Y¯ ] = Pr[ X¯ − Y¯ > 0]   X¯ − Y¯ − (−1) 0 − (−1) √ √ = Pr > 1 1 = 1 − Φ (1)

= 0,159. 3.4 Soit

α

Y=

∑ Xi

i =1

avec Xi ∼ Exponentielle(λ) et X1 , . . . , Xα indépendantes. Par le Théorème central limite, α

∑ Xi ∼ N (αE[Xi ], αVar[Xi ]). α→∞

lim Y = lim

α→∞

i =1

Par conséquent, α α  . , α→∞ λ λ2 On trouve à la figure E.3 les graphiques de densités gamma pour quelques valeurs du paramètre α. On observe, en effet, que la distribution tend vers une normale lorsque α augmente. lim Y ∼ N

3.5 a) On a l’échantillon aléatoire X1 , . . . , X100 , où   50 1 2 Xi ∼ χ (50) ≡ Gamma , , 2 2

i = 1, . . . , 100.

Or, on sait que Y = X1 + · · · + X100 ∼ Gamma(100(25), 1/2) et que X¯ = Y/100 ∼ Gamma(2 500, 100/2). b) On peut, par exemple, obtenir la probabilité demandée avec R ainsi : > pgamma(51, 2500, 50) - pgamma(49, 2500, 50) [1] 0.6827218

c) On a E[ X¯ ] = 2 500/50 = 50 et Var[ X¯ ] = 2 500/502 = 1. En utilisant l’approximation normale, on trouve   49 − 50 X¯ − 50 51 − 50 ¯ Pr[49 < X < 51] = Pr < < 1 1 1

≈ Φ(1) − Φ(−1) = 2Φ(1) − 1 = 0,682. On trouve la valeur de Φ(1) dans une table de quantiles de la loi normale ou à l’aide d’un logiciel statistique.

68

Solutions

0.08 0.06 0.04 0.00

0.02

dgamma(x, α, 1)

0.10

0.12

α = 10 α = 20 α = 50

0

20

40

60

80

100

x

Fig. E.3: Densités de lois gamma pour quelques valeurs du paramètre de forme α.

3.6 Puique l’on ne demande qu’une valeur approximative pour Pr[7 < X¯ < 9], on va utiliser l’approximation normale. La taille de l’échantillon étant relativement grande, l’approximation sera très bonne. Soit X¯ = ( X1 + · · · + X128 )/128, où Xi ∼ Gamma(2, 14 ), i = 1, . . . , 128. On a E[ X¯ ] = E[ Xi ] = 8 et Var[ X¯ ] = Var[ Xi ]/128 = 1/4. Par conséquent,   7−8 X¯ − 8 9−8 Pr[7 < X¯ < 9] = Pr √ x, X2 > x, . . . , Xn > x ].

70

Solutions Or, les variables aléatoires X1 , . . . , Xn sont indépendantes et identiquement distribuées, d’où FX(1) ( x ) = 1 − Pr[ X1 > x ]Pr[ X2 > x ] · · · Pr[ Xn > x ]

= 1 − (Pr[ X > x ])n = 1 − (1 − FX ( x ))n . 3.11 On cherche la probabilité que la plus grande valeur de l’échantillon soit supérieure à 3, soit le complément de la probabilité que toutes les valeurs de l’échantillon soient inférieures à 3 : Pr[ X(4) > 3] = 1 − Pr[ X(4) ≤ 3]

= 1 − Pr[ X1 ≤ 3]Pr[ X2 ≤ 3]Pr[ X3 ≤ 3]Pr[ X4 ≤ 3] = 1 − ( FX (3))4 . Or, on aura reconnu en f ( x ) la densité d’une loi exponentielle de paramètre λ = 1. Par conséquent, FX ( x ) = 1 − e− x et Pr[ X(4) > 3] = 1 − (1 − e −3 )4 . 3.12 Soit m la médiane de la distribution. On cherche Pr[ X(1) > m]. Avec le résultat de l’exercice 3.10, Pr[ X(1) > m] = 1 − Pr[ X(1) ≤ m]

= 1 − FX(1) (m) = 1 − (1 − (1 − FX (m))3 ) = (1 − FX (m))3 1 = , 8 car FX (m) = 1 − FX (m) = 1/2 par définition de la médiane. Le type de distribution ne joue donc aucun rôle dans cet exercice. 3.13 On a que X est distribuée uniformément sur {1, . . . , 6}, d’où FX ( x ) = x/6, x = 1, . . . , 6. De l’exercice 3.10, on a que FX(1) ( x ) = 1 − (1 − FX ( x ))5  x 5 . =1− 1− 6

Solutions

71

Par conséquent, la fonction de masse de probabilité du minimum est Pr[ X(1) = x ] = lim FX(1) (y) − lim FX(1) (y) y→ x−

y→ x+

= FX(1) ( x ) − FX(1) ( x − 1)    5 x−1 5 x = 1− − 1− 6 6  5  5 7−x 6−x = − . 6 6 3.14 De l’exercice 3.10, on a FX(1) ( x ) = 1 − (1 − FX ( x ))n

= 1 − (e−(λx) )n τ

= 1 − e−(n

1/τ λx )τ

,

1

d’où X(1) ∼ Weibull(n τ λ, τ ). Ainsi, la fonction de densité de probabilité du minimum de l’échantillon est f X(1) ( x ) = nλτx τ −1 e−(n et l’espérance est E [ X (1) ] =

1/τ λx )τ

Γ(1 + 1/τ ) 1

nτ λ

.

3.15 Soit R l’étendue de l’échantillon aléatoire. On sait que f R ( x ) = n ( n − 1 ) x n −2 (1 − x ). Par conséquent  Z 1/2 1 Pr R ≤ = f X ( x ) dx 2 0 

= (4)(3) =

Z 1/2 0

x2 (1 − x ) dx

5 . 16

3.16 On a que X ∼ Bêta(1, 2), c’est-à-dire que f X ( x ) = 2(1 − x ), 0 < x < 1. Soit X1 , X2 un échantillon aléatoire tiré de cette densité. Par indépendance, on a f X1 X2 ( x 1 , x 2 ) = f X1 ( x ) f X2 ( x )

= 4(1 − x1 )(1 − x2 ).

72

Solutions On cherche Pr[ X2 ≥ 2X1 ∪ X1 ≥ 2X2 ]. Par définition, Pr[ X1 ≥ 2X2 ∪ X2 ≥ 2X1 ] =

ZZ

f X1 X2 ( x1 , x2 ) dx2 dx1 ,

R

où R est la région du domaine de définition de f X1 X2 telle que x1 > 2x2 ou x2 > 2x1 . Cette région est représentée à la figure E.4. On a donc Pr[ X1 ≥ 2X2 ∪ X2 ≥ 2X1 ] = 4

Z 1/2 Z 1 0

(1 − x1 )(1 − x2 ) dx2 dx1

2x1 Z 1/2 Z 1

(1 − x1 )(1 − x2 ) dx1 dx2   1 =4 (1 − x1 ) − 2x1 + 2x12 dx1 2 0   Z 1/2 1 +4 − 2x2 + 2x22 dx2 (1 − x2 ) 2 0 7 = . 12 +4

0 Z 1/2

2x2

3.17 Soit T = ( X(1) + X(n) )/2 la mi-étendue et R l’étendue. On sait que f RT (r, t) = n(n − 1)r n−2 . On doit calculer la densité marginale de T. Il faut voir que le domaine de R (et donc le domaine d’intégration) dépend indirectement de T. En effet, si 0 ≤ t ≤ 1/2, on doit avoir 0 < r < 2t. Par contre, si 1/2 < t < 1, il faut que 0 < r < 2(1 − t). On obtient ( n(2t)n−1 , 0 < t < 1/2 f T (t) = n(2(1 − t))n−1 , 1/2 < t < 1. Ainsi, E [ T ] = 2n −1 n

=2

n −1

0

 n

1/2

Z

tn dt +

Z 1 1/2

0,5n+1

t(1 − t)n−1 dt

n+2 + n+1 n ( n + 1)



1





2n +1

1 = . 2 3.18 On a d’abord les résultats suivants : Xi ∼ U (0, 1), X(1) ∼ Bêta(1, n), X(n) ∼ Bêta(n, 1) et f X(1) X(n) ( x, y) = n(n − 1)(y − x )n−2 . Ainsi, Z 1 Z 1 h i E X (1) X ( n ) = n ( n − 1 ) x y(y − x )n−2 dy dx. 0

x

73

0.0

0.2

0.4

x2

0.6

0.8

1.0

Solutions

0.0

0.2

0.4

0.6

0.8

1.0

x1

Fig. E.4: Domaine de définition de f X1 X2 ( x1 , x2 ) = 4(1 − x1 )(1 − x2 ), x1 , x2 ∈ (0, 1). Les zones hachurées représentent les aires où x2 > 2x1 ou x1 > 2x2 .

L’intégrale intérieure ci-dessus se résoud par parties en posant u = y et dv = (y − x )n−2 dy. On obtient alors

 Z 1  Z 1 h i ( y − x ) n −1 y 1 − E X (1) X ( n ) = n ( n − 1 ) x (y − x )n−1 dy dx n−1 n−1 x 0

=n

Z 1 0

x (1 − x )n−1 dx −

Z 1

1 1 − n + 1 (n + 1)(n + 2) 1 = , n+2

=

0

x (1 − x )n dx

74

Solutions en intégrant une seconde fois par parties. Par conséquent,   h i h i h i Cov X(1) , X(n) = E X(1) X(n) − E X(1) E X(n)    1 1 n = − n+2 n+1 n+1 1 . = ( n + 1)2 ( n + 2) a) On a h i h i E [ R ] = E X ( n ) − E X (1) n 1 − n+1 n+1 n−1 = n+1

=

et h i h i   Var[ R] = Var X(1) + Var X(n) − 2 Cov X(1) , X(n) n n 2 + − ( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2) 2n − 2 . = ( n + 1)2 ( n + 2)

=

b) On a

E[ T ] =

h i h i E X (1) + E X ( n )

1 = 2 1 = 2



2  n 1 + n+1 n+1

et

Var[ T ] =

h i h i   Var X(1) + Var X(n) + 2 Cov X(1) , X(n)

4   1 n n 2 = + + 4 ( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2) 1 = . ( n + 1)2 ( n + 2)

Solutions

75

Chapitre 4 4.1 a) On a une une distribution de Poisson de paramètre θ, d’où E[ X ] = θ. ¯ L’estimateur des moments est donc θˆ = X. b) La densité est celle d’une distribution bêta de paramètres θ et 1. Ainsi, E[ X ] = θ/(θ + 1) et en posant θ = X¯ θ+1 on trouve que l’estimateur des moments de θ est θˆ =

X¯ . 1 − X¯

c) On reconnaît la densité d’une distribution gamma de paramètres 1 et θ −1 . Ainsi, on sait que E[ X ] = θ, d’où l’estimateur des moments est ¯ θˆ = X. d) Cette densité est celle de la loi de Laplace. On a  Z θ Z ∞ 1 E[ X ] = xe x−θ dx + xe− x+θ dx 2 −∞ θ 1 = (2θ ) 2 = θ. ¯ L’estimateur des moments de θ est donc θˆ = X. e) On a la densité d’une exponentielle de paramètre 1 translatée de θ vers la droite. Par conséquent, E[ X ] = θ + 1, un résultat facile à vérifier en ¯ on trouve facilement que θˆ = X¯ − 1. intégrant. En posant θ + 1 = X, 4.2 Dans tous les cas, la fonction de vraisemblance est L(θ ) = ∏in=1 f ( xi ; θ ) et la fonction de log-vraisemblance est l (θ ) = ln L(θ ) = ∑in=1 ln f ( xi ; θ ). L’estimateur du maximum de vraisemblance du paramètre θ est la solution de l’équation l 0 (θ ) = 0. a) On a n

e−nθ θ ∑i=1 xi L(θ ) = , ∏in=1 xi ! n

n

i =1

i =1

l (θ ) = −nθ + ∑ xi ln(θ ) − ∑ ln( xi !) et l 0 (θ ) = −n +

∑in=1 xi . θ

En résolvant l’équation l 0 (θ ) = 0 pour θ, on trouve que l’estimateur du ¯ maximum de vraisemblance est θˆ = X.

76

Solutions b) On a n

∏ xi

L(θ ) = θ n

! θ −1 ,

i =1

n

l (θ ) = n ln(θ ) + (θ − 1) ∑ ln( xi ) i =1

et l 0 (θ ) =

n n + ∑ ln( xi ). θ i =1

On trouve donc que θˆ = −

n ∑in=1 ln( Xi )

=−

n . ln( X1 · · · Xn )

c) On a n

L(θ ) = θ −n e− ∑i=1 xi /θ , l (θ ) = −n ln(θ ) −

∑in=1 xi θ

et l 0 (θ ) = − ¯ On obtient que θˆ = X. d) On a

n ∑in=1 xi . + θ θ2

 n n 1 e − ∑ i =1 | x i − θ | L(θ ) = 2

La présence de la valeur absolue rend cette fonction non différentiable en θ. On remarque que la fonction de vraisemblance sera maximisée lorsque l’expression ∑in=1 | xi − θ | sera minimisée. Par analogie avec le résultat de l’exercice 1.18, on établit que θˆ = med( X1 , . . . , Xn ). e) On remarque que le support de la densité dépend du paramètre θ. Dans de tels cas, la technique usuelle de maximisation de la fonction de vraisemblance n’est d’aucune utilité. D’ailleurs, on a n

L(θ ) = enθ −∑i=1 xi et on voit que la fonction de vraisemblance est strictement croissante en fonction de θ, ce qui indique de choisir une valeur de θ la plus grande possible. Par contre, on a la contrainte x ≥ θ, c’est-à-dire que θ doit être plus inférieur ou égal à la plus petite valeur de l’échantillon. Par conséquent, θˆ = min( X1 , . . . , Xn ) = X(1) .

Solutions

77

4.3 a) On a X = Z + µ où Z ∼ Exponentielle(λ). Alors, FX ( x ) = Pr[ Z + µ ≤ x ]

= FZ ( x − µ) = 1 − e−λ( x −µ) ,

x>µ

et f X ( x ) = λe−λ( x−µ) ,

x > µ.

b) On a simplement E[ X ] = E[ Z + µ]

= E[ Z ] + µ 1 = +µ λ et Var[ X ] = Var[ Z + µ]

= Var[ Z ] 1 = 2. λ c) On a n

L(µ,λ) = λn e−λ ∑i=1 ( xi −µ) n

l (µ,λ) = n ln(λ) − λ ∑ ( xi − µ) i =1

et n ∂l (µ,λ) n = − ∑ ( xi − µ ) , ∂λ λ i =1

d’où λ=

n ∑in=1 ( xi

− µ)

.

On voit que la fonction de vraisemblance est strictement croissante en fonction de µ. Ainsi, il faut prendre la valeur de µ la plus grande possible en respectant la condition dictée par la densité de l’exponentielle translatée, x ≥ µ. On a donc µˆ = X(1) λˆ =

n . − x (1) )

∑in=1 ( xi

78

Solutions d) On a, par exemple, les résultats suivants pour une exponentielle translatée de paramètres µ = λ−1 = 1 000 : > x min(x) [1] 1009.415 > 100/sum(x - min(x)) [1] 0.001052481

Les estimations obtenues sont près des vraies valeurs des paramètres, même pour un relativement petit échantillon de taille 100. 4.4 Il est clair ici que, comme f ( x; θ ) = 1, on ne pourra pas utiliser la technique habituelle pour calculer l’estimateur du maximum de vraisemblance. Il faut d’abord déterminer l’ensemble des valeurs de θ possibles selon l’échantillon obtenu. Comme toutes les données de l’échantillon doivent se trouver dans l’intervalle [θ − 1/2, θ + 1/2], on a θ ≥ X(n) − 1/2 et θ ≤ X(1) + 1/2. De plus, puisque X(n) − X(1) ≤ 1, on a que X(n) − 1/2 ≤ θ ≤ X(1) + 1/2. Ainsi, toute statistique satisfaisant ces inégalités est un estimateur du maximum de vraisemblance de θ. On a donc que X( n ) −

1 1 ≤ T ( X1 , . . . , Tn ) ≤ X(1) + . 2 2

4.5 On a  L(µ,λ) =

λ 2π

n/2

n

1 ∏ x3 i =1 i

!1/2

(

λ n ( x − µ )2 exp − ∑ i 2 2 i =1 µ x i

) .

Il est plus simple de trouver d’abord l’estimateur du maximum de vraisemblance du paramètre µ. On constate qu’il s’agit de la valeur qui minimise la somme dans l’exponentielle. Or,   n ∂ n ( x i − µ )2 2 xi = − − 1 . ∑ µ2 x i µ ∂µ i∑ µ2 x i =1 i =1 En posant n





i =1

 xi − 1 = 0, µ

¯ Pour trouver l’estimateur du maximum de vraisemon trouve que µˆ = X. blance de λ, on établit d’abord que ˆ λ) ∝ λn/2 e−λH , L(µ, où n

( xi − x¯ )2 2x¯ 2 xi i =1   1 n 1 1 = ∑ − . 2 i =1 x i x¯

H=



Solutions

79

On obtient donc n λˆ = 2H

=

n

∑in=1 Xi−1

− X¯ −1

.

4.6 Pour obtenir l’estimateur des moments de θ, on pose E[ X ] = d’où

1−θ ¯ = X, θ

1 θˆ = ¯ . X+1

La moyenne de l’échantillon est x¯ = 64/10 = 3,2. On a donc 1 θˆ = = 0,2381. 4,2 4.7 a) Il s’agit ici de trouver l’estimateur des moments du paramètre θ d’une distribution uniforme discrète sur 1, 2, . . . , θ, c’est-à-dire que Pr[ X = x ] = 1/θ pour x = 1, . . . , θ. En posant E[ X ] =

θ+1 ¯ = X, 2

on trouve facilement que l’estimateur des moments de θ est θˆ = 2X¯ − 1. b) Avec x1 = x2 = x3 = 3 et x4 = 12, on a θˆ = 2(3 + 3 + 3 + 12)/4 − 1 = 9,5. Or, cet estimateur est absurde puisque, en ayant pigé la boule 12, on sait qu’il y a au moins douze boules dans l’urne ! En d’autres termes, 9,5 est une valeur de θ impossible. On constate que l’estimateur obtenu à l’aide de la méthode des moments n’est pas toujours un estimateur possible. 4.8 La fonction de vraisemblance est  L( a, b) =

1 b−a

n

pour a < x1 , . . . , xn < b. Pour maximiser cette fonction, il faut minimiser la quantité b − a en choisissant une valeur de b la plus petite possible et une valeur de a la plus grande possible. Étant donné le support de la distribution, on a choisit donc aˆ = min( X1 , . . . , Xn ) et bˆ = max( X1 , . . . , Xn ). 4.9 a) La distribution de X est une Bernoulli avec une restriction sur la valeur du paramètre θ. On a donc que E[ X ] = θ. L’estimateur des moments ¯ de θ est donc θ˜ = X.

80

Solutions Pour l’estimateur du maximum de vraisemblance, on a, en posant y = ∑in=1 xi , L ( θ ) = θ y (1 − θ ) n − y , l (θ ) = y ln(θ ) + (n − y) ln(1 − θ ) et y (n − y) − θ 1−θ y − nθ = θ (1 − θ ) n x¯ − nθ . = θ (1 − θ )

l 0 (θ ) =

Ainsi, la log-vraisemblance est croissante pour θ ≤ x¯ et décroissante ¯ pour θ > x¯ (voir la figure E.5). Le maximum est donc atteint en x. Cependant, puisque 0 ≤ θ ≤ 1/2 on doit avoir θˆ ≤ 1/2. On a donc ¯ 1/2). θˆ = min( X, b) Premièrement, on remarque que Y = ∑in=1 Xi = n X¯ ∼ Binomiale(n, θ ) avec 0 ≤ θ ≤ 1/2. Deuxièmement, on sait que MSE(θˆ) = Var[θˆ] + b(θˆ)2 , où θˆ est un estimateur quelconque d’un paramètre θ et b(θˆ) = E[θˆ] − θ est le biais de l’estimateur. Pour l’estimateur des moments θ˜ = Y/n, on a Var[Y ] MSE(θ˜) = + b(Y/n)2 n2 θ (1 − θ ) = , n puique E[Y/n] = θ. Pour l’estimateur du maximum de vraisemblance ( Y , Y ≤ n2 θˆ = 1n Y > n2 , 2, il est plus simple de développer l’erreur quadratique moyenne ainsi : MSE(θˆ) = E[(θˆ − θ )2 ] n

=

∑ (θˆ − θ )2 Pr[Y = y]

y =0

[n/2] 

2  n  y − θ θ y (1 − θ ) n − y ∑ n y y =0  2   n 1 n y + −θ θ (1 − θ ) n − y . ∑ 2 y y=[n/2]+1

=

81

−16

−14

−12

l(θ)

−10

−8

−6

Solutions

0.0

0.1

0.2

0.3

0.4

0.5

θ

Fig. E.5: Graphique de la fonction de log-vraisemblance de l’exercice 4.9 pour n = 10 et y = 3.

c) On compare les erreurs quadratiques moyennes des deux estimateurs. Soit 2  n  n  y ˜ −θ θ y (1 − θ ) n − y , MSE(θ ) = ∑ n y y =0 d’où MSE(θ˜) − MSE(θˆ) =

n



y=[n/2]+1



y 1 + − 2θ n 2



y 1 − n 2



  n y × θ (1 − θ ) n − y . y Étant donné que y/n > 1/2 et que θ ≤ 1/2, tous les termes dans la somme sont positifs. On a donc que MSE(θ˜) − MSE(θˆ) > 0 ou, de manière équivalente, MSE(θˆ) < MSE(θ˜). En terme d’erreur quadratique moyenne, l’estimateur du maximum de vraisemblance est meilleur que l’estimateur des moments.

82

Solutions 4.10 On a # 1 n 1 n 2 ( X − µ ) = E i ∑ E[(Xi − µ)2 ] n i∑ n =1 i =1 "

=

1 n E[ Xi2 − 2µXi + µ2 ] n i∑ =1

=

1 n ( E[ Xi2 ] − µ2 ) n i∑ =1

=

1 n [(σ2 + µ2 ) − µ2 ] n i∑ =1

=

1 n 2 σ n i∑ =1

= σ2 , d’où l’expression du côté gauche de l’égalité est un estimateur sans biais du paramètre σ2 . 4.11 On a, E [ a 1 X1 + · · · + a n X n ] = E [ a 1 X1 ] + · · · + E [ a n X n ]

= ( a 1 + · · · + a n ) E [ X1 ] = ( a1 + · · · + an )µ. Pour que a1 X1 + · · · + an Xn soit un estimateur sans biais de µ, il faut que ∑in=1 ai = 1. 4.12 a) Il faut d’abord calculer l’espérance de l’estimateur : E[ X¯ 2 ] = Var[ X¯ ] + E[ X¯ ]2

=

σ2 + µ2 . n

On voit que X¯ 2 est un estimateur biaisé de µ2 et que le biais est σ2 /n. b) Puisque σ2 + µ2 = µ2 , n→∞ n

lim E[ X¯ 2 ] = lim

n→∞

X¯ 2 est un estimateur asymptotiquement sans biais de µ2 . 4.13 On sait que la fonction de densité de probabilité de la ke statistique d’ordre X(k) d’un échantillon aléatoire X1 , . . . , Xn tiré d’une loi F est f X( k ) ( x ) =

n! ( F ( x ))k−1 (1 − F ( x ))n−k f ( x ). k!(n − k)!

Solutions

83

Si n = 3 et que Xi ∼ Exponentielle(λ), i = 1, 2, 3, alors la médiane empirique est ξ 3 = X(2) et f X(2) = 6(1 − e−λx )(e−λx )(λe−λx )

= 6λ(e−2λx − e−3λx ). Or, en intégrant par parties, E[ξ 3 ] =

Z ∞ 0

x f X(2) dx

Z ∞

6xλ(e−2λx − e−3λx ) dx   1 1 = 6λ − 2 4λ2 9λ 5 = . 6λ

=

0

On constate que E[ξ 3 ] ≠ λ−1 , d’où la médiane empirique est un estimateur biaisé de la moyenne d’une loi exponentielle. 4.14 La fonction de densité de probabilité de la ke statistique d’ordre est donnée dans la solution de l’exercice 4.13. Pour n = 3 et Xi ∼ U (0, θ ), i = 1, 2, 3, on a    x 2 1 f X (1) ( x ) = 3 1 − θ θ   1 2x x2 =3 − 2 + 3 , 0 0,4325] = 0,6654, ce qui représente le seuil de signification minimal auquel il est possible de rejeter H0 . Ces résultats sont confirmés par la fonction prop.test de R : > prop.test(219, 1124, p = 0.2, correct = FALSE) 1-sample proportions test without continuity correction data: 219 out of 1124, null probability 0.2 X-squared = 0.1871, df = 1, p-value = 0.6654 alternative hypothesis: true p is not equal to 0.2 95 percent confidence interval: 0.1727403 0.2190181 sample estimates: p 0.1948399

7.5 a) Il s’agit d’un test sur la différence entre deux proportions. Il faut commencer par construire la statistique. On a X ∼ Binomiale(n, θ1 ) Y ∼ Binomiale(m, θ2 ).

Solutions

107

Pour n et m grands, on a, approximativement, X ∼ N (nθ1 , nθ1 (1 − θ1 )) Y ∼ N (mθ2 , mθ2 (1 − θ2 ), et donc, toujours approximativement,   ˆθ1 = X ∼ N θ1 , θ1 (1 − θ1 ) n n   ˆθ2 = Y ∼ N θ2 , θ2 (1 − θ2 ) . m m Par conséquent, p

(θˆ1 − θˆ2 ) − (θ1 − θ2 ) ∼ N (0, 1). θ1 (1 − θ1 )/n + θ2 (1 − θ2 )/m

Pour pouvoir calculer la valeur de cette statistique pour un échantillon aléatoire, on remplace θ1 et θ2 dans le radical par θˆ1 = X/n et θˆ2 = Y/m, dans l’ordre. Un intervalle de confiance de niveau 1 − α pour θ1 − θ2 est donc s θˆ1 (1 − θˆ1 ) θˆ2 (1 − θˆ2 ) + . (θˆ1 − θˆ2 ) ± zα/2 n m De manière similaire, la statistique utilisée pour tester la différence entre les deux proportions θ1 et θ2 est Z= q

(θˆ1 − θˆ2 ) − (θ1 − θ2 ) θˆ1 (1 − θˆ1 )/n + θˆ2 (1 − θˆ2 )/m

,

et on rejette H0 : θ1 = θ2 en faveur de H1 : θ1 6= θ2 si |z| > zα/2 . Ici, on a x = 351, y = 41, n = 605 et m = 800 − 605 = 195. Ainsi, θˆ1 = 0,5802, θˆ2 = 0,2103 et |z| = 10,44 > 1,96. On rejette donc H0 à un seuil de signification de 5 %. La fonction prop.test de R corrobore ces résultats : > prop.test(c(351, 41), c(605, 195), correct = FALSE) 2-sample test for equality of proportions without continuity correction data: c(351, 41) out of c(605, 195) X-squared = 80.7464, df = 1, p-value < 2.2e-16 alternative hypothesis: two.sided 95 percent confidence interval: 0.3004992 0.4393185 sample estimates: prop 1 prop 2 0.5801653 0.2102564

108

Solutions b) L’intervalle de confiance est

(θ1 − θ2 ) ∈ (0,3005, 0,4393). Comme 0 n’appartient pas à cet intervalle, on rejette H0 . c) On cherche maintenant un intervalle de confiance pour la proportion de la population en faveur de l’introduction du taxe sur le tabac. On a une observation x = 351 + 41 = 392 d’une distribution Binomiale(800, θ ), d’où θˆ = 392/800 = 0,49. Un intervalle de confiance à 95 % pour θ est s θˆ(1 − θˆ) θ ∈ θˆ ± 1,96 800 r 0,49(0,51) ∈ 0,49 ± 1,96 800 ∈ (0,4555, 0,5246). Vérification avec R : > prop.test(351 + 41, 800, correct = FALSE)$conf.int [1] 0.4554900 0.5246056 attr(,"conf.level") [1] 0.95

7.6 a) Nous avons un test unilatéral à gauche sur la différence entre deux moyennes. En supposant égales les variances des deux populations, on a X ∼ N (µ X , σ2 ) et Y ∼ N (µY , σ2 ). On sait que X¯ ∼ N (µ X , σ2 /n) et Y¯ ∼ N (µY , σ2 /m), d’où un estimateur de µ X − µY sur lequel baser un test est   σ2 σ2 ¯ ¯ X − Y ∼ N µ X − µY , + . n m La variance σ2 est toutefois inconnue. Un estimateur de ce paramètre est la moyenne pondérée des estimateurs de chaque échantillon, soit S2p =

(n − 1)S2X + (m − 1)SY2 . n+m−2

Or, (n + m − 2)S2p /σ2 ∼ χ2 (n + m − 2). Par conséquent,

( X¯ − Y¯ ) − (µ X − µY ) √ −1 −1 σ T= s n +m (n + m − 2)S2p σ2 ( X¯ − Y¯ ) − (µ X − µY ) =s   ∼ t ( m + n − 2). nS2X + mSY2 1 1 + n+m−2 n m

Solutions

109

On rejette H0 : µ X = µY en faveur de H1 : µ X < µy si t ≤ −t0,05 (n + m − 2). b) Avec les données de l’énoncé, la valeur de la statistique développée en a) est t = −0,838, alors que le 95e centile d’une loi t avec 13 + 16 − 2 = 27 degrés de liberté est t0,05 (27) = 1,703. Puisque |t| < 1,703, on ne rejette pas H0 . c) On a p = Pr[ T < −0,838], où T ∼ t(27). À l’aide de R, on trouve > pt(-0.838, df = 27) [1] 0.2046940

Puisque p = 0,2047 > 0,05, on ne rejette pas H0 . La conclusion est évidemment la même qu’en a). d) On souhaite tester l’égalité de deux variances, c’est-à-dire H0 : σX2 = σY2 versus H1 : σX2 ≠ σY2 . Pour ce faire, on se base sur le fait que nS2X /σX2 ∼ χ2 (n − 1) et que mSY2 /σY2 ∼ χ2 (m − 1). Ainsi, sous H0 (c’est-à-dire lorsque σX2 = σY2 ), F=

nS2X /(n − 1) ∼ F (n − 1, m − 1). mSY2 /(m − 1)

On rejette H0 si la valeur de la statistique est supérieure au 100(1 − α)e centile d’une loi F avec n − 1 et m − 1 degrés de liberté. Ici, on a f = 0,8311 et f 0,05 (12, 15) = 2,48. On ne rejette donc pas H0 . L’hypothèse des variances égales est donc raisonnable. 7.7 a) Il s’agit d’un simple test sur une moyenne. La statistique pour un petit échantillon est X¯ − 3 315 T= √ . S2 /10 On rejette H0 si t > t0,01 (10) = 2,764. b) La fonction t.test de R retourne tous les résultats pertinents pour ce test : > x t.test(x, alternative = "g", mu = 3315) One Sample t-test data: x t = 0.6993, df = 10, p-value = 0.2502 alternative hypothesis: true mean is greater than 3315 95 percent confidence interval: 3202.12 Inf sample estimates: mean of x 3385.909

110

Solutions On ne rejette donc pas H0 à un seuil de signification de 5 %. c) Le niveau de confiance auquel on rejetterait H0 est 1 − p = 0,7498. d) On a un test unilatéral à gauche sur une variance pour lequel la statistique est 11S2 Y= . 5252 On rejette H0 si y < χ20,95 (10) = 3,94. e) Ici, y = 4,103 > 3,94. On ne rejette donc pas H0 . f) On a p = Pr[Y < 4,103], où Y ∼ χ2 (10). Or, > pchisq(4.103, 10) [1] 0.05741915

d’où la valeur p du test sur la variance est 0,0574. 7.8 a) La statistique à utiliser est la même qu’à l’exercice 7.7. b) On a > y t.test(y, alt = "g", mu = 3315) One Sample t-test data: y t = 4.0283, df = 10, p-value = 0.001203 alternative hypothesis: true mean is greater than 3315 95 percent confidence interval: 3542.928 Inf sample estimates: mean of x 3729.364

On rejette donc H0 . c) Le niveau de confiance auquel on rejette H0 est 1 − p = 0,9988. d) La statistique à utiliser est la même qu’à l’exercice 7.7. e) On a y = 4,223 > 3,94. On ne rejette donc pas H0 . f) La valeur p du test sur la variance est p = Pr[Y < 4,223] = 0,0574. g) Les moyennes semblent être différentes entre les deux groupes, mais les variances égales. En effet, les résultats sur le test de l’égalité des variances est > var.test(x, y) F test to compare two variances data: x and y F = 0.9718, num df = 10, denom df = 10, p-value = 0.9648

Solutions

111

alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: 0.2614662 3.6120359 sample estimates: ratio of variances 0.9718155

On ne rejette donc clairement pas l’hypothèse selon laquelle σX2 = σY2 . Ainsi, on peut tester H0 : µ X = µY H1 : µ X ≠ µY ou H0 : µ X = µY H1 : µ X < µY . En supposant les variances égales. Les résultats de ces tests sont, dans l’ordre : > t.test(x, y, alt = "two.sided", var.equal = TRUE) Two Sample t-test data: x and y t = -2.3778, df = 20, p-value = 0.0275 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -644.75458 -42.15451 sample estimates: mean of x mean of y 3385.909 3729.364 > t.test(x, y, alt = "less", var.equal = TRUE) Two Sample t-test data: x and y t = -2.3778, df = 20, p-value = 0.01375 alternative hypothesis: true difference in means is less than 0 95 percent confidence interval: -Inf -94.33337 sample estimates: mean of x mean of y 3385.909 3729.364

Dans les deux cas, on rejette assez facilement l’hypothèse H0 . On établit donc que les fillettes nées au Québec sont en moyenne plus petites que les garçons. 7.9 a) La plus petite valeur de la statistique de Wilcoxon s’obtiendra lorsque tous les sujets du groupe traitement recevront les plus petits rangs,

112

Solutions c’est-à-dire les rangs de 1 à 17. La statistique est alors 17

WS =

∑i=

i =1

(17)(18) = 153. 2

b) La plus grande valeur de la statistique de Wilcoxon s’obtiendra lorsque tous les sujets du groupe traitement recevront les plus grands rangs, c’est-à-dire les rangs de 27 à 40. La statistique est alors WS =

40

23

i =1

i =1

∑i− ∑i=

(40)(41) (23)(24) − = 544. 2 2

c) Comme la distribution de la statistique de Wilcoxon sous l’hypothèse nulle est symétrique, la moyenne est donc la valeur centrale, c’est-àdire 544 − 153 = 348,5. 153 + 2 7.10 a) Simplement WS = 1 + 3 + 5 + 6 = 15. b) Il y a (74) = (73) = 35 configurations possibles. c) Il faut trouver les 35 configurations possibles et calculer les 35 valeurs de WS correspondantes. On obtient : 1 fois 10 ; 1 fois 11 ; 2 fois 12 ; 3 fois 13 ; 4 fois 14 ; 4 fois 15 ; 5 fois 16 ; 4 fois 17 ; 4 fois 18 ; 3 fois 19 ; 2 fois 20 ; 1 fois 21 et 1 fois 22. La valeur p est donc           4 5 3 2 1 24 p = (3) + (1) (1) + (1) + (2) = . 35 35 35 35 35 35

Bibliographie Freund, J. E. 1992, Mathematical Statistics, 5e éd., Prentice Hall, Upper Saddle River, NJ, ISBN 0-1356383-4-8. Hogg, R. V., A. T. Craig et J. W. McKean. 2005, Introduction to Mathematical Statistics, 6e éd., Prentice Hall, Upper Saddle River, NJ, ISBN 0-1300850-7-3. Hogg, R. V. et E. A. Tanis. 2001, Probability and Statistical Inference, 6e éd., Prentice Hall, ISBN 0-1302729-4-9. Mood, A. M., F. A. Graybill et D. C. Boes. 1974, Introduction to the Theory of Statistics, 3e éd., McGraw-Hill, Boston, ISBN 0-0704286-4-6. Owen, W. J. 2008, Mathematical Statistics with Applications – Student Solutions Manual, 7e éd., Duxbury Press, ISBN 978-0-49538506-6. R Development Core Team. 2009, R: A Language and Environment for Statistical Computing, R Foundation for Statistical Computing, Vienna, Austria. URL http://www.r-project.org. Wackerly, D. D., W. Mendenhall et R. L. Scheaffer. 2008, Mathematical Statistics with Applications, 7e éd., Duxbury Press, ISBN 978-0-49511081-1.

113

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF