Probabilités et Statistiques: Eléments de cours et exercices
Short Description
Download Probabilités et Statistiques: Eléments de cours et exercices...
Description
1
Université Paris Villetaneuse
Année 2013/2014
Clément Foucart
Probabilités
Prépa Capes
Probabilités et Statistiques: Eléments de cours et exercices
Les programmes de mathématiques dans l'enseignement secondaire ainsi qu'en classes préparatoires et BTS mettent de plus en plus en avant la théorie des probabilités. S'il est rare que les exercices de probabilités donnés au lycée et dans les premières années universitaires nécessitent des raisonnements diciles en analyse réelle, plusieurs types de dicultés apparaissent lorsque l'on enseigne ou que l'on étudie les probabilités. D'une part, des énoncés mal construits (trop succincts ou au contraire trop longs) peuvent rapidement bloquer le lecteur
1
. D'autre part,
on peut être amené à mobiliser des connaissances en analyse ou en algèbre (calculs de séries, d'intégrales, algèbre linéaire, matrice à inverser).
La théorie de la mesure n'est pas au programme du CAPES. Nous nous bornerons donc à l'usage de notions probabilistes sans donner plus de détails quant à leurs dénitions en théorie de la mesure. Il faut néanmoins bien comprendre que probabilités et intégration partagent beaucoup de choses, comme nous le verrons dans les chapitres suivants, probabilités discrètes (respectivement continues) amènent à l'étude de séries (respectivement d'intégrales). An de donner un cadre clair, nous introduirons rapidement les tribus (c'est d'ailleurs au programme en classes préparatoires économiques et sociales, voie scientique). D'un point de vue pédagogique, introduire les tribus permet de s'entraîner à manipuler les sous-ensembles.
Les exercices accompagnés du signe # sont corrigés. Ils ont été dans leur grande majorité rédigés par Alexandre Genadot et Pierre Veuillez (http ://mathsece.free.fr/)
2
. An de vous
entraîner, vous pouvez consulter les références suivantes :
Ouvrages utilisés pour la rédaction de ce polycopié
1) Intégration et Probabilités, Auliac, Cocozza-Thivent, Mercier, Roussignol, EdiScience. 2) Probabilités, analyse de données et Statistiques, Saporta, Technip. 3) Polycopié du cours de préparation au capes de Paris 6. Frédérique Petit et Béatrice de Tilière (disponible en ligne sur la page de B. de Tilière) 4) Probabilités et statistiques pour le CAPES externe et l'Agrégation interne de Mathématiques (Jérôme Escoer) 5) Annales des ECRICOMES (pour les problèmes et exercices de probabilités : http ://mathsece.free.fr/sujetsent 6) Analyse pour l'agrégation, Zuily et Queélec. Dunod,
Références pouvant être consultées 1) Probabilités Tome 1, licence- capes Jean-Yves Ouvrard, chez Cassini 2) Introduction au calcul des probabilités et à la statistique, Jean-François Delmas, disponible en ligne 3) Probability and random processes Grimmett and Stirzaker third edition, Oxford 1. et ceci est vrai à tout niveau. 2. J'en prote pour les remercier ici.
2
Table des matières
1 Rappels fondamentaux 1.1
1.2
1.3
5
Rudiments sur les ensembles et les fonctions 1.1.1
Notions de base sur les ensembles
1.1.2
Ensembles et fonctions
Ensembles dénombrables
. . . . . . . . . . . . . . . . . . . .
5
. . . . . . . . . . . . . . . . . . . . . .
5
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.2.1
Ensembles au plus dénombrables
1.2.2
Ensembles nis
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
2 Espaces probabilisés
15
2.1
Terminologie probabiliste et notion de probabilité
2.2
Probabilité conditionnelle
2.3
2.4
. . . . . . . . . . . . . . . . .
15
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
2.2.1
Formule des probabilités totales et formule de Bayes . . . . . . . . . . . .
23
2.2.2
Indépendance
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Variables aléatoires : notion de loi et de moments
25
. . . . . . . . . . . . . . . . .
26
2.3.1
Loi d'une variable aléatoire
. . . . . . . . . . . . . . . . . . . . . . . . .
27
2.3.2
Fonctions de répartition et indépendance . . . . . . . . . . . . . . . . . .
27
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
3 Variables aléatoires discrètes 3.1
8
Généralités
37
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1
Loi et fonction de répartition
3.1.2
Espérance
3.1.3
Composition d'une variable aléatoire et d'une fonction et indépendance
3.1.4
37
. . . . . . . . . . . . . . . . . . . . . . . .
37
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
.
40
Moments, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . .
41
3.2
Lois discrètes usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
3.3
Vecteurs aléatoires discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
3.4
3.3.1
Vecteurs aléatoires discrets : lois marginales, indépendance
3.3.2
Structure algébrique, covariance et corrélation
. . . . . . . .
44
. . . . . . . . . . . . . . .
45
3.3.3
Loi multinomiale
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
47
3.3.4
Somme de variables aléatoires indépendantes . . . . . . . . . . . . . . . .
48
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
4 Variables aléatoires à densité 4.1
Généralités
73
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1
Loi et fonction de répartition
4.1.2
Espérance
74
. . . . . . . . . . . . . . . . . . . . . . . .
75
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
3
4
TABLE DES MATIÈRES
4.2 4.3
4.4
4.1.3
Composition d'une variable aléatoire et d'une fonction et indépendance
4.1.4
Moments, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . .
Lois à densité usuelles
.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vecteurs aléatoires à densité
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2
77 77 80
4.3.1
Vecteurs aléatoires à densité : lois marginales, indépendance
. . . . . . .
81
4.3.2
Loi normale multidimensionnelle . . . . . . . . . . . . . . . . . . . . . . .
81
4.3.3
Sommes de deux variables aléatoires indépendantes : convolution . . . . .
82
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
83
5 Théorèmes limites 5.1
76
99
Notions de convergence de suites aléatoires . . . . . . . . . . . . . . . . . . . . .
99
5.1.1
Convergence en probabilité et loi faible des grands nombres.
99
5.1.2
Convergence en loi
5.1.3
Approximations de certaines lois et théorème central limite . . . . . . . . 102
5.1.4
Convergence presque-sûre et loi forte des grands nombres . . . . . . . . . 104
Exercices.
. . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6 Eléments de statistiques
109
6.1
Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7 Sujets des examens passés et problèmes
121
7.1
Fonctions additives et loi exponentielle
. . . . . . . . . . . . . . . . . . . . . . . 126
7.2
Théorème de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
7.3
Marche aléatoire
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8 Problèmes d'analyse pour les probabilités
135
Chapitre 1 Rappels fondamentaux
Ce chapitre est du niveau de première et deuxième année. Il est conseillé d'y revenir si vous avez des lacunes. Nous commençons par des rappels de base sur les ensembles et les opérations sur les ensembles. Nous terminons par des rappels sur les ensembles dénombrables. Ces ensembles jouent un rôle primordial lors de l'étude des probabilités discrètes. Les notions présentées ici font parties des cours de première et deuxième année de mathématiques. Nous renvoyons le lecteur aux ouvrages consacrés.
1.1
Rudiments sur les ensembles et les fonctions
1.1.1 Notions de base sur les ensembles Ω sera inclus dans N, R ou Rd pour d ≥ 2). A est un sousensemble (on dit aussi partie) de Ω, si A est une collection d'éléments de Ω : au sens où tous les éléments de A sont éléments de Ω. On note alors Soit
Ω
un ensemble (typiquement
la relation
⊂
est la relation d'
A ⊂ Ω,
inclusion.
Rappel : On raisonne souvent par double inclusion pour montrer que deux ensembles sont égaux : A = B ⇐⇒ A ⊂ B et B ⊂ A. On note
P(Ω)
l'ensemble des parties de
Ω.
P(Ω) = {A; A
C'est à dire : sous-ensemble de
Ω}.
Opérations sur les ensembles :
A ∈ P(Ω). n'appartiennent pas à A :
Ensemble complémentaire. Soit ments de
Ω
qui
Le complémentaire de
A
est l'ensemble des élé-
Ac = {x ∈ Ω; x ∈ / A}. On note
∅
le complémentaire de
Ω.
Cet ensemble s'appelle l'ensemble vide.
5
6
CHAPITRE 1.
Réunion : La réunion de deux ensembles
A
et
B
est notée
x ∈ A ∪ B ⇐⇒ x ∈ A
ou
RAPPELS FONDAMENTAUX
A∪B
et est dénie par :
x∈B
Attention, le "ou" n'est pas exclusif, c'est à dire que x peut appartenir à la fois à A et à B . Intersection : l'intersection de deux ensembles
A
et
B
x ∈ A ∩ B ⇐⇒ x ∈ A
L'ensemble des éléments de
A qui ne sont pas dans B
est notée
et
x∈B
est noté
On le dénit par :
réunion est notée
x∈
[
x∈
\
i∈I
i∈I
S
i∈I
Ai ,
familles T
leur intersection
Ai ⇐⇒ ∃i ∈ I
tel que
d'ensembles : soit
i∈I
x ∈ Ai ,
Ai ⇐⇒ ∀i ∈ I, x ∈ Ai ,
donc
Ai donc
x∈ /
\ i∈I
x∈ /
[ i∈I
et est denie par :
A \ B . On dit "A privé de B ".
A \ B = A ∩ Bc.
Ces opérations se généralisent à des
A∩B
I ⊂ N
et
(Ai , i ∈ I).
Leur
Ai ⇐⇒ ∀i ∈ I, x ∈ / Ai
Ai ⇐⇒ ∃i ∈ I
tel que
x∈ / Ai .
Remarque 1.1.1 Toutes ces opérations sont stables dans P(Ω). On rappelle les règles de calculs :
(A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) (A ∪ B)c = Ac ∩ B c (A ∩ B)c = Ac ∪ B c Plus généralement :
(∪i∈I Ai )c = ∩i∈I Aci
et
(∩i∈I Ai )c = ∪i∈I Aci .
Dénition 1.1.1 (Partition) Une famille de parties de Ω, (Ai , i ∈ I) est une partition de Ω si ; i) ∪i∈I Ai = Ω ii) ∀i ∈ I, j ∈ I : i 6= j =⇒ Ai ∩ Aj = ∅.
Dénition 1.1.2 (Produit cartésien) Le produit cartésien de deux ensembles E et F est notè, E × F et est déni par :
E × F = {(x, y); x ∈ E et y ∈ F }.
Plus généralement, le produit cartésien de
E1 × E2 × E3 × ... × En =
n Y i=1
n
ensembles est :
Ei = {(x1 , x2 , ..., xn ); ∀i ∈ [|1, n|], xi ∈ Ei }.
1.2.
ENSEMBLES DÉNOMBRABLES
7
1.1.2 Ensembles et fonctions On donne ici quelques rudiments sur les applications : les dénitions d'injectivité, surjectivité, de l'image et de l'image réciproque d'un ensemble par une application. Soient
E
et
F
deux ensembles, soit
f
une application qui va de
E
dans
F
:
Dénition 1.1.3 La fonction f est dite injective si :
∀x, y ∈ E, f (x) = f (y) =⇒ x = y.
Dans ce cas, un élément de F
a au plus
un antécédent par f dans E .
surjective si :
∀z ∈ F, ∃x ∈ E; f (x) = z.
Dans ce cas, tout élément de F
a au moins
un antécédent par f .
bijective si : injective et surjective. Dans ce cas, pour tout z dans F , il existe un et un seul x ∈ E tel que f (x) = z .
Dénition 1.1.4 Soit f une application de E dans F , A une partie de E et B une partie de F.
On appelle image de A par f l'ensemble noté f (A) déni par f (A) = {y ∈ F ; ∃x ∈ A tel que y = f (x)}.
On appelle image réciproque de B par f l'ensemble noté f −1 (B) déni par f −1 (B) = {x ∈ E; f (x) ∈ B}.
Remarque 1.1.2 La notation f −1 est abusive car f n'est pas toujours bijective et n'a donc pas toujours de réciproque, l'ensemble f −1 (B) existe même si f n'est pas bijective.
Proposition 1.1.1 (Image réciproque et union) Soient A, B ∈ P(F ) f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B) f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B) f −1 (Ac ) = f −1 (A)c
Preuve 1.2
laissée en exercice.
Ensembles dénombrables
Pour clôturer ces généralités, et avant de passer aux probabilités, nous rappelons la notion d'ensemble dénombrable, ainsi que des éléments de dénombrement. Le dénombrement est fondamental dans les probabilités discrétes. Nous traitons ces questions à part an de se concentrer dans la suite sur les probabilités.
8
CHAPITRE 1.
RAPPELS FONDAMENTAUX
1.2.1 Ensembles au plus dénombrables Dénition 1.2.1 Un ensemble E est dit au plus dénombrable s'il existe une injection de E dans N
Deux cas sont possibles : l'ensemble
N.
E
est inni et dans ce cas, on peut démontrer qu'il existe une bijection de
E
dans
L'ensemble est dit dénombrable.
L'ensemble
E
est ni et dans ce cas, on peut dénombrer combien il possède d'éléments.
Remarque 1.2.1 (Exemples) Ces propriétés sortent du cadre du cours, mais sont à savoir
démontrer. L'ensemble des rationnels Q est dénombrable. L'ensemble des réels R est non dénombrable.
1.2.2 Ensembles nis On dit qu'un ensemble est ni s'il est vide, ou s'il existe un entier naturel
n
et une bijection
[|1, n|] := {1, 2, ..., n} dans E . Si E 6= ∅, l'entier n est appelé cardinal de E . On note Card E = n. Par convention Card ∅ = 0. On a Card E = n si et seulement si les éléments de E peuvent être notés e1 , ..., en où les ek sont distincts. Dénombrer un ensemble ni E correspond à déterminer de
le nombre déléments de E, c'est à dire son cardinal. Plusieurs méthodes sont possibles. Néanmoins, rappelons les trois conditions qui doivent être remplies pour que le dénombrement soit correct :
1) S'assurer que seuls des éléments de
E
sont comptés
2) S'assurer que l'on en oublie pas 3) S'assurer que l'on ne compte pas plusieurs fois le même élément.
Propriétes des cardinaux Proposition 1.2.1 Soit E un ensemble ni. Si F est un ensemble en bijection avec E , alors
F est ni et Card E = Card F .
Démonstration dans
E.
Soit
f
Si
E
est un ensemble ni de cardinal
une bijection de
donc l'application
φ◦f
E
dans
F,
n
alors il existe
φ
une bijection de
[|1, n|]
la composée de deux bijections est une bijection,
est une bijection. De plus le cardinal de
F
est
n.
Proposition 1.2.2 Soit E un ensemble ni. Toute partie A de E est nie et Card A ≤ Card E . Si A est une partie de E et Card A = CardE alors A = E .
Proposition 1.2.3 Soit A et B deux parties de E , ensemble ni.
1) 2) 3) 4)
Si A et B sont disjointes, Card (A ∪ B) = Card (A) + Card (B) Card (A \ B) = Card A − Card B Card Ac = Card E − Card A Card (A ∪ B) = Card A + Card B − Card (A ∩ B)
1.2.
ENSEMBLES DÉNOMBRABLES
9
Proposition 1.2.4 (Formule du Crible) Soit (Ai , i ∈ I) une famille de parties de l'ensemble ni E alors pour tout entier n ≥ 1 ; Card
(∪ni=1 Ai )
n X = (−1)k+1 k=1
Card (∩kl=1 Ail )
X 1≤i1 0.
Faire une récurrence.
Proposition 2.2.3 Soit B un événement tel que P(B) > 0 et P(B c ) > 0 alors pour tout événement A :
P(A) = PB (A)P(B) + PB c (A)P(B c ).
Démonstration. On a A = (A ∩ B) ∪ (A ∩ B c ) et les événements A ∩ B
donc
et
A ∩ Bc
sont disjoints
P(A) = P(A ∩ B) + P(A ∩ B c ), on conclut par dénition des probabilités conditionnelles.
On généralise cette proposition :
Proposition 2.2.4 (Formule des probabilités totales) Si (Bi , i ≥ 1) est une famille au
plus dénombrable d'événements formant une partition de Ω et P(Bi ) > 0 pour tout i ∈ I , alors pour tout événement A, on a : P(A) =
X
PBi (A)P(Bi ).
i∈I
Démonstration. Laissée en exercice.
Remarque 2.2.2 (Lien avec les arbres pondérés) Les formules des probabilités composées
et des probabilités totales sont à rapprocher de la représentation en arbre pondéré utilisée au lycée pour représenter une expérience aléatoire. On rappelle qu'un arbre pondéré est un arbre tel que :
24
CHAPITRE 2.
ESPACES PROBABILISÉS
La somme des pondérations (ou probabilités) des noeuds issus d'un même sommet donne 1. La probabilité d'un chemin est le produit des probabilités des branches qui le composent. La pondération de la branche allant du sommet A vers le sommet B est la probabilité conditionnelle de B sachant A, PA (B). La construction d'un arbre pondéré obéit au principe suivant : le noeud racine réprésente l'événement certain ω , et si un noeud représente un événement A, on construit autant de ls qu'il y a d'événements A ∩ En , où (En ) est une partition de Ω. La formule des probabilités composées est la traduction exacte de l'item 2. ci-dessus : la probabilité d'un noeud de l'arbre est la probabilité de l'intersection des événements qui composent le chemin qui le relie au sommet. La formule des probabilités totales dans ce contexte dit que la probabilité d'un événement est la somme des probabilités des feuilles de l'arbre qui concernent cet événement.
Exemple 2.2.1 On dispose de deux urnes, l'une contenant 1 boule blanche et 3 noires, l'autre 2 blanches et 2 noires. On choisit uniformément au hasard parmi les deux urnes, puis on tire au hasard une boule dans l'urne choisie. On considére la probabilité de l'événement A = on tire une boule noire . L'univers Ω est {(i, j), i = 1, 2, j = 1, 2, 3, 4}, où i est le numéro de l'urne et j celui de la boule. On considére la partition Ω = E1 ∪ E2 , où Ei = {(i, j), j = 1, 2, 3, 4} qui est l'événement consistant à choisir l'urne i. Si on numérote en premier les boules noires, l'événement A s'écrit {(1, 1), (1, 2), (1, 3), (2, 1), (2, 2)}. Pour tout i, la probabilité conditionnelle PEi est la probabilité uniforme sur Ei . Donc PE1 (A) = 3/4 et PE2 (A) = 1/2. D'après la formule des probabilités totales, P(A) = PE1 (A)P(E1 ) + PE2 (A)P(E2 ) = 34 × 21 + 12 × 12 = 58 . Proposition 2.2.5 (Formule de Bayes simple) Soient A et B deux événements tels que P(A), P(B) et P(B c ) sont strictement positifs. On a : PA (B) =
Démonstration.
On a
PA (B) =
PB (A)P(B) . PB (A)P(B) + PB c (A)P(B c )
P(B∩A) P(A)
par la formule des probabilités totales
= P(A∩B)P(B) . On décompose ensuite le P(A) c : P(A) = PB (A)P(B) + PB c (A)P(B ).
dénominateur
A nouveau, cette proposition se généralise, à une famille formant une partition de
Ω.
Proposition 2.2.6 (Formule de Bayes) Si (Bi , i ∈ I) est une famille qui forme une partition de Ω telle que pour tout i ∈ I , P(Bi ) > 0 alors, quelque soit l'événement A, si P(A) > 0 PBi (A)P(Bi ) . i∈I PBi (A)P(Bi )
PA (Bi ) = P
Démonstration. Même argument que précédemment. Les deux dernières formules permettent de calculer des probabilités conditionnelles
PA (B)
PB (A).
connaissant les probabilités inverses
Exercice 2.2.3
Calculer la probabilité d'avoir tiré une boule dans la première urne sachant
que c'est une noire. Sous son apparente simplicité, la formule de Bayes est le départ d'une théorie entière appelée la statistique bayésienne.
2.2.
PROBABILITÉ CONDITIONNELLE
25
Nous reprenons maintenant la question de l'exercice 2.2.2 concernant le test de maladie. La formule de Bayes va nous permettre de calculer la probabilité qu'un individu soit malade sachant qu'il a été testé positif. On note On a
PT (M ) =
M
l'événement malade ,
T
l'événement test positif .
PM (T )P(M ) = 0.16. PM (T )P(M ) + PM c (T )P(M c )
Résultat, le test n'est pas bon.
2.2.2 Indépendance Nous passons maintenant à une notion fondamentale en probabilités : la notion d'indépendance. Si la connaissance d'un événement n'inue en rien sur la probabilité d'un autre, on dit que les événements sont indépendants. La notion de probabilité conditionnelle formalise cela. Si B est un événement avec probabilité strictement positive et dit
indépendants.
P(A|B) = P(A)
alors
A
et
B
sont
Par dénition des probabilités conditionnelles cela équivaut à la dénition
suivante :
Dénition 2.2.2 Deux événements A et B sont indépendants si P(A ∩ B) = P(A)P(B). Pour illustrer cette notion, on reprend l'exemple de contrôle de production.
Exemple 2.2.2 (Contrôle de production non destructif) On a N objets, m défectueux.
On tire au hasard n objets parmi les N en remettant chaque objet après l'avoir tiré. (on parle de tirage avec remise). Soit l' événement Ai : l'objet tiré au ième tirage est défectueux . Montrer que Ai et Aj sont indépendants pour tout i 6= j .
Exemple 2.2.3 Cette fois on ne remet pas l'objet tiré. (tirage sans remise). Calculer P(A1 ∩A2 )
et conclure que ce ne sont pas des événements indépendants
Proposition 2.2.7 Soient A et B deux événements indépendants alors Ac et B sont indépendants, ainsi que A et B c et Ac et B c . Démonstration. Laissée en exercice. On généralise maintenant la notion d'indépendance à une famille d'événements :
Dénition 2.2.3 (Indépendance mutuelle) Soit une famille (Ai , i ∈ I) d'événements. On dit qu'elle est formée d'événements (mutuellement) indépendants si pour toute sous famille nie i1 , i2 , ..., ip de I on a : ! P
p \
Aik
k=1
P(Aik ).
k=1
Ai et Aj pour tout i 6= j n'implique pas l'indé(Ai , i ∈ I). Donnons un contre-exemple : Ω = {1, 2, 3, 4}, muni de la Considérer A = {1, 2}, B = {1, 3}, C = {2, 3}.
Attention à bien noter que l'indépendance de pendance de la famille probabilité uniforme.
=
p Y
26
2.3
CHAPITRE 2.
ESPACES PROBABILISÉS
Variables aléatoires : notion de loi et de moments
On a vu dans la section précédente, les dicultés que le choix de l'univers pouvait impliquer. Dans la plupart des cas, on se concentre sur les événements que l'on souhaite étudier. Plus généralement, on dénit la notion de variables aléatoires dénies sur un espace Une variable aléatoire est une aléatoire. On rappelle que les pavés
Qn
i=1 ]ai , bi [.
Ω
abstrait.
application dont la valeur dépend du résultat de l'expérience
B(Rd )
est la tribu des boréliens, c'est à dire la tribu engendrée par
Dénition 2.3.1 Une variable aléatoire X est une application X : ω ∈ Ω 7→ X(ω) ∈ Rd
telle que pour tout A ∈ B(Rd ) X −1 (A) = {ω ∈ Ω; X(ω) ∈ A} ∈ F. Cela correspond à la notion de mesurabilité :
X
est une fonction
(2.1)
F -mesurable
à valeurs dans
X tombe X ∈ B .
l'espace euclidien. En probabilité, cela signie que l'on peut étudier l'événement dans
Qn
i=1 [ai , bi ] . Pour tout
d
B ∈ B(R ),
on identiera l'événement
X
−1
(B)
avec
On admet la proposition suivante issue de la théorie de la mesure.
Proposition 2.3.1 L0 (Ω, F) l'ensemble des variables aléatoires à valeurs dans l'espace euclidien Rd est un espace vectoriel.
Exemple 2.3.1 (Fonction indicatrice) Soit A un événement. On dénit 1A : ω 7→
1 si ω ∈ A
0 sinon.
Exemple 2.3.2 On lance une échette sur une cible et cherche à connaître la distance entre la échette et le centre de la cible. On pose Ω = R2 et X : w = (x, y) 7→
p x2 + y 2 .
X est une fonction continue (donc mesurable) et vérie la condition 2.1.
Remarque 2.3.1 Lorsque l'on peut prendre F = P(Ω) (par exemple, lorsque Ω est ni, et que l'on souhaite que tous les événements élémentaires soient dans la tribu) alors la condition 2.1 est toujours vraie.
Proposition 2.3.2 L'ensemble des variables aléatoires dénies sur un même espace (Ω, F)
forme une algèbre : en particulier la somme et le produit de deux variables aléatoires sont des variables aléatoires.
2.3.
VARIABLES ALÉATOIRES : NOTION DE LOI ET DE MOMENTS
27
2.3.1 Loi d'une variable aléatoire Le plus souvent, (typiquement lorsque la variable aléatoire prend un nombre inni de valeurs), lorsque l'on étudie la variable aléatoire bilité avec laquelle caractérisée par sa
X,
X se répartit dans les fonction de répartition
on n'étudie pas
X(ω)
en chaque
boréliens. La variable aléatoire ou par sa
loi.
X
ω,
mais la proba-
est ainsi souvent
Dénition 2.3.2 On appelle loi ou distribution d'une variable aléatoire X dénie sur un espace probabilisé (Ω, F, P), l'application
PX : B ∈ B(Rd ) 7→ P(X −1 (B)). On a le résultat fondamental suivant :
Proposition 2.3.3 L'application PX est une probabilité sur (Rd , B(Rd )). Démonstration. A faire en cours.
Exemple 2.3.3 (jeu de dé) On joue au jeu suivant : on lance un dé équilibré. On réalise un
gain nul si on obtient 1, 1 euro si on obtient 2, 3 ou 4 et 2 euros si le résultat est 5 et 4 euros si le résultat est 6. On dénit la variable aléatoire X donnant le montant du gain. Déterminer sa loi.
Proposition 2.3.4 Si X est une variable aléatoire sur (Ω, F). Soit g une fonction continue
par morceaux sur X(Ω) alors l'application g ◦ X est une variable aléatoire. On la note souvent g(X).
2.3.2 Fonctions de répartition et indépendance On se place dans le cas des variables aléatoires réelles : c'est à dire à valeurs dans
R.
souvent v.a.r pour variable aléatoire réelle.
Dénition 2.3.3 On appelle fonction de répartition de X , l'application : F : x ∈ R 7→ P(X ≤ x). Comme mentionné précédemment l'événement
X ≤x
s'identie à
X −1 (] − ∞, x]).
Proposition 2.3.5 Toute fonction de répartition vérie les propriétés suivantes : 1. 2. 3. 4.
F est croissante lim F (x) = 0 et lim F (x) = 1 x→−∞
x→+∞
F est continue à droite en tout point de R F a une limite à gauche en tout point x de R, et ∀x ∈ R, F (x) − F (x−) = P[X = x]
où F (x−) = lim F (t). t→x;t 0, et P[Y = y] > 0. 2) Déterminer la fonction de répartition de aX + b où a > 0. 3) On suppose que X et Y sont indépendantes. Déterminer les fonctions de répartitions de max(X, Y ) et min(X, Y ).
Exercice 2.4.25 Soient F et G deux tribus.
1) 2) 3) 4)
Soit A ∈ P(Ω), montrer que {∅, Ω, A, Ac } est une tribu. Soient A et B des éléments de F , montrer que A ∩ B , A \ B appartiennent à F . Montrer que F ∩ G est une tribu. Montrer que F ∪ G n'est pas forcément une tribu.
Chapitre 3 Variables aléatoires discrètes
Dans ce chapitre, nous étudions les probabilités
discrètes. Les exemples étudiés précédemment
sont pour la ma jorité des exemples discrets. Nous avons déjà vu que le dénombrement joue une rôle important.
3.1
Généralités
Dénition 3.1.1 Une v.a.r X est discrète si X(Ω) est au plus dénombrable. Remarque 3.1.1 Cela ne signie pas forcément que X est à valeurs dans les entiers. La variable peut prendre ses valeurs dans un sous-ensemble dénombrable de R tel que Q.
3.1.1 Loi et fonction de répartition Soit
X
une variable discrète,
X(Ω) = {xi , i ∈ I}.
PX (B) = P(X ∈ B) = P
[ i;xi ∈B
La loi de
X , PX
est déterminée par
!
{X = xi }
=
X
P(X = xi )
avec
i;xi ∈B
B ⊂ X(Ω)
. Finalement la loi d'une variable discrète est déterminée par l'ensemble des valeurs prises et par les valeurs
P(X = xi ).
X(Ω)
Il est important de noter que l'on a toujours
X
P(X = xi ) = 1.
i∈I Inversement, on a la propriété suivante :
Proposition 3.1.1 Soit I une partie non videPde N. Soient (xi , i ∈ I) une famille de réels et (pi , i ∈ I) une famille de réels positifs vériant X(Ω) = {xi , i ∈ I} ∀i ∈ I , P(X = xi ) = pi .
i∈I
pi = 1. On peut dénir la variable X avec :
Exemple 3.1.1 Soit X une variable aléatoire à valeurs dans N telle que ∀n ∈ N, P(X = n) = e−1 n!1
Montrer que cela dénit bien une loi.
X est discrète, la fonction de répartition est une fonction intervalle ]xi , xi+1 [ la fonction F : x 7→ P(X ≤ x) est constante. Lorsque
37
en escalier : sur chaque
38
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
3.1.2 Espérance La notion d'espérance correspond à celle de moyenne.
Dénition 3.1.2 Soit X une v.a.r discrète. Si X(Ω) = {xi , i ∈ I} avec I dénombrable, et si P i∈I
|xi |P[X = xi ] < ∞ alors l'espérance de X est dénie par E(X) :=
X
xi P[X = xi ].
i∈I Dans le cas où
I
est ni, l'hypothèse de convergence de la série est toujours vériée. Dans le
xi P[X = xi ] est absolument l'espérance de X ne dépend pas de
cas inni dénombrable, on suppose que la série de terme général
convergente. L'absolue convergence de la série garantie que l'ordre des
xi .
On rappelle qu'il existe des séries convergentes, non absolument convergentes,
dont la somme dépend de l'ordre pris sur ses termes. Penser à
P
1 n∈Z n ou
P
n≥1
(−1)n qui sont n
non absolument convergentes. Il faut bien comprendre que l'espérance n'existe pas toujours, même dans le cas discret ! Si la variable aléatoire discrète est à valeurs positives alors son espérance existe ou est innie.
Exemple 3.1.2 (Paradoxe de Saint Petersbourg) On tire une pièce, si elle tombe sur face
le jeu s'arrête, si elle tombe sur pile le joueur gagne deux fois sa mise et rejoue. On continue ainsi de suite en doublant le gain du joueur à chaque fois qu'il rejoue. Imaginons qu'il ait misé 1 euro. Quelle est la loi de son gain ? Quelle mise maximale le joueur doit il accepter pour jouer ? On note X son gain. On a P(X = 2n ) = 21n pour n ∈ N? . On a bien ∞ X
P(X = 2n ) = 1.
n=1
On remarque tout d'abord que la loi ne dépend pas de la mise de départ. De plus on a n≥1 2n P(X = P 2n ] = n≥1 1 = ∞. Finalement, la moyenne du gain étant innie, le joueur devrait a priori toujours jouer. P
Proposition 3.1.2 Si X(Ω) possède un maximum et un minimum, alors E(X) existe et xmin ≤ E[X] ≤ xmax
Démonstration. A faire.
Théorème 3.1.3 Soit Ω ni ou dénombrable, si la série est absolument convergente, on a E[X] =
X
X(ω)P({ω}).
ω∈Ω
Démonstration. On note Ai = {ω ∈ Ω; X(ω)xi }. On a P(X = xi ) = P(X −1 ({xi }) = P(Ai ) =
X ω∈Ai
P({ω})
3.1.
GÉNÉRALITÉS
39
On a donc
X
xi P(X = xi ) =
XX
=
XX
i
i∈I
i
= =
ω∈Ai
X
xi P({ω})
ω∈Ai
XX i
P({ω})
X(ω)P({ω})
ω∈Ai
X(ω)P({ω})
ω∈Ω
Ce théorème est essentiel du point de vue théorique. Jusqu'à maintenant le rôle de l'univers était quelque peu caché puisque nous travaillions directement sur l'espace probabilisé
(X(Ω), B(R), PX ).
Dans la plupart des cas, les calculs sont plus simples sur ce triplet que sur
celui de l'univers. Néanmoins le théorème 3.1.3 permet de travailler avec diérentes variables aléatoires simultanément.
Proposition 3.1.4 (linéarité) Soient X et Y deux variables aléatoires discrètes sur Ω. On
suppose qu'elles possèdent une espérance. Soit λ ∈ R. Alors, la variable aléatoire X + λY est discrète et a pour espérance : E[X + λY ] = E[X] + λE[Y ].
Démonstration. La série
P
ω∈Ω (X(ω) + λY
(ω))P({ω}) est absolument convergente car c'est une
somme de deux séries absolument convergentes (utiliser l'inégalité triangulaire). On a donc :
X
(X(ω) + λY (ω))P({ω}) =
ω∈Ω
X
X(ω)P({ω}) + λ
ω∈Ω
X
Y (ω)P({ω}) = E[X] + λE[Y ].
ω∈Ω
Le théorème 3.1.3 et la propriété 3.1.4 restent vrais pour toute variable aléatoire, pas forcément discrète, dénie sur n'importe quel univers
Ω.
Du point de vue de
mesure, l'espérance n'est rien d'autre que l'intégrale de X
contre la mesure
P
la théorie de la
:
Z ”E[X] =
X(ω)P(dω).” Ω
Proposition 3.1.5 Soient X et Y deux variables aléatoires. Supposons que 0 ≤ X ≤ Y et que Y admet un moment d'ordre 1. Alors X admet un moment d'ordre 1 et E[X] ≤ E[Y ].
Démonstration. Laissée en exercice.
40
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
3.1.3 Composition d'une variable aléatoire et d'une fonction et indépendance Soit
X
g
une variable aléatoire discrète. Soit
une fonction continue par morceaux dénie sur
X(Ω), clairement la variable g ◦ X est une (g ◦ X)(Ω) = {g(xi ), i ∈ I}. Le théorème suivant est très important.
un ensemble J contenant
variable discrète : on a
Théorème 3.1.6 (théorème de transfert) E[g(X)] =
X
g(xi )P(X = xi )
i∈I
Démonstration. On note Ai = {ω ∈ Ω; X(ω) = xi }. E[g(X)] =
X
g(X(ω))P({ω}) =
ω∈Ω
=
X
XX
g(xi )P({ω})
i∈I ω∈Ai
g(xi )
i∈I
X
P({ω}) =
ω∈Ai
X
g(xi )P(Ai ).
i∈I
Proposition 3.1.7 Soit g une fonction positive. Si E[g(X)] = 0 alors P[g(X) = 0] = 1.
On dit que la variable g(X) est nulle presque-sûrement. Démonstration.
P E[g(X)] = i∈I g(xi )P[X = xi ] = 0. Comme g(xi )P[X = xi ] est positif, tous les termes sont nuls et si P[X = xi ] > 0 alors g(xi ) = 0. Autrement dit g(x) = 0 si S S {x } = 0, donc x ∈ i∈I,P[X=xi ]>0 {xi }. On a de plus PX i i∈I,P[X=xi ]=0 On a
[
P
{xi } = 1
i∈I,P[X=xi ]>0
L'indépendance entre deux variables aléatoires
X, Y
peut s'exprimer avec l'opérateur d'es-
pérance.
Proposition 3.1.8 X et Y sont deux variables indépendantes si pour toutes fonctions f et g continues bornées,
E[f (X)g(Y )] = E[f (X)]E[g(Y )]
Démonstration
Si
f
et
des fonctions
X et Y sont indépendantes alors la propriété est vraie par dénition pour g simples. Toute fonction continue bornée est limite de fonctions simples.
Critère d'indépendance. Soient X et Y et
Y (Ω) = {y1 , y2 , ...}. X
et
Y
deux variables discrètes telles que
sont indépendantes si
P(X = xi , Y = yj ) = P(X = xi )P(Y = yi ).
X(Ω) = {x1 , x2 , ...}
3.2.
LOIS DISCRÈTES USUELLES
41
3.1.4 Moments, variance et écart-type Dénition 3.1.3 On appelle moment d'ordre k de X l'espérance si elle existe de la variable X k avec k ≥ 2
On a d'après le théorème de transfert : E[X k ] =
X
xki P(X = xi )
i∈I
Dénition 3.1.4 On appelle variance de X , l'espérance de (X − E[X])2 : On a immédiatement
V(X) = E[(X − E[X])2 ]. P 2 V(X) = i (xi − E[X]) P[X = xi ].
On mesure l'écart de la variable
aléatoire par rapport à sa moyenne. C'est une mesure de dispersion autour de
E(X).
Proposition 3.1.9 Si X admet une variance et V(X) = 0 alors X = 0 avec probabilité 1 Théorème 3.1.10 Si X possède un moment d'ordre 2 alors V(X) = E(X 2 ) − E(X)2 . 3.2
Lois discrètes usuelles
On présente les lois classiques au programme.
Loi de Bernoulli Dénition 3.2.1 Soit p ∈ [0, 1], X suit la loi de Bernoulli de paramètre p si 1. X(Ω) = {0, 1} 2. P(X = 1) = p et P(X = 0) = 1 − p La fonction indicatrice d'un événement est une variable aléatoire qui suit une loi de Bernoulli. Soit
A ∈ F , X = 1A
a pour loi, la loi de Bernoulli avec paramètre
Proposition 3.2.1 E(X) = p et V(X) = p(1 − p)
Loi uniforme sur [|1, n|] Dénition 3.2.2 X a pour loi, la loi uniforme sur [|1, n|] si 1 X(Ω) = [|1, n|] 2 P(X = k) = n1 .
Proposition 3.2.2 On a E[X] =
n+1 2
et V(X) =
n2 −1 12
Démonstration. Utiliser les formules n X
k=
k=1 n X k=1
k2 =
n(n + 1) 2
n(n + 1)(2n + 1) 6
p = P(A).
42
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
Loi de Poisson La variable aléatoire
X
suit une loi de Poisson de paramètre
λ
(loi sur
N)
si :
λk −λ e . k!
P[X = k] = Il faut savoir calculer les moments !
E[X] =
∞ X
ke−λ
k=0
∞ X λk λk−1 =λ = λe−λ eλ = λ. e−λ k! (k − 1)! k=1
Plus généralement
E[X(X − 1)...(X − j + 1)] =
∞ X k=0
=λ
k
k(k − 1)...(k − j + 1)e−λ
∞ X
∞
−λ
e
j=k
E[X 2 − X] = λ2 ,
On en déduit que
λk k!
X λj−k λk e−λ = λk = λk (j − k)! k! j=0
d'où
E[X 2 ] = λ2 + λ et
V(X) = λ.
Loi binomiale On considère
n
tirages équiprobables indépendants dans un ensemble composé de deux types
d'éléments, le premier (I) en proportion
p,
le deuxième en proportion
nombre d'éléments du premier type tirés parmi l'échantillon de taille
X
n.
suit une loi binomiale. Supposons qu'à chaque élément échantillonné
la variable aléatoire
Yi
qui vaut
1
si
variables de Bernoulli de paramètre
q = 1 − p.
Soit
X
La variable aléatoire
i ∈ [|1, n|],
on associe
i est de type I, 0 sinon. Les variables aléatoires Yi sont des p indépendantes. Il est évident que le nombre X d'éléments
de type (I) dans l'échantillon vérie :
X=
n X
Yi
i=1
Dénition 3.2.3 Soient n ∈ N? et p ∈ [0, 1]. X suit la loi binomiale de paramètre n et p si 1. X(Ω) = [|0, n|] 2. P(X = k) = On a
E[X] = np
n k
pk (1 − p)n−k
et
le
V(X) = np(1 − p).
3.2.
LOIS DISCRÈTES USUELLES
43
Loi hypergéométrique On a déjà rencontré cette loi dans le problème de contrôle de production 2.0.1. On redonne ici l'expérience type menant à une loi hypergéométrique. On considère un tirage équiprobable
sans
remise de n éléments dans une population de taille N ≥ n. On s'intéresse à un type donné (I) (par exemple
Np
(
défectueux ) d'éléments de la population, que l'on supposera être en proportion p
est donc un entier). Soit
taille
X
le nombre d'éléments de type I présents dans l'échantillon de
n.
Dénition 3.2.4 X suit une loi hypergéométrique de paramètres N, n, p si N (1−p) n−k N n
Np k
P[X = k] =
avec max{0; n − N (1 − p)} ≤ k ≤ min{n, N p}.
Proposition 3.2.3 E[X] = np, V(X) =
N −n np(1 N −1
Démonstration. Pour tout i ∈ [|1, N |], soit
0 1
i = Il y a
i.
N n
échantillons de taille
si
i
,
− p).
n'appartient pas à l'échantillon
sinon
n possibles
N −1 n−1
et
On a donc
échantillons possibles de taille
N −1 n−1 N n
P[i = 1] =
=
n contenant
n . N
On peut écrire
X=
N X
Yi i
i=1 où
Yi
prend la valeur
1
si
i
est de type I,
E[X] =
N X
0
E[Yi i ] =
i=1
sinon. On en déduit :
N X
E[Yi ]E[i ] =
i=1
De même, on calcule
V(X) = (exercice)
N X n p = np N i=1
N −n np(1 − p). N −1
Loi géométrique On considère une population dont une proportion
p
est composée d'éléments de type I donné.
1 élément de ce type en procédant à une suite de tirage équiprobables et Y le nombre de tirage nécessaires pour obtenir un élément de type I. La loi ? géométrique de paramètre p sur N : c'est à dire :
On désire obtenir
indépendants : Soit de
Y
est la loi
P[Y = k] = (1 − p)k−1 p On a tiré
k−1
éléments de type II, le
k -ième
E[Y ] =
1 et p
est de type I. Les moments sont
V(Y ) =
1−p . p2
44
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
Loi binomiale négative n éléments de type I. On note Y le nombre de tirages nécessaires pour avoir n éléments. L'événement {Y = k} signie que k tirages ont donné un élément de type II, et n tirages ont donné un élément de Il s'agit d'une généralisation de la loi géométrique. Cette fois ci on désire obtenir
n−1 , on en déduit : n−1+k
type I (dont le dernier). Le nombre de choix possibles est
n−1 pn (1 − p)k . n−1+k
P[Y = k] = Moments :
E[X] = n 1−p p 3.3
et
V(X) = n 1−p . p2
Vecteurs aléatoires discrets
3.3.1 Vecteurs aléatoires discrets : lois marginales, indépendance Soit
X
X1 , X2 , ..., Xn ses X1 (ω) X2 (ω) . X : ω ∈ Ω 7→ . . . Xn (ω)
un vecteur aléatoire discret. Soient
composantes, c'est à dire
Exemple 3.3.1 On lance deux fois un dé équilibré. On pose Ω = [|1, 6|]2 , F = P(Ω) et P la probabilité uniforme. Soit X le vecteur aléatoire bi-dimensionnel : X : ω ∈ Ω 7→
U (ω) = ω1 + ω2 . V (ω) = max(ω1 , ω2 )
Exercice 3.3.1 Les variables U et V sont elles indépendantes ? Déterminer la loi de X . Dénition 3.3.1 (Lois marginales) On appelle lois marginales de X , les lois de X1 , ..., Xn . La loi de
X
est aussi appelée loi conjointe des
Xi , 1 ≤ i ≤ n.
Les propriétés suivantes se
généralisent au cas multidimensionnel, pour alléger les notations, on considère un vecteur bidimensionnel (
n = 2).
Soit
X = (U, V ).
La loi de
P(U = ui ) =
X
U
se déduit de la loi de
(U, V )
:
P(U = ui , V = vj ).
j∈I
Exercice 3.3.2 Reprenons le vecteur aléatoire de l'exemple précédent. Déterminer ses lois marginales.
La loi conditionnelle de
V
sachant
U = ui
est la donnée de
P(V = vj et U = ui ) vj ; P(U = ui )
.
3.3.
VECTEURS ALÉATOIRES DISCRETS
45
Exercice 3.3.3 Déterminer la loi de U sachant V = 3. Proposition 3.3.1 Soient X et Y deux v.a.r discrètes indépendantes possédant une espérance E[XY ] = E[X]E[Y ].
Démonstration.
Proposition 3.3.2 (Admis) Si X1 , ...., Xn sont indépendantes, alors toute fonction de X1 , ..., Xp est indépendantes de toute fonction de Xp+1 , ..., Xn .
3.3.2 Structure algébrique, covariance et corrélation `0 (Ω, F, P) l'ensemble des variables aléatoires discrètes dénies sur un même espace 0 probabilisé (Ω, F, P). L'espace ` est un espace vectoriel pour la loi de composition interne + :
On note
(X + Y )
est l'élément de
`0
qui à
ω∈Ω
associe
X(ω) + Y (ω)
et la loi de composition externe scalaire :
∀λ ∈ R, (λ.X)(ω) = λX(ω).
Proposition 3.3.3 Soit `1 l'ensemble des variables aléatoires discrètes possédant une espérance, i.e
`1 = {X ∈ `0 ; E[|X|] < ∞}.
1) `1 est un sous-espace vectoriel de `0 2) E est une forme linéaire sur `1
Proposition 3.3.4 Soit `2P l'ensemble des éléments de `0P possédant un moment d'ordre 2, i.e `2P = {X ∈ `0 ; E[X 2 ] < ∞} `2P est un sous-espace vectoriel de `0P inclus dans `1P .
Démonstration. Utiliser ab ≤ 21 (a2 + b2 )
Dénition 3.3.2 (Covariance) On appelle covariance l'application Cov : (X, Y ) ∈ `2 × `2 7→ E[XY ] − E[X]E[Y ]. Par dénition
Cov(X, X) = V(X).
On a également la propriété importante suivante :
Proposition 3.3.5 V
n X i=1
! Xi
=
n X i=1
V(Xi ) + 2
X
Cov(Xi , Xj ).
1≤i 0. C'est assez contre-intuitif et source
Proposition 3.3.8 Quelque soit le couple (X, Y ) de variables aléatoires de L2 , on a : Démonstration. Il faut démontrer
|ρ(X, Y )| ≤ 1 |Cov(X, Y )| ≤ σ(X)σ(Y ).
Soit
λ ∈ R,
on a
Le trinôme en
V(X + λY ) = V(X) + λ2 V(Y ) + 2λCov(X, Y ). λ
à droite dans l'égalité ci-dessus est toujours positif puisque
On en déduit que son discriminant est négatif ou nul :
V(X + λY ) ≥ 0.
∆ = 4(Cov(X, Y ))2 − 4V(X)V(Y ) ≤ 0. On en déduit donc le résultat.
Remarque 3.3.4 C'est la même preuve que celle de l'inégalité de Cauchy-Schwarz. Il faut impérativement la connaître.
3.3.
VECTEURS ALÉATOIRES DISCRETS
47
3.3.3 Loi multinomiale On commence par une généralisation du théorème binomiale : Soient un entier. On a
X
(x1 + ... + xk )n =
n1 ,...,nk ;n1 +...nk
x1 , ..., xk k
réels, soit
n
n! xn1 1 ...xnk k . n !n !...n ! k =n 1 2
On note parfois
n n1 , n2 , ..., nk
=
n! n1 !n2 !...nk !
Ce nombre est le coecient multinomial. On passe maintenant à la loi multinomiale. Il s'agit d'une généralisation de la loi binomiale. On considère dans une population composée d'éléments de
m X
m
n
tirages équiprobables, indépendants
types, chaque type
j
étant en proportion
pj
:
pj = 1.
j=1
j = 1, .., m, comme étant le nombre d'éléments de type (N1 , ..., Nm ) suit une loi multinomiale de paramètre M(n, n1 , ..., nm ).
On dénit la variable aléatoire
j gurant dans n, p1 , ..., pm . On
Nj
pour
l'échantillon. Le vecteur la notera
Dénition 3.3.4 Le vecteur aléatoire X = (N1 , ..., Nm ) suit une loi multinomiale de paramètres n, p1 , ..., pm si
P(X = (n1 , ..., nm )) =
où
Pm
i=1
ni = n,
n! pn1 1 ...pnmm n1 !...nm !
n! n1 !...nm !
est le nombre de partitions de {1, ..., n} avec des sous-ensembles de cardinaux n1 , ..., nm .
Proposition 3.3.9 La j -ème loi marginale de X est une loi binomiale de paramètre n, pj Un élément tiré au hasard est soit du type probabilité
(1 − pj ) Aj
avec probabilité
: le nombre total d'éléments du type
loi binomiale de paramètre l'événement
j
n, pj .
j
pj
soit d'un autre type avec
dans l'échantillon suit donc une
On va retrouver cela par le calcul. Soit
nj
xé. On dénit
déni par
Aj := {(n1 , ..., nj−1 , nj , nj+1 , ..., nm );
P[Nj = nj ] = P[X ∈ Aj ] =
X Aj
X i6=j
ni = n − nj }
n! pn1 1 ...pnmm n1 !...nm !
X n! (n − nj )! n pj j (1 − pj )n−nj nj !(n − nj )! n1 !...nj−1 !nj+1 !...nm ! Aj n nj = pj (1 − pj )n−nj
=
nj
48
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
Nl , Nj , soient non corrélées, et a fortiori indépendantes. On calcule la covariance de deux marginales Nj , Nl . Le couple (Nj , Nl ) suit une loi multinomiale de paramètres : n, pj , pl , 1−(pj +pl ). En eet, lorsque l'on tire un échantillon de taille n, chaque élément tiré est soit de type j avec probabilité pj , soit de type l avec probabilité pl , soit d'un autre type avec probabilité 1 − (pj + pl ). On en déduit
Il n'y a aucune raison pour que les variables aléatoires
X
E[Nj Nl ] =
nj nl
(nj ,nl );nj +nl ≤n
X
=
(nj ,nl );nj +nl ≤n
n! n p j pnl (1 − pl − pj )n−nj −nl nj !nl !(n − nj − nl )! j l
(n − 2)! n −1 p j plnl −1 (1 − pl − pj )n−2−(nj −1)−(nl −1) (nj − 1)!(nl − 1)!(n − 2 − (nj − 1) − (nl − 1))! j × n(n − 1)pj pi
= n(n − 1)pj pl ce qui n'est pas égal à
E[Nj ]E[Nl ] = n2 pj pl .
3.3.4 Somme de variables aléatoires indépendantes Somme de variables de Bernoulli Proposition 3.3.10 Soient X1 , ..., Xn n variables indépendantes de loi de Bernoulli de paramètre p. La variable aléatoire
Y =
n X
Xi
i=1
suit une loi binomiale de paramètre (n, p).
Remarque 3.3.5 C'est de cette façon que nous avons introduit la loi binomiale au Chapitre
3. En fait nous allons voir que nous pouvons toujours construire une variable aléatoire de loi binomiale comme somme de Bernoulli indépendantes. Ce qui suit n'est pas clairement au programme, mais permet de comprendre l'indépendance. On considère une variable de Bernoulli de paramètre et note
S,
p
1. An de n copies indépendantes :
l'événement la variable de Bernoulli réalise
façon indépendante, on va construire
On se place sur l'espace
(Ωn , F ⊗n , P⊗n )
la probabilité produit. On dénit
où
F ⊗n
et
(Ω, F, P). On appelle succès, répéter n fois l'expérience, de
sur un espace
P⊗n
sont respectivement la tribu produit et
Xi : ω ∈ Ωn 7→ ωi .
Par dénition de la tribu produit
P⊗n ,
on a
P⊗n (Xi = 1) = P⊗n (Ω × Ω × ..., ×{S}, ×... × Ω) = P(Ω) × P({S})... × P(Ω) = P[{S}] = p. Soit
(x1 , ..., xn ) ∈ {0, 1}n .
On a
P⊗n [X1 = x1 , ..., Xn = xn ] = P⊗n [X1 = x1 ]...P⊗n [Xn = xn ] = pk (1 − p)n−k
3.3.
VECTEURS ALÉATOIRES DISCRETS
kP est le nombre Y = ni=1 Xi suit la où
P[Y = k] = (
de
xi , i ∈ [|1, |n]
valant
49
1.
On conclut immédiatement que la variable
loi suivante :
le nombre de façon de choisir
k
éléments parmi
k
n−k
n)×p (1−p)
n k = p (1−p)n−k . k
Somme de variables binomiales Proposition 3.3.11 Soient X1 , ..., Xk des variables aléatoires binomiales de paramètres respectifs (n1 , p), ..., (nk , p). La variable aléatoire Y =
k X
Xi
i=1
est une de loi binomiale de paramètre (
Pk
i=1
ni , p).
D'après la proposition précédente, chaque variable
Xi
est somme de
ni
variables de Bernoulli
indépendantes. On les numérote de la façon suivante :
X1 =
n1 X
Bi , X2 =
n2 X
Bi , ..., Xk =
i=n1 +1
i=1
nk X
On a donc
Y =
k X
Xi =
i=1
ni X
k X
Bi
i=n1 +...+nk−1 +1
Bj =
i=1 j=n1 +...+ni−1 +1
D'après la proposition précédente, on a donc que
Y
n1 +...+n X k
Bl .
l=1
suit une loi binomiale de paramètre
(n1 +
... + nk , p).
Somme de variables de Poisson Proposition 3.3.12 Soient X1 , ..., Xk des variables aléatoires dénies sur un même espace, indépendantes de loi de Poisson de paramètre respectif λi . La variable aléatoire Y =
k X
Xi
i=1
suit une loi de Poisson de paramètre On le fait dans le cas donne donc
X1
et
X2
k = 2,
Pk
i=1
λi
et le soin de faire une récurrence sur
variables telles que
λj1 −λ1 P[X1 = j] = e j! P[X2 = l] =
λl2 −λ2 e l!
k
est laissé au lecteur. On se
50
CHAPITRE 3.
On cherche à calculer
P[X1 + X2 = n].
P[X1 + X2 = n] = P
n [
VARIABLES ALÉATOIRES DISCRÈTES
On a :
! {X1 = i} ∩ {X2 = n − i}
i=0
= =
n X i=0 n X i=0 n X
P(X1 = i, X2 = n − i) P(X1 = i)P(X2 = n − i)
λi1 −λ1 λn−i 2 e e−λ2 i! (n − i)! i=0 n n X 1 X n i n−i (λ1 + λ2 )i −(λ1 +λ2 ) =e λ1 λ2 = e−(λ1 +λ2 ) . i! i=0 i i! i=0
=
Un outil très important pour étudier plus généralement les sommes de variables aléatoires est la notion de fonction génératrice. Cette notion n'est pas exigible mais apparaît implicitement dans de nombreux exercices. Nous soulignons également qu'une fonction génératrice n'est rien d'autre qu'une série entière (totalement au programme.) Soit dans
N.
La fonction génératrice associée à
X
X
une variable aléatoire à valeurs
est dénie de la façon suivante :
X
GX : s ∈] − 1, 1[7→ E[s ] =
∞ X
sk P[X = k].
k=0
La fonction génératrice caractérise entièrement la loi.
Proposition 3.3.13 Soient X et Y deux variables aléatoires. X et Y ont même loi si et seulement si GX = GY .
Démonstration. Que peut-on dire des coecients de deux séries entières égales ? 3.4
Exercices
Exercice 3.4.1 Soit n un entier ≥ 1. On considère l'expérience aléatoire qui consiste à lancer successivement n fois un dé (équilibré) et à noter les n résultats obtenus (dans l'ordre). 1. Décrire l'univers Ω associé à cette expérience aléatoire. Déterminer le cardinal de Ω. 2. Calculer la probabilité de l'évènement A = on obtient au moins un 6 . 3. Démontrer que pour avoir une probabilité supérieure ou égale à 0, 9 d'obtenir au moins un 6, il faut et il sut que : n≥
ln(10) ln(6) − ln(5)
Exercice 3.4.2 Une urne contient trois boules blanches et trois boules noires. On tire simultanément quatre boules de l'urne au hasard. Quelle est la probabilité qu'il y ait autant de blanches que de noires ?
3.4.
EXERCICES
51
Exercice 3.4.3 On considère un jeu de échettes. La cible est un disque de rayon 3. Par
simplicité, nous supposons que le joueur atteint toujours la cible. Supposons que le centre de la cible est situé à l'origine du plan R2 . Nous souhaitons étudier les emplacements des échettes sur la cible. Nous supposons que la cible est divisée en trois cercles centrés à l'origine C1 , C2 , C3 de rayons respectifs 1, 2, 3. Ces cercles divisent la cible en trois anneaux A1 , A2 , A3 avec Ak = {(x, y) ∈ R2 ; k − 1 ≤
p x2 + y 2 < k}.
1) Donner un univers Ω. 2) On suppose que la probabilité de tomber dans un anneau est proportionnelle à son aire. Calculer P(A1 ), P(A2 ), P(A3 )
3) Soit maintenant X la variable aléatoire qui donne le nombre de points selon l'emplacement de la échette. On suppose que la règle du jeu est la suivante : Si la échette tombe dans Ak alors le joueur remporte 3 − k + 1 points. Calculer l'espérance de X 4) Donner la fonction de répartition de X et tracer la. 5) On suppose maintenant que le joueur n'atteint pas la cible avec une probabilité donnée p > 0. On suppose que si le joueur atteint la cible alors il marque des points selon les mêmes règles que précédemment. Sinon, il marque 0 point. Mêmes questions que précédemment.
Exercice 3.4.4 (Minimum de deux variables aléatoires géométriques) Dans cet exer-
cice, p désigne un réel de ]0; 1[ et q = 1 − p. On considère deux variables aléatoires X et Y , indépendantes, et suivant toutes deux la même loi géométrique de paramètre p. 1. Soit i ∈ N . En remarquant que (X ≤ i) = ?
i [
(X = k), montrer que P(X > i) = q i .
k=1
2. Vérier que l'égalité précédente est encore vraie lorsque i = 0. 3. On dénit une variable aléatoire Z en posant Z = min(X, Y ), c'est-à-dire : ( X Z= Y
si X ≤ Y si Y < X
Expliquer pourquoi, pour tout i ∈ N : (Z > i) = (X > i) ∩ (Y > i)
4. En déduire P (Z > i), pour i ∈ N. 5. Soit i ∈ N∗ . En utilisant le fait que (Z > i − 1) = (Z > i) ∪ (Z = i), calculer P (Z = i), pour i ∈ N∗ . 6. Démontrer que Z suit la loi géométrique de paramètre 1 − q 2 .
Exercice 3.4.5
Le trousseau de clefs d'un gardien de nuit comporte dix clefs, dont une seule
ouvre la porte du poste de garde. Pour qu'il y pénètre, il y a deux scenarios possibles :
•
Cas
A
: il prend une clef au hasard, l'essaie, la met de côté si elle n'ouvre pas, et ainsi de
suite.
• Cas B
: il prend une clef au hasard, l'essaie, mais la laisse sur le trousseau si elle n'ouvre pas,
et ainsi de suite.
52
CHAPITRE 3.
On désigne respectivement par
XA
et
XB
VARIABLES ALÉATOIRES DISCRÈTES
les variables aléatoires égales aux nombres d'essais
(y compris le bon) avant succès, dans le premier et le second scenario. Déterminer la loi de probabilité et la fonction de répartition de
E[XA ]
Calculer
et
XA
et de
XB .
E[XB ].
Le gardien utilise la méthode
B
un jour sur trois. Un jour, après avoir essayé
8
clefs, il n'a
toujours pas ouvert la porte. Quelle est la probabilité pour qu'il ait utilisé la méthode
Exercice 3.4.6
B?
n un entier naturel non nul. Une personne eectue n lancers indépendants Xn le nombre de "piles" obtenus. Quelle est la loi de Xn ? quelle est son espérance ? sa variance ? Calculer la probabilité pour qu'à l'issue des n lancers, le nombre de piles soit strictement Soit
d'une pièce parfaitement équilibrée. Soit 1) 2)
supérieur au nombre de faces.
Exercice 3.4.7 (#) montage
A
et
B
Une entreprise de construction produit des objets sur deux chaînes de
qui fonctionnent indépendemment l'une de l'autre. Pour une chaîne donnée,
les fabrications des pièces sont indépendantes. On suppose que produit est
0.1
40%
A
60% des ob jets et B A soit défectueux B soit défectueux est
produit
des objets. La probabilité qu'un ob jet construit par la chaine
alors que la probabilité pour qu'un objet construit par la chaine
0.2. 1. On choisit au hasard un objet à la sortie de l'entreprise. On constate que cet objet est défectueux. Calculer la probabilité de l'événement l'ob jet provient de la chaîne A . 2. On suppose de plus que le nombre d'objets produits en une heure par aléatoire
Y
qui suit une loi de Poisson de paramètre
On considère la variable aléatoire par la chaîne
A
X
A
est une variable
λ = 20.
représentant le nombre d'objets défectueux produits
en une heure.
(a) Rappeler la loi de
Y
ainsi que la valeur de l'espérance et de la variance de
Y.
k et n deux entiers naturels, déterminer la probabilité conditionnelle P(Y =n) [X = k]. (On distinguera les cas k ≤ n et k > n ). En déduire, en utilisant le système complet d'événements (Y = i) i∈N , que X suit
(b) Soient
(c)
une loi de Poisson de paramètre 2 .
Solution. 1. Pour un objet pris à la sortie,
P (A) = 0.6
D =l'objet est défectueux. a P (D/A) = 0.1 et P (D/B) = 0.2
et
P (B) = 0.4
Soit On
et comme
(A, B)
est un système complet d'évé-
nements,
P (D) = P (D/A) P (A) + P (D/B) P (B) = 0.1 · 0.6 + 0.2 · 0.4 = 0.14 Si l'ob jet est défectueux, la probabilité de l'événement l'objet provient de la chaîne A est
P (A/D)
que l'on calcule par la formule de Bayes :
P (D/A) P (A) P (A ∩ D) = P (D) P (D) 0.1 · 0.6 0.06 6 3 = = = = 0.14 0.14 14 7
P (A/D) =
3.4.
EXERCICES
53
2. On suppose de plus que le nombre d'objets produits en une heure par aléatoire
Y
qui suit une loi de Poisson de paramètre
On considère la variable aléatoire par la chaîne
A
est une variable
λ = 20.
représentant le nombre d'objets défectueux produits
en une heure.
Y (Ω) = N V (Y ) = λ = 20
(a) On a
X
A
et pour tout entier
n : P (Y = n) =
λn e−λ . n!
E (Y ) = λ = 20
et
Y = n, X est le nombre d'objet défectueux parmi n, qui sont défectueux indépendemment les un des autres avec une même probabilité 0.1. Donc sachant
(b) Quand
Y = n, X ,→ B (n, 0.1) et P [X = k/Y = n] = 0 si k > n
(c) Comme
(Y = n)n∈N ,
et
P [X = k/Y = n] = Cnk 0.1k 0.9n−k
si
k≤n
est un système complet d'événements on a pour tout entier
P (X = k) =
+∞ X
k:
P [X = k/Y = n] P (Y = n)
n=0 série convergente dont on calcule la somme partielle en distinguant suivant que ou
n N ).
2. Donner les lois de
T1
3. Déterminer, lorsque
et
T2 .
n ≥ 2,
(Tn = 1), (Tn = 2), (Tn = n) n > N et n ≤ N ).
la probabilité des événements
(pour la dernière probabilité, on distinguera deux cas :
4. À l'aide de la formule des probabilités totales, justier l'égalité entier
k
tel que
(I)
suivante, pour tout
k N −k+1 P (Tn = k) + P (Tn = k − 1) N N E(Tn ) de la variable Tn , on considère la fonction polynomiale
P (Tn+1 = k) =
5. An de calculer l'espérance
Gn
(I)
1 ≤ k ≤ n.
dénie par :
∀x ∈ R, Gn (x) = (a) Quelle est la valeur de (b) Exprimer
E(Tn )
P (Tn = k)xk
k=1
Gn (1) ?
en fonction de
(c) En utilisant la relation
n X
(I),
G0n (1).
montrer que :
∀x ∈ R, Gn+1 (x) =
1 (x − x2 )G0n (x) + xGn (x) N
(d) En dérivant l'expression précédente, en déduire que :
1 E(Tn+1 ) = 1 − E(Tn ) + 1 N (e) Prouver enn que l'espérance de
Tn
est donnée par :
E(Tn ) = N (f ) L'entier
N
1 1− 1− N
étant xé, calculer la limite de
n
E(Tn ) lorsque n tend vers +∞. Interpréter
le résultat.
Exercice 3.4.9 On lance n fois (n ≥ 3) une pièce de monnaie parfaitement équilibrée. Pour
tout i ∈ [|1, n|], on pose Ai = on a obtenu pile au i-ème lancer . 1. Soit X le nombre total de piles obtenu. Donner sa loi, son espérance et sa variance. 2. Si, à l'issue des n lancers, on obtient par exemple pile-pile-face-face-face-pile-. . . , on dit que l'on a une première série de longueur 2, parce qu'on a obtenu 2 piles au début (et pas plus), et une deuxième série de longueur 3, parce qu'on a obtenu ensuite 3 faces (et pas plus). Autre exemple : si l'on obtient face-face-pile-face-. . . , on a une première série de longueur 2 et une deuxième série de longueur 1. On note S1 la longueur de la première série et S2 la longueur de la deuxième série si elle existe. On convient de poser S2 = 0 s'il n'y a pas de deuxième série, c'est-à-dire si S1 = n. Déterminer S1 (Ω). 3. Justier l'égalité (S1 = 1) = (A1 ∩A2 )∪(A1 ∩A2 ). En déduire, en justiant soigneusement, 1 2
que P(S1 = 1) = .
3.4.
EXERCICES
55
4. En étudiant l'événement (S1 = k) à la manière de la question précédente, démontrer que : k 1 ∀k ∈ [|1, n − 1|], P(S1 = k) = 2 n−1 1 . 5. Démontrer que P(S1 = n) = 2
6. Vérier, en utilisant les formules obtenues dans les deux questions précédentes, que : n X
P(S1 = k) = 1
k=1
7. Soit x ∈ R \ {1}. Démontrer que pour tout n ∈ N∗ : n X
ixi−1 =
i=1
nxn+1 − (n + 1)xn + 1 . (1 − x)2
Calculer l'espérance de S1 . 8. Justier l'égalité S2 (Ω) = [|0, n − 1|]. 9. Calculer P(S2 = 0). 10. Soit k ∈ [|1, n|]. Montrer que : 0 si k = n 1 si k = n − 1 P(S2 = 1|S1 = k) = 1 si k ≤ n − 2 2
11. En déduire que : P(S2 = 1) =
Exercice 3.4.10
Une urne contient
Exercice 3.4.11
Soit
N
1 2
boules numérotées de
1
à
N.
(n ≤ N ). On étudiera d'abord le cas avec remise, puis sans remise. Soit X et Y le plus petit et le plus grand des nombres obtenus a) Calculer P(X ≥ x) pour tout x ∈ [|1, n|]. En déduire la loi de X . b) Calculer P(Y ≤ y) pour tout y ∈ [|1, n|]. En déduire la loi de Y . que : pour tout
a) Déterminer
a
un nombre réel, et
k ∈ N,
X
On en tire
c) La variable aléatoire
Exercice 3.4.12
P[X = k] =
a 2k k!
X admet elle une espérance ? Si oui, la déterminer. X admet elle une variance ? Si oui, la déterminer.
Calculer la fonction de répartition de :
la loi uniforme sur
{1, ..., n}
la loi de Bernoulli de paramètre la loi Binomiale de paramètres
4
p et
1 2
une à une
une variable aléatoire à valeurs dans
a.
b) La variable aléatoire
n
N,
telle
56
CHAPITRE 3.
la loi géométrique de paramètre
p.
Exercice 3.4.13
On admet que si
0≤xk sinon.
si
k n
i=1 Comme
· P (N = k) .
Xi = n
est une v.a. binomiale de paramètres
k X
Xi = n, N = k .
i=1
!
i=1
De plus, comme on considère une somme de pendantes,
P
!
a
i=1
Pk
=
k X
k≥0
X1 , . . . , Xk , on !
est indépendant de
P
Xi = n, N = k
X
i=1
k≥0
k X
!
k
N
P(λ), P(N = k) = e−λ λk! .
est une v.a.
Finalement, on a
X k λk pn e−λ X k! pn (1 − p)k−n e−λ P(S = n) = = (1 − p)k−n λk n k! n! k!(k − n)! k≥n k≥n et par un changement de variables dans la somme :
P(S = n) =
pn e−λ X 1 λn pn e−λ λ(1−p) (λp)n −λp (1 − p)k λk+n = e = e . n! k≥0 k! n! n!
Exercice 3.4.18 (Loi multinomiale #)
Une boîte contient
n jetons numérotés de 1 à n. On
tire un jeton au hasard, on note son numéro et on le remet dans la boîte. Si le numéro de ce jeton est
i,
alors on tire au hasard et sans remise
hasard dans trois urnes
U1 , U2
et
U3
X
Uk
k = 1, 2, 3,
on note
Xk
la variable
après cette opération.
la variable aléatoire donnant le numéro du jeton que l'on a tiré au départ dans la
boîte. Quelle est la loi de 2. Calculer pour 3.
jetons de la boîte que l'on distribue au
(vides au départ). Pour
aléatoire désignant le nombre de jetons de l'urne 1. Soit
i
X ? Déterminer la loi conjointe du couple (Xk , X), où k = 1, 2, 3.
k = 1, 2, 3,
l'espérance de
(a) Trouver la loi du vecteur aléatoire
Xk
(On pourra utiliser
X = X1 + X2 + X3 ).
(X1 , X2 , X).
(b) En déduire la loi du vecteur aléatoire
(X1 , X2 , X3 ).
solution 1. La loi de
X
est la loi uniforme sur
{1, .., n}.
Pour
1≤i≤n
et
0 ≤ j ≤ n,
P(Xk = j, X = i) = P(Xk = j|X = i)P(X = i) = P(Xk = j|X = i) · et sachant
{X = i},
la v.a.
Xk
est une binomiale de paramètres 1/3 et
0
P(Xk = j, X = i) =
1 j n i
1 j 3
si
2 i−j 3
si
j>i j ≤ i ≤ n.
i.
1 n
On a donc
58
CHAPITRE 3.
2. Comme
X = X1 + X2 + X 3
VARIABLES ALÉATOIRES DISCRÈTES
et que les trois v.a.
3E[X1 ] = E[X] =
et donc
3.
X1 , X 2
et
X3
ont même loi,
1 n(n + 1) n 2
n+1 . 6 1 ≤ i ≤ n et 0 ≤ j, k ≤ n,
E[X1 ] =
(a) Pour
P(X1 = j, X2 = k, X = i) = P(X=i) (X1 = j, X2 = k)P(X = i) = Conditionnellement à
{X = i},
l'expérience revient à placer
L'espace des congurations possibles, qui est de cardinal uniforme. De plus, le nombre de congurations avec boules dans la seconde est
si
j+k ≤i
j
i
1 P(X=i) (X1 = j, X2 = k). n boules dans 3 urnes.
i
3 , est muni de la probabilité k
boules dans la 1ère urne et
i! j!k!(i − j − k)!
et 0 sinon.
On a donc
P(X1 = j, X2 = k, X = i) =
11 i! i n 3 j!k!(i − j − k)!
si
j + k ≤ i ≤ n.
(b) Par la question précédente, on a directement
P(X1 = j, X2 = k, X3 = l) =
Exercice 3.4.19 (#)
si
j + k + l ≤ n.
On joue à pile ou face avec une pièce non équilibrée. A chaque lancer la
probabilité d'obtenir pile est
X
1 1 (j + k + l)! n 3j+k+l j!k!l!
2/3, et face 1/3. Les lancers sont supposés indépendants. On note
la variable aléatoire réelle égale au nombre de lancers nécessaires pour l'obtention, pour la
première fois de deux piles consécutifs. Soit
n
pn la probabilité de l'événement (X = n). (X = 2), (X = 3), (X = 4), (X = 5). Déterminer la
un entier naturel non nul. On note
1) Expliciter les événements
p1 , p2 , p3 , p4
et
valeur de
p5
2) A l'aide de la formule des probabilités totales, en distinguant deux cas selon le résultat du premier lancer, montrer que
1 2 ∀n ≥ 3, pn = pn−2 + pn−1 . 9 3 3) En déduire l'expression de 4) Calculer
pn
en fonction de
E[X].
Exercice 3.4.20
1) Déterminer
α, β, γ
n
pour
n ≥ 1.
tels que pour tout
k ∈ N? ,
1 α β γ = + + k(k + 1)(k + 2) k k+1 k+2
3.4.
EXERCICES
2) Soit
a ∈ R.
59
Déterminer
a
pour que
pk =
a k(k + 1)(k + 2)
soit une loi de probabilité. 3) Cette loi de probabilité admet elle une espérance ? une variance ?
Exercice 3.4.21
Soit
X
une variable aléatoire à valeurs dans
1) Montrer que pour tout
n ∈ N? ,
n X
kP[X = k] =
converge. Montrer
n−1 X
! − nP(X > n).
P[X > k]
i=1
k=1 2) On suppose que
N? .
lim nP(X > n) = 0 et que la série que X admet une espérance et que
de terme général
n→∞
E(X) =
∞ X
uk = P(X > k)
P(X > k).
k=1 3) Réciproquement, on suppose que
X
admet une espérance. Montrer que
lim nP(X > n) = 0
n→∞ et en déduire
E[X] =
∞ X
P[X > k].
k=0
Exercice 3.4.22 1) Si 2) Si
Soit X une v.a.r discrète telle P E(X) existe, E(X) = ∞ k=1 P[X ≥ k]. E[X(X − 1)] existe,
E[X(X − 1)] = 2
Exercice 3.4.23 N
que
∞ X ∞ X p=2 n=p
On considère un entier naturel
boules numérotées de
1
à
N.
X(Ω) = N.
N
Montrer que
P[X ≥ n].
supérieur ou égal à
3.
Une urne contient
On y eectue des tirages successifs d'une boule avec remise de
la boule tirée après chaque tirage, jusqu'à obtenir pour la première fois un numéro déjà tiré.
TN
On note alors
le rang aléatoire de ce dernier tirage.
Par exemple, si on a obtenu successivement les numéros 1-5-4-7-3-5, la variable valeur 6. Alors que si on a obtenu 5-4-2-2 la variable 1) Déterminer la loi, l'espérance et la variance de 2) Soit
TN
prend la valeur 4.
T3 .
N ≥3
a) Déterminer l'ensemble des valeurs que peut prendre b) Calculer c) Prouver
TN .
P[TN = 2], P[TN = 3] et P[TN = N + 1] pour tout entier k de {1, ..., N }, les égalités k−1 Y N! i P[TN > k] = = 1− . (N − k)!N k N i=0
En déduire la loi de la variable aléatoire
TN
TN
prend la
60
CHAPITRE 3.
Exercice 3.4.24
On joue à pile ou face avec une pièce non équilibrée. A chaque lancer la
probabilité d'obtenir pile est
X
VARIABLES ALÉATOIRES DISCRÈTES
2/3, et face 1/3. Les lancers sont supposés indépendants. On note
la variable aléatoire réelle égale au nombre de lancers nécessaires pour l'obtention, pour la
première fois de deux piles consécutifs. Soit
n
pn la probabilité de l'événement (X = n). (X = 2), (X = 3), (X = 4), (X = 5). Déterminer la
un entier naturel non nul. On note
1) Expliciter les événements
p1 , p2 , p3 , p4
et
valeur de
p5
2) A l'aide de la formule des probabilités totales, en distinguant deux cas selon le résultat du premier lancer, montrer que
1 2 ∀n ≥ 3, pn = pn−2 + pn−1 . 9 3 3) En déduire l'expression de 4) Calculer
pn
en fonction de
n
E[X].
Exercice 3.4.25
1) Déterminer
α, β, γ
pour
n ≥ 1.
tels que pour tout
k ∈ N? ,
1 α β γ = + + k(k + 1)(k + 2) k k+1 k+2 2) Soit
a ∈ R.
Déterminer
a
pour que
pk =
a k(k + 1)(k + 2)
soit une loi de probabilité. 3) Cette loi de probabilité admet elle une espérance ? une variance ?
Exercice 3.4.26 (A faire !) ?
N
Soit
P une probabilité et X
une variable aléatoire à valeurs dans
.
1) Montrer que pour tout
n ∈ N? ,
n X
kP[X = k] =
converge. Montrer
! P[X > k]
i=1
k=1 2) On suppose que
n−1 X
− nP(X > n).
lim nP(X > n) = 0 et que la série que X admet une espérance et que
n→∞
E(X) =
∞ X
de terme général
P(X > k).
k=1 3) Réciproquement, on suppose que
X
admet une espérance. Montrer que
lim nP(X > n) = 0
n→∞ et en déduire
E[X] =
∞ X k=0
P[X > k].
uk = P(X > k)
3.4.
EXERCICES
Exercice 3.4.27 1) Si 2) Si
61
X une v.a.r discrète telle P∞ E(X) = k=1 P[X ≥ k].
Soit
E(X) existe, E[X(X − 1)]
Soient
X
et
Y
Déterminer la loi de
Montrer que
∞ X ∞ X p=2 n=p
P[X ≥ n].
deux variables aléatoires indépendantes, à valeurs dans
X T = min(X, Y ).
Déterminer en fonction de la loi de
Exercice 3.4.29
X(Ω) = N.
existe,
E[X(X − 1)] = 2
Exercice 3.4.28
que
Y,
et de la loi de
la loi de
N.
Z =X +Y.
n variables aléatoires indépendantes de Bernoulli de paramètre p est une loi binomiale de paramètres n, p. Montrer que la somme de n variables aléatoires de Poisson de paramètres λ1 , ..., λn respectiPn vement est une loi de Poisson de paramètre i=1 λi
Exercice 3.4.30
Montrer que la somme de
Une urne contient une boule blanche et une boule noire, les boules étant
indiscernables au toucher. On y prélève une boule, chaque boule ayant la même probabilité d'être tirée, on note sa couleur, et on la remet dans l'urne avec
c
boules de la couleur de la
boule tirée. On répète cette épreuve, on réalise ainsi une succession de tirages On considère les variables aléatoires
Xi = 1 Xi = 0 On dénit, pour
(Xi )1≤i≤n
dénies par :
(n ≥ 2).
si on obtient une boule blanche au i-ème tirage.
.
sinon
2 ≤ p ≤ n,
la variable aléatoire
Zp =
Zp
p X
par
Xi
i=1 1) Déterminer la loi du couple
(X1 , X2 ).
En déduire la loi de
Z2 3) a) Déterminer Zp (Ω). Soit p ≤ n − 1 b) Déterminer P(Xp+1 = 1|Zp = k) pour k ∈ Zp (Ω).
X2 .
2) Déterminer la loi de
En utilisant la formule des probabilités
totales, montrer que
P[Xp+1 = 1] = c) Montrer par récurrence que pour tout
1 + cE[Zp ] 2 + pc
p ∈ [|1, n|],
P[Xp = 1] = P[Xp = 0] =
1 2
Exercice 3.4.31 Soit une pièce avec probabilité d'avoir face p. On lance la pièce n fois, soit X la variable aléatoire représentant le nombre de faces obtenues, et Y le nombre de piles. Quelle est la loi de X , la loi de Y ? montrer que les variables aléatoires X et Y ne sont pas indépendantes. On lance maintenant la pièce N fois où N est un nombre aléatoire qui suit une loi de Poisson. On note encore X et Y le nombre de faces et le nombre de piles. Déterminer la loi du couple (X, Y ), en déduire que X et Y sont indépendantes, et donner leurs lois respectives.
62
CHAPITRE 3.
Exercice 3.4.32
n
On considère
VARIABLES ALÉATOIRES DISCRÈTES
urnes numérotées de
1
n.
à
La première urne contient des
boules blanches et des boules noires ; la proportion de boules blanches est vantes contiennent chacune On eectue
n
a
boules blanches et
a
p1 .
Les urnes sui-
boules noires.
tirages de la manière suivante : on tire une boule de la premiere urne que l'on
place dans la deuxième urne, puis on tire une boule de la deuxième urne que l'on place dans la troisième, et ainsi de suite jusqu'au tirage dans la dernière urne.
Pour
1 ≤ k ≤ n,
on désigne par
kème urne est blanche, égale à
0
Xj
la variable aléatoire égale à
fonction de
p1
et de
k ème
si la boule tirée de la
1) Déterminer les lois de probabilités de
X1
et
X2 ,
1
si la boule tirée dans la
urne est noire.
puis leurs espérances et leurs variances en
a.
2) Démontrer qu'il existe une valeur de
p1
pour laquelle
X1
et
X2
suivent la même loi de
probabilité.
p1 étudier l'indépendance de X1 et X2 . Pour 1 ≤ k ≤ n, on qk = P[Xk = 0]. existe une matrice M dépendant de a telle que pour k ∈ [|1, n − 1|] pk+1 pk =M qk+1 qk
3) Pour cette valeur de
pk = P[Xk = 1]
4) Démontrer qu'il
5) Déterminer 6) Déterminer
M n pour n ∈ N, puis lim pn et lim qn .
n→∞
Exercice 3.4.33
Soit
déterminer la loi de
(X, Y )
un couple de variables aléatoires à valeurs dans
P({X = j} ∩ {Y = k}) = λ.
X
et de
Exercice 3.4.34
et
Y
Soit
X
N×N
tel que :
(j + k)λj+k ej!k!
f : x 7→ 2xe2x−1 − 1) Y . Les variables X et Y
(On pourra étudier
b) Déterminer les lois de
sur
R+ .
sont elles indépendantes ?
deux variables indépendantes vériant :
1 P[X = n] = P[Y = n] = 4 n ∈ N. Déterminer a. Calculer E[X]
Xn .
n→∞
∀(j, k) ∈ N2 ,
a) Déterminer
pose
et
1 + an n!
pour tout 1) 2)
et
3) Déterminer la
V(X) loi de S = X + Y .
Exercice 3.4.35
On admet que si
r ∈ N? , ∞ X 1 k+r−1 k = x (1 − x)r r − 1 k=0 0≤x a. La fonction un est alors croissante sur [0, a] et atteint donc son maximum en a : sup |un (x)| = an (1 − a) pour a assez grand converge. Pour cela, cherchons un équivalent de étudiant les variations de la fonction
x∈[0,a]
et la série de terme général ) et la série
P
n un
(an (1 − a))n
est convergente puisque
a 0, x 7→ ce est intégrable sur ]0, +∞[ et l'intégrale vaut α. On a donc c = α.
2. Si
3.
c = 1/π
4. Si 5.
α ≤ 0,
impossible. Si
α > 0, c = α/a
c=2
Exercice 4.4.2 (#) Soit X une variable aléatoire suivant une loi dont la densité de probabilité est donnée par
fX : R −→ R+ −x2 /2 x 7−→ xe 1R?+ (x).
Après avoir démontré leurs existences, déterminer l'espérance et la variance de la variable aléatoire X 2 . Solution. On pose Y = X 2 . On a alors E[Y ] = E[X 2 ] et V[Y ] = E[Y 2 ]−E[Y ]2 = E[X 4 ]−E[X 2 ]2 . L'existence de l'espérance et de la variance découle de la comparaison avec les intégrales de Riemann.
Calcul de l'espérance. Par dénition, Z E[Y ] =
+∞
x2 xe−x
2 /2
dx.
0 On introduit alors les fonctions suivantes
u : R+ → R+ 2 x 7−→ −e−x /2 , v : R+ → R+ x 7−→ x2 ,
84
CHAPITRE 4.
On a alors
VARIABLES ALÉATOIRES À DENSITÉ
+∞
Z
u0 (x)v(x)dx.
E[Y ] = 0 Puisque
u
et
E[Y ] =
v
sont de classe
2 [−x2 e−x /2 ]+∞ 0
C1
sur
R+ ,
+∞
Z +2
la formule d'intégration par parties donne
−x2 /2
xe
Z
+∞
xe−x
dx = 2
0
2 /2
dx = 2[−e−x
0
2 /2
]+∞ = 2. 0
Calcul de la variance. Nous avons ensuite +∞
Z
2
x4 xe−x
E[Y ] =
2 /2
dx.
0 On introduit alors les fonctions suivantes
u : R+ → R+ 2 x 7−→ −e−x /2 , v : R+ → R+ x 7−→ x4 , On a alors
+∞
Z
2
u0 (x)v(x)dx.
E[Y ] = 0 Puisque
u
et
v
sont de classe
2
E[Y ] =
C
1
sur
R+ ,
2 [−x4 e−x /2 ]+∞ 0
la formule d'intégration par parties donne
Z
+∞
+4
3 −x2 /2
xe
Z
+∞
x2 xe−x
dx = 4
0
2 /2
dx.
0
On eectue alors une nouvelle intégration par parties (ou alors on remarque que l'on a déjà fait le calcul plus haut) pour obtenir
2
Z
E[Y ] = 8
+∞
xe−x
2 /2
dx = 8[−e−x
2 /2
0
]+∞ = 8. 0
On en déduit que
V[Y ] = E[Y 2 ] − E[Y ]2 = 4.
Exercice 4.4.3 Pour quelles valeurs de α ≥ 0, l'espérance E(X α ) est-elle nie, si la densité de la loi de X est
fX : R −→ R+ x 7−→ C(1 + x2 )−m
où C ∈ R et m ∈ R. Réponse : α < 2m − 1.
Exercice 4.4.4 Soient a < b deux réels. Calculer E e−X si X suit une loi uniforme sur
l'intervalle [a, b], c'est-à-dire si la densité de X est fX = Réponse. E e−X =
e−b −e−a . b−a
1 1 b−a [a,b]
.
4.4.
EXERCICES
85
Exercice 4.4.5 (#)
1. Soit F la fonction de répartition d'une variable aléatoire X . On suppose que F est bijective. Soit U une variable aléatoire uniforme sur [0, 1]. Montrer que F −1 (U ) a même loi que X . 2. On suppose que X est une v.a. à valeurs dans R et ayant pour densité : f : y 7−→
1 π(1 + y 2 )
(on dit que X est une v.a. de Cauchy de paramètre 1). 3. Calculer la fonction de répartition de X . 4. Montrer que si U est une v.a. uniforme sur [0, 1], alors 1 Y = tan π U − 2
a même loi que X . Solution. 1. Déterminons la fonction de répartition de
F −1 (U )
:
P(F −1 (U ) ≤ x) = P(U ≤ F (x)) = F (x). 2.
Z
x
F (x) = −∞ 3.
F est strictement croissante F −1 . Soit y ∈ [0, 1],
1 π dy = Arctan(x) + . π(1 + y 2 ) π 2
et continue :
F
est donc inversible. Calculons son inverse
1 π 1 π y= Arctan(x) − ⇐⇒ π y − = Arctan(x) ⇐⇒ x = tan π y − π 2 2 2 −1 et donc F (y) = tan π y − π2 . On conclut que F −1 (U ) a même loi que X par question 1.
la
Exercice 4.4.6 (#) Soit X une variable aléatoire positive ayant une densité continue f et
telle que E[X r ] est nie pour r ≥ 1. 1. Montrer que
lim xr P(X > x) = 0.
x→+∞
Indication : trouver une expression de P(X > x) en fonction de f . 2. En déduire que Z ∞ E[X r ] =
rxr−1 P(X > x)dx.
0
Indication : Que vaut la dérivée de x 7−→ P(X > x) ? Solution.
86
CHAPITRE 4.
1. On a
P(X > x) =
R +∞ x
f (t)dt
VARIABLES ALÉATOIRES À DENSITÉ
et donc
r
x P(X > x) = x
r
+∞
Z
f (t)dt ≤
x et ce dernier terme tend vers 0 quand
x → +∞
Z
+∞
tr f (t)dt
x
puisque
E[X r ] =
R +∞ 0
tr f (t)dt
est nie.
2. On fait une intégration par parties. Puisque
f
x > 0, (P(X > x))0 = −f (x). On a alors Z A h iA Z A r−1 r rt P(X > x)dt = t P(X > t) + tr f (t)dt
est continue, on a pour
0
x
Le premier terme tend vers 0 d'après a) et le second vers
pour
A > 0,
0
E[X r ]
qui est nie.
Exercice 4.4.7 (#) Soit X une variable aléatoire telle que X et 2X ont même fonction de
répartition. Donner une équation vériée par la fonction de répartition de X et en déduire sa loi. Solution. On note F
x ∈ R. On a x x F (x) = P(X ≤ x) = P(2X ≤ x) = P X ≤ =F . 2 2 x et en faisant tendre n En réitérant, on a alors que pour tous x ∈ R et n ∈ N, F (x) = F n 2 + − vers +∞, on a donc F (x) = F (0 ) si x > 0 et F (x) = F (0 ) si x < 0. Or, F est continue à + droite donc F (0 ) = F (0). La fonction F est donc constante sur ] − ∞, 0[ et sur [0, +∞[. Mais, par propriété des fonctions de répartition, F (−∞) = 0 et F (+∞) = 1. On en déduit que F (x) = 0 si x < 0 et F (x) = 1 si x ≥ 0, ce qui signie que P(X = 0) = 1 et donc X est nulle. la fonction de répartition de
X.
Soit
Exercice 4.4.8 Soit X une variable aléatoire de loi exponentielle de paramètre λ. On désigne
par [.] la fonction partie entière. 1) On pose Y = [X]. Donner la loi de Y , son espérance et sa variance. 2) Soit Z l'entier le plus proche de Y , donner la loi de Z .
Exercice 4.4.9 Soit X une variable aléatoire de loi normale centrée réduite. On note Y = Déterminer la fonction de répartition de Y et sa densité.
X2 2
.
Exercice 4.4.10 Soient X et Y deux variables aléatoires réelles indépendantes de densités respectives f et g et de fonctions de répartition respectives F et G. Donner les densités de U = max(X, Y ) et V = min(X, Y ).
Exercice 4.4.11 Soit X une variable aléatoire à densité. Soit g une fonction C 1 croissante.
Montrer que
Z E[g(X)] = g(0) +
∞
g 0 (t)P[X > t]dt
0
Exercice 4.4.12 Soit (X1 , ..., Xn ), n variables indépendantes identiquement distribuées. Dé-
terminer la fonction de répartition de min(X1 , ..., Xn ). En supposant que la loi de X1 est une densité, exprimer la densité de min(X1 , ..., Xn ).
4.4.
EXERCICES
87
Exercice 4.4.13 (Exercice fondamental) Soient X et Y deux variables aléatoires (à densité ou discrètes) avec un moment d'ordre 2. En pensant à l'inégalité de Cauchy-Schwarz, démontrer que p p E[Y 2 ] E[X 2 ].
E[XY ] ≤
Exercice 4.4.14
La durée en heures de fonctionnement d'un ordinateur est une variable aléa-
toire continue de densité : x
f : x 7→ λe− 36 1) Calculer
si
x ≥ 0; 0
sinon.
λ.
2) Quelle est la probabilité que l'ordinateur fonctionne entre 10 et 36 heures ? 3) Quelle est la probabilité qu'il fonctionne moins de 36 heures ?
Exercice 4.4.15 La RATP estime que le retard en minutes du bus 156 est une variable aléatoire X de densité de probabilité f avec
f (x) = ax(10 − x) si x ∈ [0, 10] et 0 sinon.
1) Trouver a tel que f soit bien une densité de probabilité. 2) Calculer le retard moyen d'un bus et sa variance 3) Déterminer la fonction de répartition de X et calculer la probabilité qu'un bus ait un retard supérieur à 8 minutes. 4) Soit Y = X 2 , déterminer la fonction de répartition de Y puis sa densité de probabilité.
Exercice 4.4.16 (#) Soit f la fonction dénie sur R par : 2 f (t) = (1 + t)3 f (t) = 0
si t ≥ 0 si t < 0
1. Montrer que f est une densité d'une variable aléatoire Z 2. Déterminer la fonction de répartition FZ de Z . 3. Justier la convergence de l'intégrale : Z 0
+∞
2t dt (1 + t)3
La calculer en eectuant le changement de variable u = t + 1. 4. Prouver que Z admet une espérance et la déterminer. 5. Z admet-elle une variance ? Solution. 1. On vérie les caractéristiques d'une densité :
f
est positive sur
continue sur
∗
R
R
88
CHAPITRE 4.
VARIABLES ALÉATOIRES À DENSITÉ
Z
0
0
si
x ≥ 0 : FZ (x) = Z
+∞
3. l'intégrale
0 En
+∞
en
±∞.
−∞
f est bien une densité de variable Rx On a FZ (x) = f (t) dt donc −∞ si x < 0 : FZ (x) = 0 Z Z Donc
2.
+∞
f est impropre f est prolongeable à gauche et à droite en 0 donc −∞ R0 R0 f = −∞ 0 = 0 (converge) −∞ K Z X Z K 2 1 1 f= =1− →1 3 dt = − 2 (1 + t) (1 + t) 0 (1 + K)2 0 0 Z +∞ Z +∞ f converge et vaut 1 et f converge et vaut 1. donc
x
0+ −∞
0
2t dt (1 + t)3
f =1−
Z
+∞
Or l'intégrale de Riemann
1Z d'intégrale à termes positifs, On eectue le changement de
0
1 (1 + x)2
n'est impropre qu'en
on a un équivalent simple :
dt : t = 0 ↔ r = 1 Z K
aléatoire.
+∞
2t 2t 2 3 = 3 3 ∼ 2 > 0. t (1 + t) t (1 + 1/t)
1 dt t2
est convergente car
2 > 1.
Donc par comparaison
+∞
2t dt converge. (1 + t)3 0 1 variable (u est de classe C sur [1, K + 1]) u = t + 1 : du ↔
Z K+1 Z K+1 2 2 2t 2 (u − 1) du = − du 3 dt = u3 u2 u3 (1 + t) 1 1 K+1 −2 −2 1 1 = +1 = + 2 + u u 1 K + 1 (K + 1)2 −→ 1 K→∞
Z donc
0
+∞
2t dt = 1 (1 + t)3
4. Espérance ? On étudie la convergence
Z
R +∞ −∞
tf (t) dt
impropre en
0
±∞.
tf (t) dt = 0 Z +∞ 2t tf (t) dt = 3 dt = 1 (d'après la question précédente) (1 + t) 0 0 R +∞ donc tf (t) dt converge et Z admet une espérance E (Z) = 1 −∞
Z−∞ +∞
5. Comme
2t2 2 3 ∼ t (1 + t)
dont l'intégrale diverge en
+∞,
alors
Z2
n'a pas d'espérance et
Z
n'a pas de variance.
Exercice 4.4.17 (#) On considère trois variables aléatoires X , Y et Z indépendantes et suivant la loi exponentielle de paramètre λ.
4.4.
EXERCICES
89
1. Déterminer la loi de Y + Z (on pourra calculer sa densité). 2. (a) Déterminer la densité de la variable aléatoire D = Y + Z − X sur R+ . (b) Calculer P(X ≤ Y + Z). 3. Déterminer l'événement complémentaire de l'événement {X ≤ Y + Z} ∩ {Y ≤ Z + X} ∩ {Z ≤ X + Y }
et calculer sa probabilité. 4. Quelle est la probabilité pour qu'on puisse construire un triangle (éventuellement aplati) dont les côtés aient pour longueurs X , Y et Z ? solution 1.
Y +Z
est encore une variable aléatoire à valeurs dans
dantes, une densité
fY +Z
x>0 Z
de
−∞
2.
fY +Z (x) = 0
pour
(a) La variable aléatoire
x > 0,
pour
fY (t)fZ (x − t)dt =
0
Y +Z
−X . On R dans R.
On a donc besoin de calculer la densité de une fonction continue bornée de
+∞ −λy
E[Φ(−X)] =
Φ(−y)λe
u=−y
x > 0, Z
−X
est donc
(4.2)
utilise la méthode vue en TD.
Z
0
Φ(u)λeλu du.
dy =
0 La densité de
et, à nouveau par convolution,
fY +Z (t)f−X (x − t)dt.
−∞
Z
−∞
u 7−→ λeλu 1]−∞,0] (u)
et en revenant à (4.2), on a pour
+∞
fD (x) =
2
λ te
−λt
sont indépen-
+∞
fD (x) =
Φ
Z
et
λe−λt λe−λ(x−t) = λ2 xe−λx .
est indépendante de
Z
Soit
Y
x
Z
x ≤ 0.
−X
et comme
peut être dénie par convolution, ce qui donne pour
+∞
fY +Z (x) = De plus,
Y +Z
R+
λ(x−t)
1[0,+∞[ (t)λe
−∞
3 λx
1]−∞,0] (x − t)dx = λ e
Z
+∞
te−2λt dt.
x
Le calcul de cette intégrale se fait à l'aide d'une intégration par parties, ce qui donne pour
x>0 λ (2λx + 1)e−λx . 4
fD (x) = (b) On a
P(X ≤ Y + Z) = P(D ≥ 0) =
Z 0
+∞
λ fD (x)dx = 4
En intégrant à nouveau par parties, on obtient :
Z
+∞
(2λx + 1)e−λx dx.
0
P(D ≥ 0) = 3/4.
90
CHAPITRE 4.
VARIABLES ALÉATOIRES À DENSITÉ
C = {X ≤ Y + Z} ∩ {Y ≤ Z + X} ∩ {Z ≤ X + Y }. L'événement complémentaire est C = {X > Y + Z} ∪ {Y > Z + X} ∪ {Z > X + Y }. Les trois événements constituant la réunion précédente sont deux à deux disjoints (si on avait par exemple {X > Y + Z} et {Y > Z + X}, on aurait {X > 2Z + X}, ce qui est clairement impossible puisque Z + est à valeurs dans R ). De plus, d'après la question b), chacun de ces événements a pour probabilité 1/4. c On en déduit que P(C ) = 3/4.
3. Posons
c
4. On peut construire un triangle de côtés donnés si et seulement si chacun de ces nombres est inférieur ou égal à la somme des deux autres, ce qui correspond à la réalisation de l'événement
C
de probabilité 1/4 .
Exercice 4.4.18 Dans cet exercice, n désigne un entier naturel non nul. nxn−1 si x ∈ [0; 1] 0 sinon
1. Soit fn la fonction dénie par : fn (x) =
Montrer que fn est une densité de probabilité. 2. On considère une variable aléatoire Xn réelle dont une densité de probabilité est fn . On dit alors que Xn suit une loi monôme d'ordre n. (a) Reconnaître la loi de X1 . (b) Dans le cas où n est supérieur ou égal à 2, déterminer la fonction de répartition Fn de Xn , ainsi que son espérance E (Xn ) et sa variance V (Xn ). 3. On considère deux variables aléatoires Un et Vn dénies sur le même espace probabilisé (Ω, A, P ), suivant la loi monôme d'ordre n (n > 2) et indépendantes, c'est-à-dire qu'elles vérient en particulier l'égalité suivante : ∀x ∈ R,
P (Un 6 x ∩ Vn 6 x) = P (Un 6 x) P (Vn 6 x)
On pose Mn = sup (Un , Vn ) et on admet que Mn est une variable aléatoire dénie, elle aussi, sur (Ω, A, P ).
(a) Pour tout réel x, écrire, en justiant la réponse, l'événement (Mn 6 x) à l'aide des événements (Un 6 x) et (Vn 6 x). (b) En déduire une densité de Mn . Vérier que Mn suit une loi monôme dont on donnera l'ordre, puis déterminer sans calcul E (Mn ). (c) On pose Tn = inf (Un , Vn ). Exprimer Mn + Tn en fonction de Un et Vn , puis en déduire, sans calcul d'intégrale, la valeur de E (Tn ).
Dans cet exercice,
n
désigne un entier naturel non nul.
1. Soit
fn
la fonction dénie par :
nxn−1 si x ∈ [0; 1] 0 sinon R− {0, 1} (en fait, en 0 elle
fn (x) =
fn est positive sur R et continue sur R +∞ f n est impropre en ±∞ car fn est continue par morceaux R−∞ R0 0 f = −∞ 0 converge et est nulle. −∞ n R +∞ R +∞ fn = 1 0 = 0 1 R1 R 1 n−1 f = nx dx = [xn ]1x=0 = 1 car 0n = 0 pour n ∈ N∗ n 0 0 R +∞ Donc f converge et vaut 1. −∞ n Donc fn est bien une densité de probabilité.
est continue)
sur
R
4.4.
EXERCICES
91
2. On considère une variable aléatoire dit alors que
Xn
Xn
réelle dont une densité de probabilité est
suit une loi monôme d'ordre
(a) Pour sur
n = 1 la densité est : f1 (x) =
1 0
fn .
On
n. si
x ∈ [0; 1] sinon
donc
X1
suit une loi uniforme
[0, 1]
(b) La fonction de réparition de
Xn
est donnée par :
Rx
Fn (x) = −∞ f où il faut distinguer suivant que x < 0 : 0 ≤ x ≤ 1 et x > 1 : Rx si x < 1 alors Fn (x) = 0=0 −∞ R Rx 0 si 0 ≤ x ≤ 1 alors Fn (x) = 0 + 0 ntn−1 dt = 0 + [tn ]x0 = xn −∞ Rx R 1 n−1 R0 0 = 0 + [tn ]10 + 0 = 1 nt dt + 0 + si 1 < x alors Fn (x) = 1 0 −∞ R +∞ Pour calculer E (Xn ) on étudie la convergence et on calcule tfn (t) dt qui −∞ impropre en ±∞ R0 R0 t fn (t) dt = −∞ 0 = .0 −∞ R +∞ R +∞ 0=0 t f (t) dt = n 1 Z1 1 Z 11 Z 1 n n+1 n n−1 n t fn (t) dt = t nt dt = nt dt = t = n+1 n+1 0 0 0 t=0 n Donc Xn a une espérance et E (Xn ) = n+1 1 Z 1 Z 1 n n+2 n n+1 2 2 nt dt = t fn (t) dt = = De même pour E Xn = t n+2 n+2 0 0 0 Donc X a une variance et 2 n n 2 2 V (Xn ) = E Xn − E Xn = − n+2 n+1 2 n + 2n + 1 − n (n + 2) = n (n + 2) (n + 1)2 n = (n + 2) (n + 1)2
est
Un et Vn dénies sur le même espace probabilisé (Ω, A, P ), suivant la loi monôme d'ordre n (n > 2) et indépendantes, c'est-à-dire qu'elles
3. On considère deux variables aléatoires
vérient en particulier l'égalité suivante :
∀x ∈ R,
Mn = sup (Un , Vn ) sur (Ω, A, P ).
On pose aussi, (a)
P (Un 6 x ∩ Vn 6 x) = P (Un 6 x) P (Vn 6 x)
(Mn 6 x)
et on admet que
Mn
est une variable aléatoire dénie, elle
x c'est à dire tous sont x et (Mn 6 x) = (Un 6 x) ∩ (Vn 6 x) Comme Un et Vn sont indépendantes, on a alors : p (Mn 6 x) = p (Un 6 x)·p (Vn 6 x) En notant F la fonction de répartition d'une loi monôme et G celle de Mn on a est l'événement le plus grand es tplus petit que
plus petit que
(b)
alors :
G (x) = F (x) · F (x) = F (x)2 pour tout x réel. Comme F est la fonctio de répartition d'une variable
à densité, on sait
92
CHAPITRE 4.
que
F
VARIABLES ALÉATOIRES À DENSITÉ
est continue sur
1
C sur F 0 = fn
de classe et que
R R− {0, 1}
(là où
fn
est continue)
Donc que
G
G
est continue sur
de classe
R comme R− {0, 1}
composée de fonctions continues.
0
est une variable à densité et suit une
E (Mn ) =
2xn nxn−1 = 2nx2n−1 si x ∈ [0; 1] 0 sinon loi monôme d'ordre 2n
G = 2F (x) F (x) = 2F (x) fn (x) =
Mn
et donc
sur
0
et que Donc
C
1
2n 2n + 1
Tn = inf (Un , Vn ). On a Mn + Tn = Un + Vn (car l'un est le plus petit et l'auter le plus grand) n 2n De plus E (Un ) = E (Vn ) = alors E (Un + Vn ) = E (Un ) + E (Vn ) = n+1 n+1 Et comme Tn = Mn + Tn − Mn = Un + Vn − Mn on a nalement
(c) On pose
E (Tn ) = E (Un + Vn ) − E (Mn ) 2n 2n − = n + 1 2n + 1 2n2 = (n + 1) (2n + 1)
Exercice 4.4.19 (Inégalité de Paley-Zigmund) Soit X une variable positive, non nulle, ayant un moment d'ordre 2. Montrer
P (X ≥ αE[X]) ≥ (1 − α)2
(E[X])2 E[X 2 ]
pour tout α ∈]0, 1[.
Exercice 4.4.20 (#) Soit X une variable aleatoire normale de moyenne µ = 2 de variance σ 2 = 4.
1. Soit la variable T = (X − µ)/σ . Quelle loi de probabilité suit T ? 2. On considère l'événement {X < 1, 5}. Quel est l'événement équivalent pour T ? Quelle est la probabilité correspondante ? 3. Même question pour l'évenement {X > −2}. 4. Soit l'évenement {−1 ≤ T < 1}. Quel est l'événement équivalent pour X ? Quelle est sa probabilité ? 5. Déterminer les valeurs x telles que P(X < x) = 0, 76 ; P(X ≥ x) = 0, 6 et P(0 ≤ X < x) = 0, 40. Solution. 2.
P(X < 1, 5) = P(T < −0, 25) = 1 − P(T ≤ 0, 25) = 0, 401
3.
P(X > −2) = P(T > −2)P(T ≤ 2) = 0, 977
4.4.
4.
EXERCICES
93
P(−1 ≤ T < 1) = P(T < 1)−P(T < −1) = P(T < 1)−P(T > 1) = P(T < 1)−(1−P(T ≤ 1)) et donc P(−1 ≤ T < 1) = 2P(T < 1) − 1 = 0, 682 .
5.
x−2 ). Donc x−2 2 2
P(X < x) = P(T < P(X ≥ x) = P T ≥
x−2 2
= 0, 71
=P T ≤
2−x 2
et
x = 3, 42
et donc
.
x = 1, 5
.
= P T < x−2 − P (T < −1) . On a alors P(0 ≤ X < x) = P −1 ≤ T < x−2 2 2 x−2 x−2 P(0 ≤ X < x) = P T < − 1 + P(T ≤ 1) = P T < − 0, 16 2 2 P(T ≤ 1) = 0, 84). = 0, 56. On a alors-+ x = 2, 3
(car d'après la table de la loi normale,
x
On cherche donc
tel que
P T <
x−2 2
.
Exercice 4.4.21 (#) Le taux de glycémie d'une population est répartie suivant une loi nor-
male. Une enquête auprès de l'ensemble de cette population montre que 84,1% des individus ont un taux inférieur à 1,40 g/l et 2,3% ont un taux supérieur à 1,60 g/l. 1. A l'aide de la table de la loi normale, déterminer la moyenne et la variance du modèle. 2. En admettant qu'un taux de glycémie supérieur à 1,30 g/l nécessite un traitement, quel pourcentage de cette population devra t'on traiter ? Solution. 1. Notons respectivement note
X.
m
et
σ2
la moyenne et la variance du taux de glycémie que l'on
On a
0, 841 = P(X < 1, 4) = P
X −m 1, 4 − m < σ σ
.
N (m, σ 2 ), N =
X−m est une v.a. normale σ 1,4−m utilisant la table de la loi normale, on a donc = 1. De même, σ Comme
X
est une v.a. normale
N (0, 1).
En
1, 6 − m 0, 977 = P(X < 1, 6) = P N < σ et
1,6−m σ
= 2.
Pour trouver
m
et
σ,
il sut donc de résoudre le système
σ + m = 1, 4 2σ + m = 1, 6 qui a pour solution 2. Il sut de calculer
m = 1, 2 σ = 0, 2
.
X
est donc une v.a.
N (1, 2; 0, 04).
P(X > 1, 3) = P(N > 0, 5) = 1 − P(N ≤ 0, 5) = 0, 31
.
Exercice 4.4.22 (#) Soit X une variable aléatoire gaussienne centrée et réduite (on note X ∼ N (0, 1)). Trouver la densité de la variable aléatoire Y = X 2 .
Solution. La densité de X 2
est
e−y/2 f (y) = √ 1[0,+∞[ (y). 2πy
94
CHAPITRE 4.
Exercice 4.4.23
On considère
N
de loi normale
P(ε = −1) = P(ε = 1) = 1/2. 0 1. Montrer que N := εN a même loi que N loi que N ). 0 2. Est-ce que N + N est une v.a. normale ?
VARIABLES ALÉATOIRES À DENSITÉ
N (0, 1)
et
ε,
indépendante de
(on pourra d'abord montrer que
N, −N
telle que
a même
Solution. 1. Calculons la fonction de répartition de
N 0.
Pour
x ∈ R,
P(N 0 ≤ x) = P(εN ≤ x) = P(ε = 1, εN ≤ x) + P(ε = −1, εN ≤ x) = P(ε = 1, N ≤ x) + P(ε = −1, N ≥ −x) = P(ε = 1)P(N ≤ x) + P(ε = −1)P(N ≥ −x) puisque les variables
ε
et
N
sont indépendantes. De plus, en utilisant la dénition de
ε
et la propriété de symétrie de la loi normale centrée réduite,
1 1 P(N 0 ≤ x) = P(N ≤ x) + P(N ≤ x) = P(N ≤ x). 2 2 Les 2 v.a.
N
et
N0
ont donc même fonction de répartition : elles ont donc même loi.
2. En utilisant l'indépendance de
N
et
ε,
on remarque que
1 1 ·1= 2 2 (on rappelle que comme N est une variable à densité, on a P(N 6= 0) = 1−P(N = 0) = 1). 0 0 On a donc montré que P(N + N = 0) = 1/2. Cette probabilité étant non nulle, N + N P(N + N 0 6= 0) = P((ε + 1)N 6= 0) = P(ε + 1 6= 0)P(N 6= 0) =
ne peut pas être une variable à densité et a fortiori pas une v.a. normale.
N et N 0 sont N + N 0 est une
Rappel de cours : Si
pendantes, alors
N (µ1 , σ12 ) N (µ1 + µ2 , σ12 + σ22 ).
deux variables normales v.a. normale
et
N (µ2 , σ22 )
indé-
Cet exercice fournit donc un contre-exemple à cette propriété quand les 2 v.a. sont dépendantes.
Exercice 4.4.24 (dicile) Soient a et b deux réels strictement positifs et s ∈]0, 1[. R 1) Etablir la convergence de l'intégrale J = aJ ).
. Calculer sa valeur (indication calculer
+∞ 1 du eu +a 0
On considère une suite de variables aléatoires (Yk )k≥1 dénies sur (Ω, F, P), indépendantes et suivant la même loi exponentielle de paramètre b. On considère également sur le même espace probabilisé Ω, une variable aléatoire N indépendantes des Yk , suivant une loi géométrique de paramètre s. On va étudier Z := max{Y1 , ..., YN }. ? 2) Soit j ∈ N et t > 0. Calculer la probabilité conditionnelle P[Z ≤ t|N = j] 3) En déduire la fonction de répartition de Z et déterminer une densité. 4) Montrer que Z a une espérance et que l'on a E[Z] =
− ln(s) . b(1 − s)
Seul le résultat de la question 4 est nécessaire pour traiter les questions suivantes :
4.4.
EXERCICES
95
5) Soit g la fonction dénie sur [0, ∞[ par g(0) = 1 et g(t) = Montrer que g est continue et bornée sur [0, +∞[. Etablir que pour tout t > 0 et n ∈ N, on a l'égalité g(t) = g(t)e
−(n+1)t
+
n X
te−t 1−e−t
pour t > 0.
te−(k+1)t .
k=0 +∞ −(k+1)t dt etP la calculer. 6) Justier la convergence R ∞ de l'intégrale 0 te 1 7) Montrer alors que 0 g(t)dt est convergence et égale à ∞ k=1 k2 P∞ 1 2 8) On rappelle que k=1 k2 = π6 . Montrer que la valeur moyenne de la quantité E[Z] sur ]0, 1[, R 1 − ln(s) 2 c'est à dire 0 b(1−s) ds, est égale à π6b .
R
Exercice 4.4.25
On considère une fonction
F
F (x) = a
1) Déterminer les valeurs de
dénie par
x ≤ −1 ,
si
F (x) = bx + c
si
x ∈] − 1, 1[ ,
F (x) = d
si
x≥1.
a, b , c
d
et
pour que
F
soit une fonction de répartition d'une
variable aléatoire à densité. 2) Représenter graphiquement
F.
3) Déterminer la densité de probabilité associée à
Exercice 4.4.26
Soit
f
la fonction de
R
∀x ∈ [2, 4[ f (x) = λ 1) Déterminer
3)
pour que
f
R+
1 ; (1 − x)2
dénie par
f (x) = 0 x ∈ / [2, 4[ .
soit une densité de probabilité.
f . Déterminer sa fonction de répartition F . Calculer l'espérance E(X) et la variance V (X) de la variable aléatoire X . On pourra utiliser
2) Soit
X
λ∈R
dans
F.
une variable aléatoire de densité
les égalités
x = (x − 1) + 1 ,
Exercice 4.4.27
Soit
X
x2 = (x − 1)2 + 2(x − 1) + 1 .
une variable aléatoire réelle de densité
pX .
Déterminer la densité de
Y dans les cas suivants : Y = aX + b où a, b sont des nombres réels et a 6= 0 ; Y = X2 ; Y = exp(X).
la variable aléatoire
Résoudre cet exercice en utilisant les deux méthodes suivantes : le calcul de la fonction de répartition, l'utilisation du théorème de transfert.
Exercice 4.4.28
Soit
X
une variable aléatoire de loi normale centrée réduite.
Démontrer que pour tout variable aléatoire
X
k ∈ N,
X
R∞ 0
x2
xk e− 2 dx
est convergente. En déduire que la
admet des moments de tout ordre.
admet
x2
x ∈ R 7→ px (x) = √12π e− 2 0 comme espérance et 1 comme
Démontrer que l'application Montrer que
l'intégrale
est bien une densité de probabilité. variance.
96
CHAPITRE 4.
VARIABLES ALÉATOIRES À DENSITÉ
Y = σX + m avec σ, m deux réels non-nuls suit une loi que Y admet des moments de tout ordre et a pour espérance
Montrer que la variable aléatoire normale
m
N (m, σ). σ2.
En déduire
et variance
Exercice 4.4.29 FX (x)
On considère une variable aléatoire réelle
si
x 0, P[|X| > a] ≤ 99
E[|X|] a
100
CHAPITRE 5.
THÉORÈMES LIMITES
Démonstration. Soit A = {|X| > a}, on a E[1A ] = P(A). De plus |X| = |X|1|X|≤a + |X|1|X|>a ≥ a1|X|>a d'où
P[|X| > a] ≤
E[|X|] . a
Proposition 5.1.2 (Inégalité de Tchebychev) Soit X une variable possédant un moment
d'ordre 2, alors
∀a > 0, P[|X − E(X)| > a] ≤
Démonstration.
V(X) . a2
C'est immédiat par l'inégalité de Markov appliquée à
Y = |X − E(X)|2 .
Vous
pouvez également suivre le même argument que précédemment (à savoir faire).
Théorème 5.1.3 (Loi faible des grands nombres I) Soit (Xn , n ≥ 1) une suite de va-
riables aléatoires réelles dénies sur un même espace (Ω, F, P) indépendantes, de même Pn es1 pérance et variance. On dénit la moyenne empirique des variables (Xn ) par Zn = n i=1 Xi . Alors, Zn −→ E[X1 ] en probabilité. n→∞
Démonstration. L'inégalité de Tchebyche nous donne V Snn Sn Sn Sn P | −E |> t = P | − E[X]|> t ≤ . n n n t2 D'autre part
V
Sn n 2 t
1 V(Sn ). n2 t2
=
Par indépendance, cette dernière quantité est égale à
n 1 X V(X) V(Xi ) = . 2 2 n t i=1 nt2 On conclut que
Sn converge en probabilité vers la constante n
E[X].
Dénition 5.1.2 Sous réserve d'existence des quantités manipulées, on dit que la suite (Xn , n ≥ 1)
converge en moyenne vers X si lim E (|Xn − X|) = 0 n→∞ converge en moyenne quadratique vers X si lim E (|Xn − X|2 ) = 0 n→∞
Proposition 5.1.4 Si (Xn , n ≥ 1) converge en moyenne vers X , alors E[Xn ] −→ E[X] n→∞
Démonstration. Par la seconde inégalité triangulaire ||E[Xn ]| − |E[X]|≤ E[|Xn − X|] La quantité à droite tend vers
0
par dénition.
On énonce alors le théorème suivant :
5.1.
NOTIONS DE CONVERGENCE DE SUITES ALÉATOIRES
101
Théorème 5.1.5 (Convergence en moyenne quadratique) Soit (Xn , n ≥ 1) une suite de
variables aléatoires réelles indépendantes de même loi etPde carré intégrable (i.e possédant un moment d'ordre 2). La suite des moyennes empiriques n1 ni=1 Xi converge en moyenne quadratique vers E[X1 ]. Démonstration. On a : n
1X E || Xi − E[X1 ]|2 n i=1
!
n
=V
1X Xi n i=1
! .
Or par indépendance, et car les variables on même loi, on a :
n
V
1X Xi n i=1
On obtient la convergence souhaitée.
! =
n 1 X 1 V(Xi ) = V(X1 ). 2 n i=1 n
Proposition 5.1.6 La convergence en moyenne quadratique implique la convergence en moyenne, qui implique la convergence en probabilité. Démonstration...
5.1.2 Convergence en loi Dénition 5.1.3 Soit (Xn , n ≥ 1) une suite de variables aléatoires. On note leur fonction
de répartition Fn . Soit X une variable aléatoire. de fonction de répartition F . On dit que (Xn , n ≥ 1) converge en loi vers X et on note L
Xn −→ X n→∞
Si pour tout x point de continuité de F on a Fn (x) −→ F (x). n−→∞
Comme son nom l'indique, cette convergence est relative aux lois des variables et pas aux variables elles-mêmes contrairement à la convergence en probabilité, on ne peut pas munir
L0
d'une distance pour cette convergence (on peut le faire pour les mesures de probabilités
associées). On admet la proposition suivante :
Proposition 5.1.7 (Convergence en loi et fonctions tests) L
Xn −→ X n→∞
si et seulement si, pour toute fonction continue bornée φ de Rd dans R, on a E[φ(Xn )] −→ E[φ(X)]. n→∞
La proposition nous permet de prendre des fonctions continues bornées à la place d'indicatrice de fermés. Sa démonstration (que nous ne faisons pas) est basée sur une approximation de l'indicatrice par des fonctions régulières. La démonstration n'est pas triviale et n'est pas au programme.
102
CHAPITRE 5.
THÉORÈMES LIMITES
Proposition 5.1.8 On a l'implication suivante Xn −→ X en probabilité =⇒ Xn −→ X en loi. n→∞
n→∞
La réciproque est fausse. Démonstration.
On va utiliser la proposition précédente. Soit
qui converge en probabilité vers
X.
Si
φ
elle est uniformément continue. Pour tout
|φ(x) − φ(y)| ≤ .
(Xn , n ≥ 1)
une suite de v.a
est une fonction continue à support compact, alors
> 0,
il existe
η > 0
On a donc
tel que si
|x − y| ≤ η
on a
|E[φ(Xn ) − φ(X)]| ≤ E[|φ(Xn ) − φ(X)|] = E[|φ(Xn ) − φ(X)|1{|Xn −X|≤η} ] + E[|φ(Xn ) − φ(X)|1{|Xn −X|>η} ] ≤ + 2||φ||∞ P[|Xn − X| > η]. On a donc
lim sup|E[φ(Xn ) − φ(X)]| ≤ . n→∞
Ceci est vrai pour tout
>0
donc
lim |E[φ(Xn ) − φ(X)]| = 0,
n→∞
on conclut par la proposition précédente.
5.1.3 Approximations de certaines lois et théorème central limite Théorème 5.1.9 (Approximation loi hypergéométrique-loi binomiale) Soit (Xk , k ≥
1) une suite de variables aléatoires de loi hypergéométrique de paramètres (k, n, p). La suite (Xk , k ≥ 1) converge en loi vers une variable X binomiale de paramètre (n, p)
Remarque 5.1.1 La loi hypergéométrique résulte d'un tirage sans remise alors que la loi binomiale d'un tirage avec remise. A la limite, que l'on "remette les boules" dans l'urne ou pas, on obtient la loi binomiale.
Démonstration. Tout d'abord, la variable Xk prend ses valeurs dans [| max{0; n−k(1−p)}, min{n, kp}|]. On a de plus
kp j
P[Xk = j] =
k(1−p) n−j k n
(kp)! k(1 − p) n!(k − n)! × × j!(kp − j)! (n − j)!(k(1 − p) − n + j)! n! n (kp)! k(1 − p) (k − n)! = × × . j (kp − j)! (k(1 − p) − n + j)! n!
=
En remarquant que
q! (q−l)!
= Alq ∼ q l , q→∞
on obtient
n (N p)k (N (1 − p))n−k n k P[Xk = j] ∼ = p (1 − p)n−k . n k→∞ k N k
5.1.
NOTIONS DE CONVERGENCE DE SUITES ALÉATOIRES
103
k , n − k(1 − p) ≤ 0 et kp ≥ n, Xk prend donc ses valeurs dans [|0, n|]. obtenue, pour tout j ∈ [|0; n|], P[Xk = j] −→ P[X = j], où X suit une
A partir d'un certain rang D'après l'équivalence
loi binomiale. On en déduit la convergence simple des continuité de
F.
En eet, si
x ∈ [0, n] \ [|0, n|],
Fk (x) = P[Xk ≤ x] = Pour conclure, il reste à remarquer
[x] X j=0
x
alors
Fk
k→∞
vers
F
sur l'ensemble des points de
est un point de continuité de
P[Xk = j] −→
k→∞
[x] X
F
et
P[X = j] = F (x).
j=0
Fk (x) = F (x) = 0 si x < 0 et Fk (x) = F (x) = 1 si x > n.
Théorème 5.1.10 (Approximation de la loi binomiale par la loi de Poisson) Soit (Xk , k ≥
1) une suite de variables aléatoires réelles. Chaque Xk suit une loi binomiale de paramètres k, λk . Le réel λ est xé. Alors la suite (Xk , k ≥ 1) converge en loi vers X une variable aléatoire de Poisson de paramètre λ.
démonstration. Dans la preuve du théorème précédent, on a vu qu'il était en fait susant pour les variables discrètes de montrer les convergences des probabilités On a pour tout
P[Xk = j]
vers
P[X = j].
k ≥ j,
k j P[Xk = j] = p (1 − p)k−j j k−j j λ k λ 1− = k k j −j k λ 1− k λj k! λ λj −λ = e . 1 − −→ k→∞ j! j! (k − j)! kj k
La dernière ligne vient du fait que
λ 1− k
k
−→ e−λ
k→∞
(à savoir démontrer) et de
1 − λk k! (k − j)! kj
−j −→ 1.
k→∞
Théorème 5.1.11 (Théorème central limite) Soit (Xn , n ≥ 1) une suite de variables aléa-
toires réelles indépendantes et de même loi, admettant une espérance (notée m) et une variance (notée σ 2 ). Soit Sn =
n X
Xi .
i=1
On a E[Sn ] = nm et V (Sn ) = nσ 2 . La suite des variables aléatoires centrées réduites :
Sn − nm √ ;n ≥ 1 nσ
converge en loi vers une loi gaussienne N (0, 1). Autrement dit : Sn − nm P a≤ √ ≤b nσ
1 −→ √ n→∞ 2π
Z a
b
2 /2
e−t
dt
104
Démonstration.
CHAPITRE 5.
THÉORÈMES LIMITES
La preuve la plus ecace repose sur les fonctions caractéristiques, outils que
élémentaires.
nous ne développons pas dans ce cours. Il existe des preuves
Nous verrons en
problème, un cas particulier. Pour le cas général, voir par exemple l'article de Jérôme Depauw
1
Le théorème central limite met en avant le caractère universel de la loi gaussienne, il justie la modélisation d'une erreur aléatoire par une loi normale. Souvent, une erreur aléatoire est modélisée par l'addition d'un grands nombres d'événements indépendants.
Proposition 5.1.12 (intervalle de conance) Supposons que V(X1 ) = 1, on déduit du théorème précédent le résultat suivant : la probabilité que E[X1 ] se trouve dans l'intervalle aléatoire "
n
n
1X b 1X a Xi − √ , Xi − √ n i=1 n n i=1 n
#
est égale à 1 P(a ≤ Z ≤ b) = √ 2π
Z
b
x2
e− 2 dx.
a
Cette dernière vaut environ 0.95 pour b = −a = 1.96. On dit alors que l'intervalle "
n
n
1X 1.96 1 X 1.96 Xi − √ , Xi + √ n i=1 n n i=1 n
#
est un intervalle de probabilité (on dit aussi intervalle de conance) pour le paramètre de la moyenne θ = E[X1 ] à 95% On termine ce chapitre en mentionnant la loi forte des grands nombres. Ce théorème dépasse le cadre du cours mais est fondamental en théorie des probabilités.
5.1.4 Convergence presque-sûre et loi forte des grands nombres Dénition 5.1.4 On dit que la suite (Xn , n ≥ 1) converge presque-sûrement vers X , si P {ω ∈ Ω; Xn (ω) −→ X(ω)} = 1. n→∞
Cette notion de convergence est très forte. Elle implique la convergence en probabilité (mais n'est pas équivalente). Pour établir la convergence presque-sûre d'une suite de variables aléatoires des informations précises sur la tra jectoire de la suite sont nécessaires (et rarement accessibles). On peut maintenant énoncer la loi forte des grands nombres.
Théorème 5.1.13 (Loi forte des grands nombres) Soit (Xn , n ≥ 1) une suite de variables indépendantes avec un moment d'ordre 1, alors lim n1
Pn
i=1
Xi = E[X1 ] presque sûrement.
1. disponible ici : www.lmpt.univ-tours.fr/∼depauw/TCLRMS_WEB.pdf.
5.2.
EXERCICES.
105
La démonstration de ce théorème requiert au minimum le ment issu des axiomes posés sur la probabilité d'événements
(Ai , i ≥ 1)
P
lemme de Borel-Cantelli,
directe-
dans la dénition. Si on considère une suite
indépendants de même probabilité
p.
La variable aléatoire
n
1X 1A n i=1 i E[X1 ] = p. La loi faible des grands nombres nous dit que cette fréquence converge en probabilité vers p. La loi
correspond à la fréquence d'apparition des événements
Ai
pour
i
entre
1
et
n,
et
forte nous dit que cette convergence est presque-sûre et nous permet de revenir à la dénition heuristique d'une probabilité en tant que limite d'une fréquence d'apparition...
5.2
Exercices.
? Exercice 5.2.1 Soit (Xn , n ≥ 1) une suite de variables aléatoires de loi géométrique sur N de
paramètre nθ avec θ ∈ R?+ . Montrer que la suite la loi exponentielle de paramètre θ.
Xn n n≥1
converge en loi vers une v.a.r suivant
Exercice 5.2.2 Soit (Xn , n ≥ 1) une suite de v.a.r indépendantes identiquement distribuées
de loi uniforme sur [0, 1]. On note mn = min{X1 , ..., Xn } et Mn = max{X1 , ..., Xn }, montrer que (mn , n ≥ 1) converge en probabilité vers 0 et (Mn , n ≥ 1) vers 1.
Exercice 5.2.3 Soit (Xn , n ≥ 1) une suite de v.a.r telle que E[Xn ] n→∞ −→ a et V(Xn ) −→ 0, montrer que Xn −→ a en probabilité. n→
Exercice 5.2.4 Soit f une fonction continue bornée de R dans R. Montrer que lim
n→∞
∞ X k=0
e
k
k f = f (λ). k! n
−nλ (nλ)
Indication : utiliser une suite de variables de Poisson de paramètre λ, et utiliser la loi faible des grands nombres. La loi forte est hors programme.
Exercice 5.2.5 Soit (Xn )n≥1 une suite de v.a. i.i.d. suivant la loi normale N (1, 3). Montrer que la suite de terme général
n
1X Xi eXi n i=1
converge en probabilités et déterminer sa limite.
Exercice 5.2.6 1) Soit f une fonction uniformément continue de Rd dans R et (Xn , n ∈ N)
une suite qui converge en probabilité vers X , alors (f (Xn ), n ≥ 0) converge en probabilité vers f (X). 2) Montrer que si (Xn , n ≥ 0) et (Yn , n ≥ 0) convergent respectivement vers X et Y en probabilité alors (Xn + Yn , n ≥ 1) converge vers X + Y en probabilité.
106
CHAPITRE 5.
THÉORÈMES LIMITES
3) Soit (Xn , n ≥ 1) une suite de v.a.r. indépendantes de même loi telle que E[|X1 |] < ∞. Vérier que P P n i=1
Xn = n
Xi
n
en déduire à l'aide de la question 2), que
−
n−1 Xi n − 1 i=1 , n n−1
converge en probabilité vers 0.
Xn n
Exercice 5.2.7 Soient {Xn }n≥1 une suite de variables aléatoires i.i.d telles que X1 ∼ P(1). P
Pour tout entier naturel non nul n on pose Sn = 1. Déterminer la limite en loi de
n
S√ n −n n
o n≥1
2. Montrer que e−n
n k=1
.
n X nk k=0
Xk .
k!
−→
n→+∞
1 . 2
Exercice 5.2.8 (Une loi faible des grands nombres pour des variables non indépendantes)
Soit (Xn , n ≥ 1) une suite de v.a.r.Pindépendantes de même loi admettant un moment d'ordre 2. On pose Yn = Xn Xn+1 et Sn = nk=1 Yk . 1) Les variables Yn sont-elles indépendantes ? 2) Montrer que pour tout > 0, 1 Sn P | − E[Y1 ]|> ≤ 2 2 V (Sn ) n n
3) En déduire que
Sn n
converge en probabilité vers E[X1 ]2 .
Exercice 5.2.9 (Inégalité de Hölder) Soient
X
et
Y
Soient
p
et
q
deux variables aléatoires possédant respectivement un moment
moment d'ordre
q.
+ 1q = 1. d'ordre p et un
deux réels positifs tels que
1 p
L'inégalité d'Hölder que l'on va démontrer est 1
1
E[|XY |] ≤ (E[|X|p ]) p (E[|Y |q ]) q 1) Soient
x, y
deux réels positifs. En utilisant la concavité de
ln, c'est-à-dire pour tout λ ∈]0, 1[
ln(λx + (1 − λ)y) ≥ λ ln(x) + (1 − λ) ln(y), montrer l'inégalité (appelée inégalité de Young)
xy ≤ 2) En posant
˜= X
X et E[|X|p ]1/p
Y˜ =
xp y q + . p q
Y , montrer l'inégalité d'Hölder. E[|Y |q ]1/q
X a un moment d'ordre s. Soit 0 ≤ r ≤ s. En appliquant l'inégalité d'Hölder p |X|r et 1 avec p = rs , et q = p−1 son conjugué, montrer
3) On suppose que aux variables
E[|X|r ] ≤ E[|X|s ]1/p . En déduire que
X
a un moment d'ordre
r
pour tout
r ≤ s.
5.2.
EXERCICES.
Exercice 5.2.10
107
(Xn , n ≥ 1) une suite 4 toires indépendantes telles que pour tout k ≥ 1, E[Xk ] = 0 et E[Xk ] ≤ K Pn positif indépendant de k . On pose Sn = k=1 Xk , on va montrer que [Loi forte des grands nombres] Soit
Sn −→ 0 n n→∞ et
"
Sn n
E
de variables aléaoù
K
est un réel
p.s.
4 # −→ 0.
n→∞
1) En utilisant le résultat de la dernière question de l'exercice précédent. Justier que
E[Xi3 ]
E[Xi2 ],
ont un sens. Montrer que
"
# X
E[Sn4 ] = E
Xk4 + 6
E[Xi2 ]2 ≤ E[Xi4 ],
Xi2 Xj2 .
i α) −→ 0. n→∞
On dénit maintenant la notion de biais d'un estimateur (au programme en BTS).
Dénition 6.1.2 (Biais d'un estimateur) Soit Tn un estimateur du paramètre θ, 109
110
CHAPITRE 6.
ELÉMENTS DE STATISTIQUES
Si pour tout θ ∈ Θ, E[Tn ] = θ, l'estimateur est dit sans biais. Si pour tout θ ∈ Θ, E[Tn ] −→ θ, l'estimateur est dit asymptotiquement sans biais. n→∞
Remarque 6.1.1 Il faut noter que la propriété d'être non biaisé n'est pas indispensable. Il arrive même que certains estimateurs biaisés donnent de meilleurs résultats !
Proposition 6.1.1 Tout estimateur asymptotiquement sans biais dont la variance tend vers 0 est convergent.
Démonstration. Utiliser l'inégalité de Markov.
Dénition 6.1.3 Supposons que Tn a un moment d'ordre 2. Le risque quadratique de l'estimateur Tn est la quantité
RTn (θ) := E[(Tn − θ)2 ] θ et Tn . La notion de risque quadratique permet Sn est meilleur que Tn si
Il mesure l'écart en moyenne quadratique entre de comparer deux estimateurs : l'estimateur
∀θ ∈ Θ, RSn (θ) ≤ RTn (θ).
Dénition 6.1.4 Soit (X1 , ..., Xn ) un échantillon de taille n de X . La moyenne
empirique
est
n
1X X n := Xi . n i=1
La variance
empirique
est
n
Sn2
La variance
empirique corrigée
1X := (Xi − X n )2 . n i=1
est n
Σ2n :=
1 X (Xi − X n )2 . n − 1 i=1
Proposition 6.1.2 Soit X une variable aléatoire de moyenne m et d'écart-type σ, alors E[X n ] = m, E[Sn2 ] =
V(X n ) =
n−1 2 σ , n
σ2 n
E[Σ2n ] = σ 2 .
Démonstration. Exercice.
Proposition 6.1.3 Soit X une variable aléatoire de moyenne m et de variance σ2 .
6.1.
ESTIMATION
111
1) La moyenne empirique X n est un estimateur sans biais et convergent de m. Si on se donne une réalisation ω , une estimation ponctuelle de la moyenne est donnée par n
1X xi x¯ = n i=1
où xi = Xi (ω) sont les données. 2) La variance empirique σn est un estimateur sans biais de la variance. Si on se donne une réalisation ω , une estimation ponctuelle de la variance est donnée par n
1X (xi − x¯)2 n i=1
où xi = Xi (ω) sont les données. 3) La variance empirique corrigée Σn est un estimateur sans biais de la variance. Si on se donne une réalisation ω , une estimation ponctuelle de la variance est donnée par n
1 X (xi − x¯)2 n − 1 i=1
où xi = Xi (ω) sont les données. 4) A ces trois estimateurs classiques, on peut rajouter celui du moment d'ordre r : n
m ˆ r :=
1X r x. n i=1 i
Démonstration. 1) Laissée au lecteur (appliquée la loi faible des grands nombres). 2) Laissée au lecteur. 3) Les variables
Xi
étant indépendantes de même loi, nous avons
# n 1 X ¯ n )2 = n E[(X1 − X ¯ n )2 ]. (Xk − X E[Σn ] = E n − 1 k=1 n−1 "
Nous avons
¯ n )2 ] = E[X 2 ] − E[(X1 − X 1 = E[X12 ] −
Les variables aléatoires
(Xi )
2 n
n X
2 n
n X
E[X1 Xi ] +
i=1
i=1
E[X1 Xi ] +
1 E n2 1 n2
n X
!2 Xi
i=1
n X n X
E[Xi Xj ].
i=1 j=1
étant indépendantes et identiquement distribuées nous avons :
E[Xi Xj ] = E[X12 ] si i = j E[Xi Xj ] = E[X1 ]2 si i 6= j.
112
CHAPITRE 6.
ELÉMENTS DE STATISTIQUES
On a donc
−
n n X n 1 X 2X 2 E[X1 Xi ] = − E[X12 ] + (n − 1)E[X1 ]2 2 E[Xi Xj ] n i=1 n n i=1 j=1 n
1 X 2 2 ] + (n − 1)E[X ] E[X 1 1 n2 i=1 1 = E[X12 ] + (n − 1)E[X1 ]2 . n
=
On en déduit :
¯ n )2 ] = E[X12 ] − E[(X1 − X Finalement
n−1 1 E[X12 ] + (n − 1)E[X1 ]2 = (E[X12 ] − E[X1 ]2 ). n n
E[Σ2n ] = EX12 ] − E[X1 ]2 = σ 2 .
Une méthode classique pour construire un estimateur est
la méthode des moments
basée sur
une application directe de la loi des grands nombres. La méthode des moments consiste à exprimer
θ
E[X], E[X 2 ], ... puis de remplacer chaque moment par le moment lui correspondant. Cela fournit un estimateur convergent de θ . L'expression peut 2 2 2 intervenir σ que l'on remplace alors par Sn ou Σn .
en termes des moments
empirique aussi faire
E[X], E[X 2 ] etc jusqu'à obtenir à l'aide des moments une expression 2 inversible de θ . On inverse alors cette expression, ce qui donne θ en fonction de E[X], E[X ], ... 2 2 2 ¯ n , E[X ] par m ¯ ) etc. et on remplace E[X] par X ˆ 2 (ou par Σn + X En pratique, on calcule
n
Exemple 6.1.1 Soit X une variable aléatoire prenant les valeurs {0, 1, 2} avec les probabilités P[X = 0] = 1 − p1 − p2 , P[X = 1] = p1 , P[X = 2] = p2 ;
alors
1 2 2 pˆ2 = S + Xn − Xn 2 n est un estimateur sans biais du paramètre p2 . Un estimateur classique est l
'estimateur du maximum de vraisemblance (E.M.V). On sup-
θ ∈ R. Soit (X1 , ..., Xn ) un échantillon. Notons L(x1 , ..., xn ; θ) (X1 , ...Xn ). Lorsque (x1 , ..., xn ) est xé, θ 7→ L(x1 , ..., xn , θ) est appelée vraisem-
pose que la loi a pour paramètre la densité de blance de
θ.
Dénition 6.1.5 On appelle estimateur du maximum de vraisemblance la valeur de θ qui rend
maximale L(x1 , ..., xn , θ).
Puisque le logarithme est une fonction strictement croissante, on peut chercher à maximiser la fonction θ 7→ − ln L(x1 , ..., xn , θ). En pratique, un E.M.V est une solution de l'équation de la vraisemblance : ∂ ln L(X, θ) = 0. ∂θ
6.1.
ESTIMATION
113
Intervalles de conance et lois usuelles en statistiques Nous avons déjà brièvement introduit la notion d'intervalle de conance dans la proposition 5.1.12. Au lieu de donner une valeur (estimation ponctuelle) du paramètre bornes
B1
et
B2
θ
on cherche deux
entre lesquelles on espère que se trouve la vraie valeur du paramètre. Les
bornes sont des fonctions des variables aléatoires
X1 , ..., Xn .
Dénition 6.1.6 Soit B1 = f1 (X1 , ..., Xn ) et B2 = f2 (X1 , ..., Xn ). On appelle intervalle de
probabilité pour le paramètre θ le couple (B1 , B2 ) et P(B1 ≤ θ ≤ B2 ) est la probabilité de recouvrement (appelée plus souvent niveau de conance). Si cette probabilité est égale à α, [B1 , B2 ] est appelé intervalle de probabilité 1 − α. En général on choisit une valeur faible pour α et on construit l'intervalle de sorte que la probabilité de recouvrement soit égale à 1 − α.
On appelle intervalle de conance 1 − α (noté souvent IC1−α (θ) pour θ toute réalisation [b1 , b2 ] d'un intervalle de probabilité de recouvrement égale à 1 − α [B1 , B2 ]. Pour comprendre le principe de construction d'un intervalle de conance nous allons nous concentrer dans un premier temps sur le cas d'un intervalle de conance pour la moyenne dans le cas gaussien.
(X1 , ..., Xn ) un échantillon de loi normale N (µ, σ 2 ). On suppose σ connu le paramètre ¯ n suit une loi normale de paramètres à estimer est µ. Comme l'échantillon est gaussien, X ¯ 2 (µ, σ /n). Pour pouvoir utiliser les tables gaussiennes, on dénit T = Xs/n√−µ qui suit une loi n gaussienne standard. La variable T est appelée statistique pivotale, elle dépend de X1 , ..., Xn et θ = µ mais sa loi est indépendante de µ. Cette statistique est utile car elle va permettre d'encadrer le paramètre µ. Dans un premier temps, on observe que Soit
P[qα/2 < T < q1−α/2 ] = 1 − α, où
qp
on a
désigne le quantile d'ordre
qp = −q1−p
En isolant
µ
p pour la loi normale N (0, 1). Comme cette loi est symétrique,
et on peut donc écrire que
¯n − µ √ X P −q1−α/2 ≤ n ≤ q1−α/2 = 1 − α. σ
pour l'encadrer, on obtient
σ σ ¯ n + q1−α/2 √ ¯ n − q1−α/2 √ ≤ µ ≤ X = 1 − α. P X n n On pose
¯ n − q1−α/2 √σ B1 = X n
¯ n + q1−α/2 √σ B2 = X n l'intervalle [B1 , B2 ] est un intervalle de probabilité 1 − α pour la moyenne µ. Il est important de comprendre que ce sont B1 et B2 qui sont aléatoires et non pas µ. En pratique on utilise les réalisations des variables aléatoires, un intervalle de conance est une réalisation [b1 , b2 ]. et
Remarque 6.1.2 La largeur de l'intervalle de conance est une fonction décroissante de α et
de n.
114
CHAPITRE 6.
ELÉMENTS DE STATISTIQUES
Deux lois utiles : la loi du khi-deux et la loi de Student Dénition 6.1.7 Soit d ≥ 1. Par P dénition, la loi du Khi-deux à d degrés de liberté est la loi de la variable aléatoire Yd = di=1 Ni2 où N1 , ..., Nd sont d variables gaussiennes centrées réduites. Proposition 6.1.4 Soit Yd une variable aléatoire qui suit une loi du khi-deux à d degrés de
liberté, alors 1 sa densité est donnée par fYd (x) = kd xd/2−1 e−x/2 1[0,∞[ (x) avec kd = 2d/2 Γ(d/2) Yd est intégrable √ d] = d √ et E[Y Si d ≥ 30, P[ Yd − 2d − 1 ∈ I] ≈ P[N ∈ I] où N est une Gaussienne standard.
Dénitionq6.1.8 On dit que la variable aléatoire Td suit la loi de Student à d degrés de liberté si Td = N Ydd où N et Yd sont deux variables indépendantes de loi respective la loi normale centrée réduite, et la loi du khi-deux à d degrés de liberté.
Proposition 6.1.5 Soit Td une variable aléatoire suivant la loi de Student. Sa densité est fTd (x) = cd (1 + x2 /d)−
où
d+1 2
,
Γ( d+1 ) cd = √ 2 Πd 2
e−x /2 pTd (x) −→ √ . d→∞ 2π
Dans les applications, si d ≥ 30 alors P[Td ∈ I] ≈ P[N ∈ I].
Intervalle de conance pour une moyenne et une variance. N (µ, σ 2 ). Deux cas sont à envisager pour la détermination d'un intervalle de conance : selon que σ soit ¯ n − q1−α/2 σ et connu ou non. Dans le premier cas, on a montré précédemment que B1 = X n σ ¯ n + u1−α/2 √ forment les bornes d'un intervalle de probabilité 1 − α. Dans le seoond B2 = X n cas, où σ est inconnu. On a que
Soient
X1 , ..., Xn n
variables aléatoires gaussiennes, indépendantes et de même loi
n 1 X (n − 1)Σ2n ¯ n )2 = 2 (Xi − X σ2 σ i=1 suit une loi du khi-deux à
avec
N
de loi
N (0, 1) et K
n−1
degrés de liberté. On dénit
T =
√
¯
n (XΣnn−µ .
On a
√ ¯ n(Xn − µ)/σ N T =q = S2 K (n − 1) σ2 (n−1)
indépendante de loi du khi-deux à
n − 1 degrés de liberté. T
est une
statistique pivotale puisque sa loi est indépendante des paramètres. On en déduit un intervalle
6.2.
EXERCICES
115
pour µ car on a P[tn−1;α/2 < T < tn−1;1−α/2 ] = 1 − α, où α pour la loi de Student à n − 1 degrés de liberté. On a donc quantile d'ordre 2 de probabilité
1−α
P[tn−1:α/2 < en isolant
µ
et en remarquant que
par rapport à
0,
on obtient
tn−1;α/2
est le
¯n − µ √ X n < tn−1,1−α/2 ] = 1 − α, Σn
tn−1;α/2 = −tn−1;1−α/2
car la loi de Student est symétrique
Σn Σn ¯ n − tn−1;1−α/2 √ ¯ n + tn−1;1−α/2 √ P X 0,
en considérant l'événement
Sn n
| . Sn |≤ n
A = {x ∈ [0, 1]; |x −
δ},
montrer que
Sn E |f (x) − f | ≤ m(δ) + 2||f ||∞ E[1|x− Sn |>δ| ]. n n 9 En utilisant la question (4), déduire que
E |f (x) − f
Sn n
||f ||∞ | ≤ m(δ) + . 2nδ 2
10) Montrer que
||f − Bn ||∞ ≤ m(δ) + Soit
> 0.
11) Montrer qu'il existe 12) Déterminer
7.3
||f ||∞ . 2nδ 2
n0
δ
m(δ ) ≤ /2. tout n ≥ n0 , ||f − Bn ||∞ ≤ .
tel que
tel que pour
Conclure.
Marche aléatoire
On se donne un espace probabilisé
(Ω, F, P)
sur lequel est dénie une suite
variables aléatoires indépendantes identiquement distribuées. La loi de
X1
(Xn , n ∈ N? )
est donnée par
1 P(X1 = 1) = P(X1 = −1) = . 2 On dénit
S0 = 0 La suite de variables aléatoires
et
(Sn , n ≥ 1)
2
+1
1
S1
S2
Sn =
Pn
k=1
est appelée
−1 +1
Xk .
marche aléatoire symétrique.
S4
S3
−1 S5
0 1
2
3
4
5
de
7.3.
MARCHE ALÉATOIRE
129
Plusieurs questions naturelles se posent, la marche aléatoire, retourne-t-elle à l'origine ? Si oui, combien de temps met-on en moyenne pour y revenir ?
L'objectif du problème est de répondre à ces deux questions. On dénit
T =
min{n ≥ 1; Sn = 0}
La variable aléatoire
T
+∞
si
{n ≥ 1; Sn = 0} = 6 ∅
sinon.
est le premier temps de retour à
0
de la marche aléatoire.
Le problème contient trois parties. La troisième partie est purement analytique. N'hésitez pas à admettre des questions d'analyse pour avancer.
130
CHAPITRE 7.
SUJETS DES EXAMENS PASSÉS ET PROBLÈMES
Etude du temps de retour à l'origine : En = la
1) On considère les événement
marche aléatoire n'a pas touché
n et Ak = La marche aléatoire visite 0 k . Justier brièvement les égalités
0
entre les temps
pour la dernière fois avant l'instant
n,
1
et
à l'instant
En = (T > n) ∪ (T = +∞) Ak = (Sk = 0) ∩
!
n \
(Si 6= 0)
i=k+1
2) Montrer que
n \
P(Ak ) = P(Sk = 0)P(Sk =0)
! (Si 6= 0) .
i=k+1 On rappelle que la notation
P(Sk =0) (.)
correspond à la probabilité conditionnelle sachant
Sk = 0. 3) Soit
k
Sn0 = Sn+k pour tout n ≥ 0. (Sn , n ≥ 0), montrer que
un entier xé, on dénit
0 sachant S0
=0
a même loi que
En remarquant que
(Sn0 , n ≥ 0)
P(Ak ) = P(Sk = 0)P (En−k ) . 4) Justier que
S P( nk=0 Ak ) = 1
et montrer que
n X
P(Sk = 0)P (En−k ) = 1.
k=0 5) Soit
x ∈ [0, 1[.
On considère les suites
(an , n ≥ 0)
an = P[Sn = 0]xn Justier que les séries de terme général
et
(bn , n ≥ 0)
et
dénies par
bn = P[En ]xn .
(an , n ≥ 0)
et
(bn , n ≥ 0)
sont convergentes. En
utilisant le produit de Cauchy (voir l'encadré à la n du sujet) montrer que
1 = 1−x
+∞ X
!
∞ X
P[Sn = 0]xn
n=0
! P[En ]xn .
n=0
P[S2n+1 = 0] = 0 pour tout n. On dénit une suite de variables aléatoires (Yi , i ≥ 1) de la façon suivante : Yi = 1 si Xi = 1 et 0 sinon. Justier l'identité événements ! 2n X (S2n = 0) = Yi = n .
6) Justier que
indépendantes des
i=1 Quelles sont les lois respectives de
Yi
et
P2n
i=1
Yi ?
En déduire que
2n n 4n
P[S2n = 0] =
.
7.3.
MARCHE ALÉATOIRE
7) En admettant
131
1 ∞ X n=0
montrer que
∞ X
2n n 4n
1 , x2n = √ 1 − x2 r
P[En ]xn =
n=0 8) En remarquant que l'événement pour tout
(T = +∞)
1+x . 1−x
est inclus dans
En
pour tout
n,
montrer que
x ∈ [0, 1[, n
P[T = +∞]x ≤ P[En ]x Montrer que pour tout
n
et en déduire que
n=0
x ∈ [0, 1[ P[T = +∞] ≤
En faisant tendre
x
1,
vers
∞ X
n
P[T = +∞]x ≤
∞ X
P[En ]xn .
n=0
√ 1 − x2 .
montrer par encadrement que
P[T = +∞] = 0. Qu'en déduisez vous pour la marche aléatoire, avec quelle probabilité retourne-t-elle à l'origine ?
Etude de l'espérance du temps de retour à l'origine : 9) Justier que
P[T > n] = P[En ]
et en déduire que pour tout
∞ X
r n
P[T > n]x =
n=0
x ∈ [0, 1[,
1+x . 1−x
Montrer que
X n≥0 On rappelle que si
P
n≥1
an x
n
lim−
x→R 10) Justier que pour tout
P[T > n] = ∞.
est une série entière de rayon de convergence
∞ X
an x n =
n=1
∞ X n=1
an Rn ∈ R+ ∪ {+∞}.
k ∈ N, P[T = k] = P[T > k − 1] − P[T > k].
En utilisant cette relation, établir que pour tout entier naturel
n X k=0
kP[T = k] =
n−1 X k=0
1. On le démontre dans la dernière partie du sujet
n ≥ 2,
P[T > k] − nP[T > n].
R
alors
132
CHAPITRE 7.
11) On suppose que
E[T ] < +∞.
Montrer que
∞ X
nP[T > n] = n
SUJETS DES EXAMENS PASSÉS ET PROBLÈMES
P[T = k]
et
∞ X
n
k=n+1
nP[T > n]
En déduire que
k=n+1
tend vers
0
n
lorsque
E[T ] =
∞ X
P[T = k] ≤
∞ X
kP[T = k].
k=n+1
tend vers l'inni, et que
P[T > k].
k=0 En particulier, si
E[T ] < +∞
alors
P∞
k=0
P[T > k] < ∞.
12) Montrer à l'aide de la question précédente et de la question 9 que
E[T ] = +∞. La moyenne du temps de retour à l'origine est donc innie. Cette propriété remarquable est liée au faite que si la marche aléatoire s'éloigne beaucoup de 0, il lui faut beaucoup de temps pour y revenir.
1 . Développement en série entière de φ : x → √1−x La fonction
n,
à l'ordre
φ:x→
√1 est de classe 1−x
on a au point
x ∈ [0, 1[
φ(x) = φ(n)
sur
n X xk
k!
la dérivée n-ième de
(k)
t ∈ [0, x],
15) On a
2
0
φ,
x
(x − t)n (n+1) φ (t)dt. n!
montrer par récurrence que 2n+1 (2n)! (1 − x)− 2 . n 4 n!
démontrer que
n 2n+2 (x − t)n (n+1) x−t 1 n+1 φ (t) = (n + 1) n+1 × n! 4 1−t (1 − t)3/2
l'inégalité suivante :
pour tout
Z
φ (0) +
φ(n) (x) = 14) Soit
[0, 1[. Par la formule de Taylor avec reste intégral
:
k=0 13) On note
C∞
t ∈ [0, x], 0 ≤
x−t 1−t
(2n+2 n+1 ) 4n+1
≤ x. 0≤
en déduire
Z 0
≤ 1.
En étudiant la fonction
Montrer à partir de ces inégalités que
(x − t)n (n+1) (n + 1)xn φ (t) ≤ , n! (1 − x)3/2
x
(x − t)n (n+1) φ (t)dt −→ 0. n→+∞ n!
16) Etablir l'égalité préalablement admise
∞ 2n X 1 n √ = x2n . n 2 4 1−x n=1 2.
(2n+2 n+1 ) 4n+1
= P[S2n+2 = 0] ≤ 1
t 7→ x −
x−t , montrer que 1−t
7.3.
MARCHE ALÉATOIRE
133
Rappel sur le produit de Cauchy :
si
(an , n ≥ 1)
et
(bn , n ≥ 1)
sont deux suites positives et forment les termes généraux
de séries convergentes, alors la série de terme général
cn =
n X
ak bn−k
k=0 converge et sa somme vaut
∞ X n=0
Figure
cn =
∞ X n=0
! an
∞ X
! bn
.
n=0
7.2 Réalisation d'une marche aléatoire symétrique, n=100 et n=1000
Les marches aléatoires jouent un rôle important en théorie des probabilités. L'échelle de temps dans la simulation à droite est dix fois plus petite que celle de gauche. Cette courbe approche une fonction aléatoire célèbre : le mouvement Brownien. Cette fonction aléatoire est avec probabilité 1, continue, non-dérivable, non monotone par morceaux. Ces fonctions très irrégulières sont typiques en théorie des probabilités (plus précisément en théorie des processus stochastiques.) Il n'est pas facile de construire des fonctions déterministes avec de telles propriétés. Le mouvement Brownien est enseigné en M2. Il est impliqué dans de nombreux modèles probabilistes pour la physique, la biologie ou la nance.
134
CHAPITRE 7.
SUJETS DES EXAMENS PASSÉS ET PROBLÈMES
Chapitre 8 Problèmes d'analyse pour les probabilités
Intégrale de Gauss Soit
f : x ∈ R 7→ e−x 1) Montrer que
f
est intégrable sur
2 /2
.
R.
2) Soit
Z
∞
f (x)dx.
G := 0 Montrer que
Z
∞
f (x)dx = 2G. −∞ 3) Soit
Z
e−(x
H :=
2 +y 2 )
dxdy.
R+ ×R+ Montrer que
H = G2 .
4) Rappeler brièvement la dénition des coordonnées polaires. En passant aux coordonnées polaires, montrer que
Z
2
e−r rdrdθ.
H= R+ ×[0, π2 ] En déduire la valeur de
H
puis de
G.
Intégrales de Wallis et la formule de Stirling La formule de Stirling est l'équivalent suivant :
n n √ 2πn . n→∞ e
n! ∼
An de l'établir, on introduit les intégrales de Wallis : pour
Z In =
π/2
sinn (t)dt.
0
135
n ∈ N,
136
CHAPITRE 8.
1) Montrer que
(In )n∈N
PROBLÈMES D'ANALYSE POUR LES PROBABILITÉS
est décroissante et convergente.
n∈N
2) Montrer que pour tout
n ≥ 2,
tel que
In = 3) Calculer
I2n
et
4) Démontrer que
n−1 In−2 . n−2
I2n+1 . I2n −→ I2n+1 n→∞
1.
5) En déduire que
6) En remarquant que
1.3.5...(2n − 1) 2.4.6...2n
2.4.6...2n = 2n n!, √
2 n −→
n→∞
1 . π
montrer que
n(2n)!
1 −→ √ , π
22n (n!)2 n→∞ 7) Soit
f
une fonction
C 2 ([0, 1], R). Z
Montrer qu'il existe
1
f (x)dx = 0 Indication : introduire
ξ ∈ [0, 1]
1 1 (f (0) + f (1)) − f 00 (ξ). 2 12
φ(x) = 12 x(1−x), en particulier remarquer que
8) En appliquant la formule précédente, montrer que pour
k+1
Z k avec
tel que :
R1 0
f (x)dx = −
1≤k ≤n−1
R1 0
φ00 (x)f (x).
:
1 1 ln(x)dx = (ln(k) + ln(k + 1)) + ξk−2 2 12
k ≤ ξk ≤ k + 1.
9) Montrer que
Z 1
n
n X
n
1 1 X 1 ln(x)dx = ln(k) − ln(n) + . 2 12 k=1 ξk2 k=1
10) En déduire que
11) On pose
n 1 1 X 1 ln(n!) = n + ln(n) − n + 1 − . 2 12 k=1 ξk2 Pn 1 1 γn = 1 − 12 k=1 ξ 2 , justier que γn est une suite convergente
et que
k
1
n! = nn+ 2 e−n eγn . 12) On pose
cn = eγn ,
on cherche la limite
c
de cette suite. Montrer en calculant
c2n que c2n
√ 22n (n!)2 2√ n→∞ n(2n)!
c = lim 13) En utilisant la question 6) montrer que
c=
√ 2π ,
en déduire la formule de Stirling.
137
Pour
Z
de loi
N (0, 1), Φ(t) = FZ (t) = P (Z ≤ t) =
t 0, 0 0, 1 0, 2 0, 3 0, 4 0, 5 0, 6 0, 7 0, 8 0, 9 1, 0 1, 1 1, 2 1, 3 1, 4 1, 5 1, 6 1, 7 1, 8 1, 9 2, 0 2, 1 2, 2 2, 3 2, 4 2, 5 2, 6 2, 7 2, 8 2, 9 3, 0 3, 1 3, 2 3, 3 3, 4 3, 5 3, 6 3, 7 3, 8 3, 9
0, 00 0, 5000 0, 5398 0, 5793 0, 6179 0, 6554 0, 6915 0, 7257 0, 7580 0, 7881 0, 8159 0, 8413 0, 8643 0, 8849 0, 9032 0, 9192 0, 9332 0, 9452 0, 9554 0, 9641 0, 9713 0, 9772 0, 9821 0, 9861 0, 9893 0, 9918 0, 9938 0, 9953 0, 9965 0, 9974 0, 9981 0, 9987 0, 9990 0, 9993 0, 9995 0, 9997 0, 9998 0, 9998 0, 9999 0, 9999 1, 0000
Exemples
:
0, 01 0, 5040 0, 5438 0, 5832 0, 6217 0, 6591 0, 6950 0, 7291 0, 7611 0, 7910 0, 8186 0, 8438 0, 8665 0, 8869 0, 9049 0, 9207 0, 9345 0, 9463 0, 9564 0, 9649 0, 9719 0, 9778 0, 9826 0, 9864 0, 9896 0, 9920 0, 9940 0, 9955 0, 9966 0, 9975 0, 9982 0, 9987 0, 9991 0, 9993 0, 9995 0, 9997 0, 9998 0, 9998 0, 9999 0, 9999 1, 0000
0, 02 0, 5080 0, 5478 0, 5871 0, 6255 0, 6628 0, 6985 0, 7324 0, 7642 0, 7939 0, 8212 0, 8461 0, 8686 0, 8888 0, 9066 0, 9222 0, 9357 0, 9474 0, 9573 0, 9656 0, 9726 0, 9783 0, 9830 0, 9868 0, 9898 0, 9922 0, 9941 0, 9956 0, 9967 0, 9976 0, 9982 0, 9987 0, 9991 0, 9994 0, 9995 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000
0, 03 0, 5120 0, 5517 0, 5910 0, 6293 0, 6664 0, 7019 0, 7357 0, 7673 0, 7967 0, 8238 0, 8485 0, 8708 0, 8907 0, 9082 0, 9236 0, 9370 0, 9484 0, 9582 0, 9664 0, 9732 0, 9788 0, 9834 0, 9871 0, 9901 0, 9925 0, 9943 0, 9957 0, 9968 0, 9977 0, 9983 0, 9988 0, 9991 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000
0, 04 0, 5160 0, 5557 0, 5948 0, 6331 0, 6700 0, 7054 0, 7389 0, 7704 0, 7995 0, 8264 0, 8508 0, 8729 0, 8925 0, 9099 0, 9251 0, 9382 0, 9495 0, 9591 0, 9671 0, 9738 0, 9793 0, 9838 0, 9875 0, 9904 0, 9927 0, 9945 0, 9959 0, 9969 0, 9977 0, 9984 0, 9988 0, 9992 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000
t
x2 dx e− 2 √ 2π −∞
Z
0, 05 0, 5199 0, 5596 0, 5987 0, 6368 0, 6736 0, 7088 0, 7422 0, 7734 0, 8023 0, 8289 0, 8531 0, 8749 0, 8944 0, 9115 0, 9265 0, 9394 0, 9505 0, 9599 0, 9678 0, 9744 0, 9798 0, 9842 0, 9878 0, 9906 0, 9929 0, 9946 0, 9960 0, 9970 0, 9978 0, 9984 0, 9989 0, 9992 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000
0, 06 0, 5239 0, 5636 0, 6026 0, 6406 0, 6772 0, 7123 0, 7454 0, 7764 0, 8051 0, 8315 0, 8554 0, 8770 0, 8962 0, 9131 0, 9279 0, 9406 0, 9515 0, 9608 0, 9686 0, 9750 0, 9803 0, 9846 0, 9881 0, 9909 0, 9931 0, 9948 0, 9961 0, 9971 0, 9979 0, 9985 0, 9989 0, 9992 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000
0, 07 0, 5279 0, 5675 0, 6064 0, 6443 0, 6808 0, 7157 0, 7486 0, 7794 0, 8078 0, 8340 0, 8577 0, 8790 0, 8980 0, 9147 0, 9292 0, 9418 0, 9525 0, 9616 0, 9693 0, 9756 0, 9808 0, 9850 0, 9884 0, 9911 0, 9932 0, 9949 0, 9962 0, 9972 0, 9979 0, 9985 0, 9989 0, 9992 0, 9995 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000
0, 08 0, 5319 0, 5714 0, 6103 0, 6480 0, 6844 0, 7190 0, 7517 0, 7823 0, 8106 0, 8365 0, 8599 0, 8810 0, 8997 0, 9162 0, 9306 0, 9429 0, 9535 0, 9625 0, 9699 0, 9761 0, 9812 0, 9854 0, 9887 0, 9913 0, 9934 0, 9951 0, 9963 0, 9973 0, 9980 0, 9986 0, 9990 0, 9993 0, 9995 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000
Φ(0, 25) ' 0, 5987, Φ(−0, 32) = 1 − Φ(0, 32) ' 1 − 0, 6255 = 0, 3745
0, 09 0, 5359 0, 5753 0, 6141 0, 6517 0, 6879 0, 7224 0, 7549 0, 7852 0, 8133 0, 8389 0, 8621 0, 8830 0, 9015 0, 9177 0, 9319 0, 9441 0, 9545 0, 9633 0, 9706 0, 9767 0, 9817 0, 9857 0, 9890 0, 9916 0, 9936 0, 9952 0, 9964 0, 9974 0, 9981 0, 9986 0, 9990 0, 9993 0, 9995 0, 9997 0, 9998 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000
View more...
Comments