Probabilités et Statistiques: Eléments de cours et exercices

January 16, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Probabilités et Statistiques: Eléments de cours et exercices...

Description

1

Université Paris Villetaneuse

Année 2013/2014

Clément Foucart

Probabilités

Prépa Capes

Probabilités et Statistiques: Eléments de cours et exercices

Les programmes de mathématiques dans l'enseignement secondaire ainsi qu'en classes préparatoires et BTS mettent de plus en plus en avant la théorie des probabilités. S'il est rare que les exercices de probabilités donnés au lycée et dans les premières années universitaires nécessitent des raisonnements diciles en analyse réelle, plusieurs types de dicultés apparaissent lorsque l'on enseigne ou que l'on étudie les probabilités. D'une part, des énoncés mal construits (trop succincts ou au contraire trop longs) peuvent rapidement bloquer le lecteur

1

. D'autre part,

on peut être amené à mobiliser des connaissances en analyse ou en algèbre (calculs de séries, d'intégrales, algèbre linéaire, matrice à inverser).

La théorie de la mesure n'est pas au programme du CAPES. Nous nous bornerons donc à l'usage de notions probabilistes sans donner plus de détails quant à leurs dénitions en théorie de la mesure. Il faut néanmoins bien comprendre que probabilités et intégration partagent beaucoup de choses, comme nous le verrons dans les chapitres suivants, probabilités discrètes (respectivement continues) amènent à l'étude de séries (respectivement d'intégrales). An de donner un cadre clair, nous introduirons rapidement les tribus (c'est d'ailleurs au programme en classes préparatoires économiques et sociales, voie scientique). D'un point de vue pédagogique, introduire les tribus permet de s'entraîner à manipuler les sous-ensembles.

Les exercices accompagnés du signe # sont corrigés. Ils ont été dans leur grande majorité rédigés par Alexandre Genadot et Pierre Veuillez (http ://mathsece.free.fr/)

2

. An de vous

entraîner, vous pouvez consulter les références suivantes :

Ouvrages utilisés pour la rédaction de ce polycopié

1) Intégration et Probabilités, Auliac, Cocozza-Thivent, Mercier, Roussignol, EdiScience. 2) Probabilités, analyse de données et Statistiques, Saporta, Technip. 3) Polycopié du cours de préparation au capes de Paris 6. Frédérique Petit et Béatrice de Tilière (disponible en ligne sur la page de B. de Tilière) 4) Probabilités et statistiques pour le CAPES externe et l'Agrégation interne de Mathématiques (Jérôme Escoer) 5) Annales des ECRICOMES (pour les problèmes et exercices de probabilités : http ://mathsece.free.fr/sujetsent 6) Analyse pour l'agrégation, Zuily et Queélec. Dunod,

Références pouvant être consultées 1) Probabilités Tome 1, licence- capes Jean-Yves Ouvrard, chez Cassini 2) Introduction au calcul des probabilités et à la statistique, Jean-François Delmas, disponible en ligne 3) Probability and random processes Grimmett and Stirzaker third edition, Oxford 1. et ceci est vrai à tout niveau. 2. J'en prote pour les remercier ici.

2

Table des matières

1 Rappels fondamentaux 1.1

1.2

1.3

5

Rudiments sur les ensembles et les fonctions 1.1.1

Notions de base sur les ensembles

1.1.2

Ensembles et fonctions

Ensembles dénombrables

. . . . . . . . . . . . . . . . . . . .

5

. . . . . . . . . . . . . . . . . . . . . .

5

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

1.2.1

Ensembles au plus dénombrables

1.2.2

Ensembles nis

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12

2 Espaces probabilisés

15

2.1

Terminologie probabiliste et notion de probabilité

2.2

Probabilité conditionnelle

2.3

2.4

. . . . . . . . . . . . . . . . .

15

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22

2.2.1

Formule des probabilités totales et formule de Bayes . . . . . . . . . . . .

23

2.2.2

Indépendance

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Variables aléatoires : notion de loi et de moments

25

. . . . . . . . . . . . . . . . .

26

2.3.1

Loi d'une variable aléatoire

. . . . . . . . . . . . . . . . . . . . . . . . .

27

2.3.2

Fonctions de répartition et indépendance . . . . . . . . . . . . . . . . . .

27

Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

3 Variables aléatoires discrètes 3.1

8

Généralités

37

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3.1.1

Loi et fonction de répartition

3.1.2

Espérance

3.1.3

Composition d'une variable aléatoire et d'une fonction et indépendance

3.1.4

37

. . . . . . . . . . . . . . . . . . . . . . . .

37

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

.

40

Moments, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . .

41

3.2

Lois discrètes usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

3.3

Vecteurs aléatoires discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

44

3.4

3.3.1

Vecteurs aléatoires discrets : lois marginales, indépendance

3.3.2

Structure algébrique, covariance et corrélation

. . . . . . . .

44

. . . . . . . . . . . . . . .

45

3.3.3

Loi multinomiale

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

47

3.3.4

Somme de variables aléatoires indépendantes . . . . . . . . . . . . . . . .

48

Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

50

4 Variables aléatoires à densité 4.1

Généralités

73

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4.1.1

Loi et fonction de répartition

4.1.2

Espérance

74

. . . . . . . . . . . . . . . . . . . . . . . .

75

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

75

3

4

TABLE DES MATIÈRES

4.2 4.3

4.4

4.1.3

Composition d'une variable aléatoire et d'une fonction et indépendance

4.1.4

Moments, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . .

Lois à densité usuelles

.

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Vecteurs aléatoires à densité

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5.2

77 77 80

4.3.1

Vecteurs aléatoires à densité : lois marginales, indépendance

. . . . . . .

81

4.3.2

Loi normale multidimensionnelle . . . . . . . . . . . . . . . . . . . . . . .

81

4.3.3

Sommes de deux variables aléatoires indépendantes : convolution . . . . .

82

Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

83

5 Théorèmes limites 5.1

76

99

Notions de convergence de suites aléatoires . . . . . . . . . . . . . . . . . . . . .

99

5.1.1

Convergence en probabilité et loi faible des grands nombres.

99

5.1.2

Convergence en loi

5.1.3

Approximations de certaines lois et théorème central limite . . . . . . . . 102

5.1.4

Convergence presque-sûre et loi forte des grands nombres . . . . . . . . . 104

Exercices.

. . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

6 Eléments de statistiques

109

6.1

Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

6.2

Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

7 Sujets des examens passés et problèmes

121

7.1

Fonctions additives et loi exponentielle

. . . . . . . . . . . . . . . . . . . . . . . 126

7.2

Théorème de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

7.3

Marche aléatoire

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

8 Problèmes d'analyse pour les probabilités

135

Chapitre 1 Rappels fondamentaux

Ce chapitre est du niveau de première et deuxième année. Il est conseillé d'y revenir si vous avez des lacunes. Nous commençons par des rappels de base sur les ensembles et les opérations sur les ensembles. Nous terminons par des rappels sur les ensembles dénombrables. Ces ensembles jouent un rôle primordial lors de l'étude des probabilités discrètes. Les notions présentées ici font parties des cours de première et deuxième année de mathématiques. Nous renvoyons le lecteur aux ouvrages consacrés.

1.1

Rudiments sur les ensembles et les fonctions

1.1.1 Notions de base sur les ensembles Ω sera inclus dans N, R ou Rd pour d ≥ 2). A est un sousensemble (on dit aussi partie) de Ω, si A est une collection d'éléments de Ω : au sens où tous les éléments de A sont éléments de Ω. On note alors Soit



un ensemble (typiquement

la relation



est la relation d'

A ⊂ Ω,

inclusion.

Rappel : On raisonne souvent par double inclusion pour montrer que deux ensembles sont égaux : A = B ⇐⇒ A ⊂ B et B ⊂ A. On note

P(Ω)

l'ensemble des parties de

Ω.

P(Ω) = {A; A

C'est à dire : sous-ensemble de

Ω}.

Opérations sur les ensembles :

A ∈ P(Ω). n'appartiennent pas à A :

 Ensemble complémentaire. Soit ments de



qui

Le complémentaire de

A

est l'ensemble des élé-

Ac = {x ∈ Ω; x ∈ / A}. On note



le complémentaire de

Ω.

Cet ensemble s'appelle l'ensemble vide.

5

6

CHAPITRE 1.

 Réunion : La réunion de deux ensembles

A

et

B

est notée

x ∈ A ∪ B ⇐⇒ x ∈ A

ou

RAPPELS FONDAMENTAUX

A∪B

et est dénie par :

x∈B

Attention, le "ou" n'est pas exclusif, c'est à dire que x peut appartenir à la fois à A et à B .  Intersection : l'intersection de deux ensembles

A

et

B

x ∈ A ∩ B ⇐⇒ x ∈ A

 L'ensemble des éléments de

A qui ne sont pas dans B

est notée

et

x∈B

est noté

On le dénit par :

réunion est notée

x∈

[

x∈

\

i∈I

i∈I

S

i∈I

Ai ,

familles T

leur intersection

Ai ⇐⇒ ∃i ∈ I

tel que

d'ensembles : soit

i∈I

x ∈ Ai ,

Ai ⇐⇒ ∀i ∈ I, x ∈ Ai ,

donc

Ai donc

x∈ /

\ i∈I

x∈ /

[ i∈I

et est denie par :

A \ B . On dit "A privé de B ".

A \ B = A ∩ Bc.

Ces opérations se généralisent à des

A∩B

I ⊂ N

et

(Ai , i ∈ I).

Leur

Ai ⇐⇒ ∀i ∈ I, x ∈ / Ai

Ai ⇐⇒ ∃i ∈ I

tel que

x∈ / Ai .

Remarque 1.1.1 Toutes ces opérations sont stables dans P(Ω). On rappelle les règles de calculs :

ˆ (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) ˆ (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) ˆ (A ∪ B)c = Ac ∩ B c ˆ (A ∩ B)c = Ac ∪ B c Plus généralement :

(∪i∈I Ai )c = ∩i∈I Aci

et

(∩i∈I Ai )c = ∪i∈I Aci .

Dénition 1.1.1 (Partition) Une famille de parties de Ω, (Ai , i ∈ I) est une partition de Ω si ; i) ∪i∈I Ai = Ω ii) ∀i ∈ I, j ∈ I : i 6= j =⇒ Ai ∩ Aj = ∅.

Dénition 1.1.2 (Produit cartésien) Le produit cartésien de deux ensembles E et F est notè, E × F et est déni par :

E × F = {(x, y); x ∈ E et y ∈ F }.

Plus généralement, le produit cartésien de

E1 × E2 × E3 × ... × En =

n Y i=1

n

ensembles est :

Ei = {(x1 , x2 , ..., xn ); ∀i ∈ [|1, n|], xi ∈ Ei }.

1.2.

ENSEMBLES DÉNOMBRABLES

7

1.1.2 Ensembles et fonctions On donne ici quelques rudiments sur les applications : les dénitions d'injectivité, surjectivité, de l'image et de l'image réciproque d'un ensemble par une application. Soient

E

et

F

deux ensembles, soit

f

une application qui va de

E

dans

F

:

Dénition 1.1.3 La fonction f est dite ˆ injective si :

∀x, y ∈ E, f (x) = f (y) =⇒ x = y.

Dans ce cas, un élément de F

a au plus

un antécédent par f dans E .

ˆ surjective si :

∀z ∈ F, ∃x ∈ E; f (x) = z.

Dans ce cas, tout élément de F

a au moins

un antécédent par f .

ˆ bijective si : injective et surjective. Dans ce cas, pour tout z dans F , il existe un et un seul x ∈ E tel que f (x) = z .

Dénition 1.1.4 Soit f une application de E dans F , A une partie de E et B une partie de F.

 On appelle image de A par f l'ensemble noté f (A) déni par f (A) = {y ∈ F ; ∃x ∈ A tel que y = f (x)}.

 On appelle image réciproque de B par f l'ensemble noté f −1 (B) déni par f −1 (B) = {x ∈ E; f (x) ∈ B}.

Remarque 1.1.2 La notation f −1 est abusive car f n'est pas toujours bijective et n'a donc pas toujours de réciproque, l'ensemble f −1 (B) existe même si f n'est pas bijective.

Proposition 1.1.1 (Image réciproque et union) Soient A, B ∈ P(F ) ˆ f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B) ˆ f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B) ˆ f −1 (Ac ) = f −1 (A)c

Preuve 1.2

laissée en exercice.

Ensembles dénombrables

Pour clôturer ces généralités, et avant de passer aux probabilités, nous rappelons la notion d'ensemble dénombrable, ainsi que des éléments de dénombrement. Le dénombrement est fondamental dans les probabilités discrétes. Nous traitons ces questions à part an de se concentrer dans la suite sur les probabilités.

8

CHAPITRE 1.

RAPPELS FONDAMENTAUX

1.2.1 Ensembles au plus dénombrables Dénition 1.2.1 Un ensemble E est dit au plus dénombrable s'il existe une injection de E dans N

Deux cas sont possibles :  l'ensemble

N.

E

est inni et dans ce cas, on peut démontrer qu'il existe une bijection de

E

dans

L'ensemble est dit dénombrable.

 L'ensemble

E

est ni et dans ce cas, on peut dénombrer combien il possède d'éléments.

Remarque 1.2.1 (Exemples) Ces propriétés sortent du cadre du cours, mais sont à savoir

démontrer.  L'ensemble des rationnels Q est dénombrable.  L'ensemble des réels R est non dénombrable.

1.2.2 Ensembles nis On dit qu'un ensemble est ni s'il est vide, ou s'il existe un entier naturel

n

et une bijection

[|1, n|] := {1, 2, ..., n} dans E . Si E 6= ∅, l'entier n est appelé cardinal de E . On note Card E = n. Par convention Card ∅ = 0. On a Card E = n si et seulement si les éléments de E peuvent être notés e1 , ..., en où les ek sont distincts. Dénombrer un ensemble ni E correspond à déterminer de

le nombre déléments de E, c'est à dire son cardinal. Plusieurs méthodes sont possibles. Néanmoins, rappelons les trois conditions qui doivent être remplies pour que le dénombrement soit correct :

1) S'assurer que seuls des éléments de

E

sont comptés

2) S'assurer que l'on en oublie pas 3) S'assurer que l'on ne compte pas plusieurs fois le même élément.

Propriétes des cardinaux Proposition 1.2.1 Soit E un ensemble ni. Si F est un ensemble en bijection avec E , alors

F est ni et Card E = Card F .

Démonstration dans

E.

Soit

f

Si

E

est un ensemble ni de cardinal

une bijection de

donc l'application

φ◦f

E

dans

F,

n

alors il existe

φ

une bijection de

[|1, n|]

la composée de deux bijections est une bijection,

est une bijection. De plus le cardinal de

F

est

n. 

Proposition 1.2.2 Soit E un ensemble ni. Toute partie A de E est nie et Card A ≤ Card E . Si A est une partie de E et Card A = CardE alors A = E .

Proposition 1.2.3 Soit A et B deux parties de E , ensemble ni.

1) 2) 3) 4)

Si A et B sont disjointes, Card (A ∪ B) = Card (A) + Card (B) Card (A \ B) = Card A − Card B Card Ac = Card E − Card A Card (A ∪ B) = Card A + Card B − Card (A ∩ B)

1.2.

ENSEMBLES DÉNOMBRABLES

9

Proposition 1.2.4 (Formule du Crible) Soit (Ai , i ∈ I) une famille de parties de l'ensemble ni E alors pour tout entier n ≥ 1 ; Card

(∪ni=1 Ai )

n X = (−1)k+1 k=1

Card (∩kl=1 Ail )

X 1≤i1 0.

Faire une récurrence.

Proposition 2.2.3 Soit B un événement tel que P(B) > 0 et P(B c ) > 0 alors pour tout événement A :

P(A) = PB (A)P(B) + PB c (A)P(B c ).

Démonstration. On a A = (A ∩ B) ∪ (A ∩ B c ) et les événements A ∩ B

donc

et

A ∩ Bc

sont disjoints

P(A) = P(A ∩ B) + P(A ∩ B c ), on conclut par dénition des probabilités conditionnelles.

On généralise cette proposition :

Proposition 2.2.4 (Formule des probabilités totales) Si (Bi , i ≥ 1) est une famille au

plus dénombrable d'événements formant une partition de Ω et P(Bi ) > 0 pour tout i ∈ I , alors pour tout événement A, on a : P(A) =

X

PBi (A)P(Bi ).

i∈I

Démonstration. Laissée en exercice.

Remarque 2.2.2 (Lien avec les arbres pondérés) Les formules des probabilités composées

et des probabilités totales sont à rapprocher de la représentation en arbre pondéré utilisée au lycée pour représenter une expérience aléatoire. On rappelle qu'un arbre pondéré est un arbre tel que :

24

CHAPITRE 2.

ESPACES PROBABILISÉS

 La somme des pondérations (ou probabilités) des noeuds issus d'un même sommet donne 1.  La probabilité d'un chemin est le produit des probabilités des branches qui le composent.  La pondération de la branche allant du sommet A vers le sommet B est la probabilité conditionnelle de B sachant A, PA (B). La construction d'un arbre pondéré obéit au principe suivant : le noeud racine réprésente l'événement certain ω , et si un noeud représente un événement A, on construit autant de ls qu'il y a d'événements A ∩ En , où (En ) est une partition de Ω. La formule des probabilités composées est la traduction exacte de l'item 2. ci-dessus : la probabilité d'un noeud de l'arbre est la probabilité de l'intersection des événements qui composent le chemin qui le relie au sommet. La formule des probabilités totales dans ce contexte dit que la probabilité d'un événement est la somme des probabilités des feuilles de l'arbre qui concernent cet événement.

Exemple 2.2.1 On dispose de deux urnes, l'une contenant 1 boule blanche et 3 noires, l'autre 2 blanches et 2 noires. On choisit uniformément au hasard parmi les deux urnes, puis on tire au hasard une boule dans l'urne choisie. On considére la probabilité de l'événement A =  on tire une boule noire . L'univers Ω est {(i, j), i = 1, 2, j = 1, 2, 3, 4}, où i est le numéro de l'urne et j celui de la boule. On considére la partition Ω = E1 ∪ E2 , où Ei = {(i, j), j = 1, 2, 3, 4} qui est l'événement consistant à choisir l'urne i. Si on numérote en premier les boules noires, l'événement A s'écrit {(1, 1), (1, 2), (1, 3), (2, 1), (2, 2)}. Pour tout i, la probabilité conditionnelle PEi est la probabilité uniforme sur Ei . Donc PE1 (A) = 3/4 et PE2 (A) = 1/2. D'après la formule des probabilités totales, P(A) = PE1 (A)P(E1 ) + PE2 (A)P(E2 ) = 34 × 21 + 12 × 12 = 58 . Proposition 2.2.5 (Formule de Bayes simple) Soient A et B deux événements tels que P(A), P(B) et P(B c ) sont strictement positifs. On a : PA (B) =

Démonstration.

On a

PA (B) =

PB (A)P(B) . PB (A)P(B) + PB c (A)P(B c )

P(B∩A) P(A)

par la formule des probabilités totales

= P(A∩B)P(B) . On décompose ensuite le P(A) c : P(A) = PB (A)P(B) + PB c (A)P(B ). 

dénominateur

A nouveau, cette proposition se généralise, à une famille formant une partition de

Ω.

Proposition 2.2.6 (Formule de Bayes) Si (Bi , i ∈ I) est une famille qui forme une partition de Ω telle que pour tout i ∈ I , P(Bi ) > 0 alors, quelque soit l'événement A, si P(A) > 0 PBi (A)P(Bi ) . i∈I PBi (A)P(Bi )

PA (Bi ) = P

Démonstration. Même argument que précédemment. Les deux dernières formules permettent de calculer des probabilités conditionnelles

PA (B)

PB (A).

connaissant les probabilités  inverses 

Exercice 2.2.3

Calculer la probabilité d'avoir tiré une boule dans la première urne sachant

que c'est une noire. Sous son apparente simplicité, la formule de Bayes est le départ d'une théorie entière appelée la statistique bayésienne.

2.2.

PROBABILITÉ CONDITIONNELLE

25

Nous reprenons maintenant la question de l'exercice 2.2.2 concernant le test de maladie. La formule de Bayes va nous permettre de calculer la probabilité qu'un individu soit malade sachant qu'il a été testé positif. On note On a

PT (M ) =

M

l'événement  malade ,

T

l'événement  test positif .

PM (T )P(M ) = 0.16. PM (T )P(M ) + PM c (T )P(M c )

Résultat, le test n'est pas bon.

2.2.2 Indépendance Nous passons maintenant à une notion fondamentale en probabilités : la notion d'indépendance. Si la connaissance d'un événement n'inue en rien sur la probabilité d'un autre, on dit que les événements sont indépendants. La notion de probabilité conditionnelle formalise cela. Si B est un événement avec probabilité strictement positive et dit

indépendants.

P(A|B) = P(A)

alors

A

et

B

sont

Par dénition des probabilités conditionnelles cela équivaut à la dénition

suivante :

Dénition 2.2.2 Deux événements A et B sont indépendants si P(A ∩ B) = P(A)P(B). Pour illustrer cette notion, on reprend l'exemple de contrôle de production.

Exemple 2.2.2 (Contrôle de production non destructif) On a N objets, m défectueux.

On tire au hasard n objets parmi les N en remettant chaque objet après l'avoir tiré. (on parle de tirage avec remise). Soit l' événement Ai : l'objet tiré au ième tirage est défectueux . Montrer que Ai et Aj sont indépendants pour tout i 6= j .

Exemple 2.2.3 Cette fois on ne remet pas l'objet tiré. (tirage sans remise). Calculer P(A1 ∩A2 )

et conclure que ce ne sont pas des événements indépendants

Proposition 2.2.7 Soient A et B deux événements indépendants alors Ac et B sont indépendants, ainsi que A et B c et Ac et B c . Démonstration. Laissée en exercice. On généralise maintenant la notion d'indépendance à une famille d'événements :

Dénition 2.2.3 (Indépendance mutuelle) Soit une famille (Ai , i ∈ I) d'événements. On dit qu'elle est formée d'événements (mutuellement) indépendants si pour toute sous famille nie i1 , i2 , ..., ip de I on a : ! P

p \

Aik

k=1

P(Aik ).

k=1

Ai et Aj pour tout i 6= j n'implique pas l'indé(Ai , i ∈ I). Donnons un contre-exemple : Ω = {1, 2, 3, 4}, muni de la Considérer A = {1, 2}, B = {1, 3}, C = {2, 3}.

Attention à bien noter que l'indépendance de pendance de la famille probabilité uniforme.

=

p Y

26

2.3

CHAPITRE 2.

ESPACES PROBABILISÉS

Variables aléatoires : notion de loi et de moments

On a vu dans la section précédente, les dicultés que le choix de l'univers pouvait impliquer. Dans la plupart des cas, on se concentre sur les événements que l'on souhaite étudier. Plus généralement, on dénit la notion de variables aléatoires dénies sur un espace Une variable aléatoire est une aléatoire. On rappelle que les pavés

Qn

i=1 ]ai , bi [.



abstrait.

application dont la valeur dépend du résultat de l'expérience

B(Rd )

est la tribu des boréliens, c'est à dire la tribu engendrée par

Dénition 2.3.1 Une variable aléatoire X est une application X : ω ∈ Ω 7→ X(ω) ∈ Rd

telle que pour tout A ∈ B(Rd ) X −1 (A) = {ω ∈ Ω; X(ω) ∈ A} ∈ F. Cela correspond à la notion de mesurabilité :

X

est une fonction

(2.1)

F -mesurable

à valeurs dans

X tombe  X ∈ B .

l'espace euclidien. En probabilité, cela signie que l'on peut étudier l'événement  dans

Qn

i=1 [ai , bi ] . Pour tout

d

B ∈ B(R ),

on identiera l'événement

X

−1

(B)

avec

On admet la proposition suivante issue de la théorie de la mesure.

Proposition 2.3.1 L0 (Ω, F) l'ensemble des variables aléatoires à valeurs dans l'espace euclidien Rd est un espace vectoriel.

Exemple 2.3.1 (Fonction indicatrice) Soit A un événement. On dénit 1A : ω 7→

  1 si ω ∈ A 

0 sinon.

Exemple 2.3.2 On lance une échette sur une cible et cherche à connaître la distance entre la échette et le centre de la cible. On pose Ω = R2 et X : w = (x, y) 7→

p x2 + y 2 .

X est une fonction continue (donc mesurable) et vérie la condition 2.1.

Remarque 2.3.1 Lorsque l'on peut prendre F = P(Ω) (par exemple, lorsque Ω est ni, et que l'on souhaite que tous les événements élémentaires soient dans la tribu) alors la condition 2.1 est toujours vraie.

Proposition 2.3.2 L'ensemble des variables aléatoires dénies sur un même espace (Ω, F)

forme une algèbre : en particulier la somme et le produit de deux variables aléatoires sont des variables aléatoires.

2.3.

VARIABLES ALÉATOIRES : NOTION DE LOI ET DE MOMENTS

27

2.3.1 Loi d'une variable aléatoire Le plus souvent, (typiquement lorsque la variable aléatoire prend un nombre inni de valeurs), lorsque l'on étudie la variable aléatoire bilité avec laquelle caractérisée par sa

X,

X se répartit dans les fonction de répartition

on n'étudie pas

X(ω)

en chaque

boréliens. La variable aléatoire ou par sa

loi.

X

ω,

mais la proba-

est ainsi souvent

Dénition 2.3.2 On appelle loi ou distribution d'une variable aléatoire X dénie sur un espace probabilisé (Ω, F, P), l'application

PX : B ∈ B(Rd ) 7→ P(X −1 (B)). On a le résultat fondamental suivant :

Proposition 2.3.3 L'application PX est une probabilité sur (Rd , B(Rd )). Démonstration. A faire en cours.

Exemple 2.3.3 (jeu de dé) On joue au jeu suivant : on lance un dé équilibré. On réalise un

gain nul si on obtient 1, 1 euro si on obtient 2, 3 ou 4 et 2 euros si le résultat est 5 et 4 euros si le résultat est 6. On dénit la variable aléatoire X donnant le montant du gain. Déterminer sa loi.

Proposition 2.3.4 Si X est une variable aléatoire sur (Ω, F). Soit g une fonction continue

par morceaux sur X(Ω) alors l'application g ◦ X est une variable aléatoire. On la note souvent g(X).

2.3.2 Fonctions de répartition et indépendance On se place dans le cas des variables aléatoires réelles : c'est à dire à valeurs dans

R.

souvent v.a.r pour variable aléatoire réelle.

Dénition 2.3.3 On appelle fonction de répartition de X , l'application : F : x ∈ R 7→ P(X ≤ x). Comme mentionné précédemment l'événement 

X ≤x

s'identie à

X −1 (] − ∞, x]).

Proposition 2.3.5 Toute fonction de répartition vérie les propriétés suivantes : 1. 2. 3. 4.

F est croissante lim F (x) = 0 et lim F (x) = 1 x→−∞

x→+∞

F est continue à droite en tout point de R F a une limite à gauche en tout point x de R, et ∀x ∈ R, F (x) − F (x−) = P[X = x]

où F (x−) = lim F (t). t→x;t 0, et P[Y = y] > 0. 2) Déterminer la fonction de répartition de aX + b où a > 0. 3) On suppose que X et Y sont indépendantes. Déterminer les fonctions de répartitions de max(X, Y ) et min(X, Y ).

Exercice 2.4.25 Soient F et G deux tribus.

1) 2) 3) 4)

Soit A ∈ P(Ω), montrer que {∅, Ω, A, Ac } est une tribu. Soient A et B des éléments de F , montrer que A ∩ B , A \ B appartiennent à F . Montrer que F ∩ G est une tribu. Montrer que F ∪ G n'est pas forcément une tribu.

Chapitre 3 Variables aléatoires discrètes

Dans ce chapitre, nous étudions les probabilités

discrètes. Les exemples étudiés précédemment

sont pour la ma jorité des exemples discrets. Nous avons déjà vu que le dénombrement joue une rôle important.

3.1

Généralités

Dénition 3.1.1 Une v.a.r X est discrète si X(Ω) est au plus dénombrable. Remarque 3.1.1 Cela ne signie pas forcément que X est à valeurs dans les entiers. La variable peut prendre ses valeurs dans un sous-ensemble dénombrable de R tel que Q.

3.1.1 Loi et fonction de répartition Soit

X

une variable discrète,

X(Ω) = {xi , i ∈ I}.

PX (B) = P(X ∈ B) = P

[ i;xi ∈B

La loi de

X , PX

est déterminée par

!

{X = xi }

=

X

P(X = xi )

avec

i;xi ∈B

B ⊂ X(Ω)

. Finalement la loi d'une variable discrète est déterminée par l'ensemble des valeurs prises et par les valeurs

P(X = xi ).

X(Ω)

Il est important de noter que l'on a toujours

X

P(X = xi ) = 1.

i∈I Inversement, on a la propriété suivante :

Proposition 3.1.1 Soit I une partie non videPde N. Soient (xi , i ∈ I) une famille de réels et (pi , i ∈ I) une famille de réels positifs vériant X(Ω) = {xi , i ∈ I} ∀i ∈ I , P(X = xi ) = pi .

i∈I

pi = 1. On peut dénir la variable X avec :

Exemple 3.1.1 Soit X une variable aléatoire à valeurs dans N telle que ∀n ∈ N, P(X = n) = e−1 n!1

Montrer que cela dénit bien une loi.

X est discrète, la fonction de répartition est une fonction intervalle ]xi , xi+1 [ la fonction F : x 7→ P(X ≤ x) est constante. Lorsque

37

en escalier : sur chaque

38

CHAPITRE 3.

VARIABLES ALÉATOIRES DISCRÈTES

3.1.2 Espérance La notion d'espérance correspond à celle de moyenne.

Dénition 3.1.2 Soit X une v.a.r discrète. Si X(Ω) = {xi , i ∈ I} avec I dénombrable, et si P i∈I

|xi |P[X = xi ] < ∞ alors l'espérance de X est dénie par E(X) :=

X

xi P[X = xi ].

i∈I Dans le cas où

I

est ni, l'hypothèse de convergence de la série est toujours vériée. Dans le

xi P[X = xi ] est absolument l'espérance de X ne dépend pas de

cas inni dénombrable, on suppose que la série de terme général

convergente. L'absolue convergence de la série garantie que l'ordre des

xi .

On rappelle qu'il existe des séries convergentes, non absolument convergentes,

dont la somme dépend de l'ordre pris sur ses termes. Penser à

P

1 n∈Z n ou

P

n≥1

(−1)n qui sont n

non absolument convergentes. Il faut bien comprendre que l'espérance n'existe pas toujours, même dans le cas discret ! Si la variable aléatoire discrète est à valeurs positives alors son espérance existe ou est innie.

Exemple 3.1.2 (Paradoxe de Saint Petersbourg) On tire une pièce, si elle tombe sur face

le jeu s'arrête, si elle tombe sur pile le joueur gagne deux fois sa mise et rejoue. On continue ainsi de suite en doublant le gain du joueur à chaque fois qu'il rejoue. Imaginons qu'il ait misé 1 euro. Quelle est la loi de son gain ? Quelle mise maximale le joueur doit il accepter pour jouer ? On note X son gain. On a P(X = 2n ) = 21n pour n ∈ N? . On a bien ∞ X

P(X = 2n ) = 1.

n=1

On remarque tout d'abord que la loi ne dépend pas de la mise de départ. De plus on a n≥1 2n P(X = P 2n ] = n≥1 1 = ∞. Finalement, la moyenne du gain étant innie, le joueur devrait a priori toujours jouer. P

Proposition 3.1.2 Si X(Ω) possède un maximum et un minimum, alors E(X) existe et xmin ≤ E[X] ≤ xmax

Démonstration. A faire.

Théorème 3.1.3 Soit Ω ni ou dénombrable, si la série est absolument convergente, on a E[X] =

X

X(ω)P({ω}).

ω∈Ω

Démonstration. On note Ai = {ω ∈ Ω; X(ω)xi }. On a P(X = xi ) = P(X −1 ({xi }) = P(Ai ) =

X ω∈Ai

P({ω})

3.1.

GÉNÉRALITÉS

39

On a donc

X

xi P(X = xi ) =

XX

=

XX

i

i∈I

i

= =

ω∈Ai

X

xi P({ω})

ω∈Ai

XX i

P({ω})

X(ω)P({ω})

ω∈Ai

X(ω)P({ω})

ω∈Ω

 Ce théorème est essentiel du point de vue théorique. Jusqu'à maintenant le rôle de l'univers était quelque peu caché puisque nous travaillions directement sur l'espace probabilisé

(X(Ω), B(R), PX ).

Dans la plupart des cas, les calculs sont plus simples sur ce triplet que sur

celui de l'univers. Néanmoins le théorème 3.1.3 permet de travailler avec diérentes variables aléatoires simultanément.

Proposition 3.1.4 (linéarité) Soient X et Y deux variables aléatoires discrètes sur Ω. On

suppose qu'elles possèdent une espérance. Soit λ ∈ R. Alors, la variable aléatoire X + λY est discrète et a pour espérance : E[X + λY ] = E[X] + λE[Y ].

Démonstration. La série

P

ω∈Ω (X(ω) + λY

(ω))P({ω}) est absolument convergente car c'est une

somme de deux séries absolument convergentes (utiliser l'inégalité triangulaire). On a donc :

X

(X(ω) + λY (ω))P({ω}) =

ω∈Ω

X

X(ω)P({ω}) + λ

ω∈Ω

X

Y (ω)P({ω}) = E[X] + λE[Y ].

ω∈Ω

 Le théorème 3.1.3 et la propriété 3.1.4 restent vrais pour toute variable aléatoire, pas forcément discrète, dénie sur n'importe quel univers

Ω.

Du point de vue de

mesure, l'espérance n'est rien d'autre que l'intégrale de X

contre la mesure

P

la théorie de la

:

Z ”E[X] =

X(ω)P(dω).” Ω

Proposition 3.1.5 Soient X et Y deux variables aléatoires. Supposons que 0 ≤ X ≤ Y et que Y admet un moment d'ordre 1. Alors X admet un moment d'ordre 1 et E[X] ≤ E[Y ].

Démonstration. Laissée en exercice.

40

CHAPITRE 3.

VARIABLES ALÉATOIRES DISCRÈTES

3.1.3 Composition d'une variable aléatoire et d'une fonction et indépendance Soit

X

g

une variable aléatoire discrète. Soit

une fonction continue par morceaux dénie sur

X(Ω), clairement la variable g ◦ X est une (g ◦ X)(Ω) = {g(xi ), i ∈ I}. Le théorème suivant est très important.

un ensemble J contenant

variable discrète : on a

Théorème 3.1.6 (théorème de transfert) E[g(X)] =

X

g(xi )P(X = xi )

i∈I

Démonstration. On note Ai = {ω ∈ Ω; X(ω) = xi }. E[g(X)] =

X

g(X(ω))P({ω}) =

ω∈Ω

=

X

XX

g(xi )P({ω})

i∈I ω∈Ai

g(xi )

i∈I

X

P({ω}) =

ω∈Ai

X

g(xi )P(Ai ).

i∈I



Proposition 3.1.7 Soit g une fonction positive. Si E[g(X)] = 0 alors P[g(X) = 0] = 1.

On dit que la variable g(X) est nulle presque-sûrement. Démonstration.

P E[g(X)] = i∈I g(xi )P[X = xi ] = 0. Comme g(xi )P[X = xi ] est positif, tous les termes sont nuls et si P[X = xi ] > 0 alors g(xi ) = 0. Autrement dit g(x) = 0 si  S S {x } = 0, donc x ∈ i∈I,P[X=xi ]>0 {xi }. On a de plus PX i i∈I,P[X=xi ]=0 On a



 [

P

{xi } = 1

i∈I,P[X=xi ]>0

 L'indépendance entre deux variables aléatoires

X, Y

peut s'exprimer avec l'opérateur d'es-

pérance.

Proposition 3.1.8 X et Y sont deux variables indépendantes si pour toutes fonctions f et g continues bornées,

E[f (X)g(Y )] = E[f (X)]E[g(Y )]

Démonstration

Si

f

et

des fonctions

X et Y sont indépendantes alors la propriété est vraie par dénition pour g simples. Toute fonction continue bornée est limite de fonctions simples.

Critère d'indépendance. Soient X et Y et

Y (Ω) = {y1 , y2 , ...}. X

et

Y

deux variables discrètes telles que

sont indépendantes si

P(X = xi , Y = yj ) = P(X = xi )P(Y = yi ).

X(Ω) = {x1 , x2 , ...}

3.2.

LOIS DISCRÈTES USUELLES

41

3.1.4 Moments, variance et écart-type Dénition 3.1.3 On appelle moment d'ordre k de X l'espérance si elle existe de la variable X k avec k ≥ 2

On a d'après le théorème de transfert : E[X k ] =

X

xki P(X = xi )

i∈I

Dénition 3.1.4 On appelle variance de X , l'espérance de (X − E[X])2 : On a immédiatement

V(X) = E[(X − E[X])2 ]. P 2 V(X) = i (xi − E[X]) P[X = xi ].

On mesure l'écart de la variable

aléatoire par rapport à sa moyenne. C'est une mesure de dispersion autour de

E(X).

Proposition 3.1.9 Si X admet une variance et V(X) = 0 alors X = 0 avec probabilité 1 Théorème 3.1.10 Si X possède un moment d'ordre 2 alors V(X) = E(X 2 ) − E(X)2 . 3.2

Lois discrètes usuelles

On présente les lois classiques au programme.

Loi de Bernoulli Dénition 3.2.1 Soit p ∈ [0, 1], X suit la loi de Bernoulli de paramètre p si 1. X(Ω) = {0, 1} 2. P(X = 1) = p et P(X = 0) = 1 − p La fonction indicatrice d'un événement est une variable aléatoire qui suit une loi de Bernoulli. Soit

A ∈ F , X = 1A

a pour loi, la loi de Bernoulli avec paramètre

Proposition 3.2.1 E(X) = p et V(X) = p(1 − p)

Loi uniforme sur [|1, n|] Dénition 3.2.2 X a pour loi, la loi uniforme sur [|1, n|] si 1 X(Ω) = [|1, n|] 2 P(X = k) = n1 .

Proposition 3.2.2 On a E[X] =

n+1 2

et V(X) =

n2 −1 12

Démonstration. Utiliser les formules n X

k=

k=1 n X k=1

k2 =

n(n + 1) 2

n(n + 1)(2n + 1) 6

p = P(A).

42

CHAPITRE 3.

VARIABLES ALÉATOIRES DISCRÈTES

Loi de Poisson La variable aléatoire

X

suit une loi de Poisson de paramètre

λ

(loi sur

N)

si :

λk −λ e . k!

P[X = k] = Il faut savoir calculer les moments !

E[X] =

∞ X

ke−λ

k=0

∞ X λk λk−1 =λ = λe−λ eλ = λ. e−λ k! (k − 1)! k=1

Plus généralement

E[X(X − 1)...(X − j + 1)] =

∞ X k=0



k

k(k − 1)...(k − j + 1)e−λ

∞ X



−λ

e

j=k

E[X 2 − X] = λ2 ,

On en déduit que

λk k!

X λj−k λk e−λ = λk = λk (j − k)! k! j=0

d'où

E[X 2 ] = λ2 + λ et

V(X) = λ.

Loi binomiale On considère

n

tirages équiprobables indépendants dans un ensemble composé de deux types

d'éléments, le premier (I) en proportion

p,

le deuxième en proportion

nombre d'éléments du premier type tirés parmi l'échantillon de taille

X

n.

suit une loi binomiale. Supposons qu'à chaque élément échantillonné

la variable aléatoire

Yi

qui vaut

1

si

variables de Bernoulli de paramètre

q = 1 − p.

Soit

X

La variable aléatoire

i ∈ [|1, n|],

on associe

i est de type I, 0 sinon. Les variables aléatoires Yi sont des p indépendantes. Il est évident que le nombre X d'éléments

de type (I) dans l'échantillon vérie :

X=

n X

Yi

i=1

Dénition 3.2.3 Soient n ∈ N? et p ∈ [0, 1]. X suit la loi binomiale de paramètre n et p si 1. X(Ω) = [|0, n|] 2. P(X = k) = On a

E[X] = np

n k



pk (1 − p)n−k

et

le

V(X) = np(1 − p).

3.2.

LOIS DISCRÈTES USUELLES

43

Loi hypergéométrique On a déjà rencontré cette loi dans le problème de contrôle de production 2.0.1. On redonne ici l'expérience type menant à une loi hypergéométrique. On considère un tirage équiprobable

sans

remise de n éléments dans une population de taille N ≥ n. On s'intéresse à un type donné (I) (par exemple

Np

(

défectueux ) d'éléments de la population, que l'on supposera être en proportion p

est donc un entier). Soit

taille

X

le nombre d'éléments de type I présents dans l'échantillon de

n.

Dénition 3.2.4 X suit une loi hypergéométrique de paramètres N, n, p si N (1−p) n−k  N n

Np k



P[X = k] =

avec max{0; n − N (1 − p)} ≤ k ≤ min{n, N p}.

Proposition 3.2.3 E[X] = np, V(X) =

N −n np(1 N −1

Démonstration. Pour tout i ∈ [|1, N |], soit 

0 1

i = Il y a

i.

 N n

échantillons de taille

si

i

 ,

− p).

n'appartient pas à l'échantillon

sinon

n possibles

N −1 n−1



et

On a donc

échantillons possibles de taille

N −1 n−1  N n



P[i = 1] =

=

n contenant

n . N

On peut écrire

X=

N X

Yi i

i=1 où

Yi

prend la valeur

1

si

i

est de type I,

E[X] =

N X

0

E[Yi i ] =

i=1

sinon. On en déduit :

N X

E[Yi ]E[i ] =

i=1

De même, on calcule

V(X) = (exercice)

N X n p = np N i=1

N −n np(1 − p). N −1

Loi géométrique On considère une population dont une proportion

p

est composée d'éléments de type I donné.

1 élément de ce type en procédant à une suite de tirage équiprobables et Y le nombre de tirage nécessaires pour obtenir un élément de type I. La loi ? géométrique de paramètre p sur N : c'est à dire :

On désire obtenir

indépendants : Soit de

Y

est la loi

P[Y = k] = (1 − p)k−1 p On a tiré

k−1

éléments de type II, le

k -ième

E[Y ] =

1 et p

est de type I. Les moments sont

V(Y ) =

1−p . p2

44

CHAPITRE 3.

VARIABLES ALÉATOIRES DISCRÈTES

Loi binomiale négative n éléments de type I. On note Y le nombre de tirages nécessaires pour avoir n éléments. L'événement {Y = k} signie que k tirages ont donné un élément de type II, et n tirages ont donné un élément de  Il s'agit d'une généralisation de la loi géométrique. Cette fois ci on désire obtenir

n−1 , on en déduit : n−1+k

type I (dont le dernier). Le nombre de choix possibles est

 n−1 pn (1 − p)k . n−1+k

 P[Y = k] = Moments :

E[X] = n 1−p p 3.3

et

V(X) = n 1−p . p2

Vecteurs aléatoires discrets

3.3.1 Vecteurs aléatoires discrets : lois marginales, indépendance Soit

X

X1 , X2 , ..., Xn ses   X1 (ω)  X2 (ω)     .   X : ω ∈ Ω 7→   . .    .  Xn (ω)

un vecteur aléatoire discret. Soient

composantes, c'est à dire

Exemple 3.3.1 On lance deux fois un dé équilibré. On pose Ω = [|1, 6|]2 , F = P(Ω) et P la probabilité uniforme. Soit X le vecteur aléatoire bi-dimensionnel :  X : ω ∈ Ω 7→

 U (ω) = ω1 + ω2 . V (ω) = max(ω1 , ω2 )

Exercice 3.3.1 Les variables U et V sont elles indépendantes ? Déterminer la loi de X . Dénition 3.3.1 (Lois marginales) On appelle lois marginales de X , les lois de X1 , ..., Xn . La loi de

X

est aussi appelée loi conjointe des

Xi , 1 ≤ i ≤ n.

Les propriétés suivantes se

généralisent au cas multidimensionnel, pour alléger les notations, on considère un vecteur bidimensionnel (

n = 2).

Soit

X = (U, V ).

La loi de

P(U = ui ) =

X

U

se déduit de la loi de

(U, V )

:

P(U = ui , V = vj ).

j∈I

Exercice 3.3.2 Reprenons le vecteur aléatoire de l'exemple précédent. Déterminer ses lois marginales.

La loi conditionnelle de

V

sachant



U = ui

est la donnée de

P(V = vj et U = ui ) vj ; P(U = ui )

 .

3.3.

VECTEURS ALÉATOIRES DISCRETS

45

Exercice 3.3.3 Déterminer la loi de U sachant V = 3. Proposition 3.3.1 Soient X et Y deux v.a.r discrètes indépendantes possédant une espérance E[XY ] = E[X]E[Y ].

Démonstration.

Proposition 3.3.2 (Admis) Si X1 , ...., Xn sont indépendantes, alors toute fonction de X1 , ..., Xp est indépendantes de toute fonction de Xp+1 , ..., Xn .

3.3.2 Structure algébrique, covariance et corrélation `0 (Ω, F, P) l'ensemble des variables aléatoires discrètes dénies sur un même espace 0 probabilisé (Ω, F, P). L'espace ` est un espace vectoriel pour la loi de composition interne + :

On note

(X + Y )

est l'élément de

`0

qui à

ω∈Ω

associe

X(ω) + Y (ω)

et la loi de composition externe scalaire :

∀λ ∈ R, (λ.X)(ω) = λX(ω).

Proposition 3.3.3 Soit `1 l'ensemble des variables aléatoires discrètes possédant une espérance, i.e

`1 = {X ∈ `0 ; E[|X|] < ∞}.

1) `1 est un sous-espace vectoriel de `0 2) E est une forme linéaire sur `1

Proposition 3.3.4 Soit `2P l'ensemble des éléments de `0P possédant un moment d'ordre 2, i.e `2P = {X ∈ `0 ; E[X 2 ] < ∞} `2P est un sous-espace vectoriel de `0P inclus dans `1P .

Démonstration. Utiliser ab ≤ 21 (a2 + b2 )

Dénition 3.3.2 (Covariance) On appelle covariance l'application Cov : (X, Y ) ∈ `2 × `2 7→ E[XY ] − E[X]E[Y ]. Par dénition

Cov(X, X) = V(X).

On a également la propriété importante suivante :

Proposition 3.3.5 V

n X i=1

! Xi

=

n X i=1

V(Xi ) + 2

X

Cov(Xi , Xj ).

1≤i 0. C'est assez contre-intuitif et source

Proposition 3.3.8 Quelque soit le couple (X, Y ) de variables aléatoires de L2 , on a : Démonstration. Il faut démontrer

|ρ(X, Y )| ≤ 1 |Cov(X, Y )| ≤ σ(X)σ(Y ).

Soit

λ ∈ R,

on a

Le trinôme en

V(X + λY ) = V(X) + λ2 V(Y ) + 2λCov(X, Y ). λ

à droite dans l'égalité ci-dessus est toujours positif puisque

On en déduit que son discriminant est négatif ou nul :

V(X + λY ) ≥ 0.

∆ = 4(Cov(X, Y ))2 − 4V(X)V(Y ) ≤ 0. On en déduit donc le résultat.



Remarque 3.3.4 C'est la même preuve que celle de l'inégalité de Cauchy-Schwarz. Il faut impérativement la connaître.

3.3.

VECTEURS ALÉATOIRES DISCRETS

47

3.3.3 Loi multinomiale On commence par une généralisation du théorème binomiale : Soient un entier. On a

X

(x1 + ... + xk )n =

n1 ,...,nk ;n1 +...nk

x1 , ..., xk k

réels, soit

n

n! xn1 1 ...xnk k . n !n !...n ! k =n 1 2

On note parfois



n n1 , n2 , ..., nk

 =

n! n1 !n2 !...nk !

Ce nombre est le coecient multinomial. On passe maintenant à la loi multinomiale. Il s'agit d'une généralisation de la loi binomiale. On considère dans une population composée d'éléments de

m X

m

n

tirages équiprobables, indépendants

types, chaque type

j

étant en proportion

pj

:

pj = 1.

j=1

j = 1, .., m, comme étant le nombre d'éléments de type (N1 , ..., Nm ) suit une loi multinomiale de paramètre M(n, n1 , ..., nm ).

On dénit la variable aléatoire

j gurant dans n, p1 , ..., pm . On

Nj

pour

l'échantillon. Le vecteur la notera

Dénition 3.3.4 Le vecteur aléatoire X = (N1 , ..., Nm ) suit une loi multinomiale de paramètres n, p1 , ..., pm si

P(X = (n1 , ..., nm )) =



Pm

i=1

ni = n,

n! pn1 1 ...pnmm n1 !...nm !

n! n1 !...nm !

est le nombre de partitions de {1, ..., n} avec des sous-ensembles de cardinaux n1 , ..., nm .

Proposition 3.3.9 La j -ème loi marginale de X est une loi binomiale de paramètre n, pj Un élément tiré au hasard est soit du type probabilité

(1 − pj ) Aj

avec probabilité

: le nombre total d'éléments du type

loi binomiale de paramètre l'événement

j

n, pj .

j

pj

soit d'un autre type avec

dans l'échantillon suit donc une

On va retrouver cela par le calcul. Soit

nj

xé. On dénit

déni par

Aj := {(n1 , ..., nj−1 , nj , nj+1 , ..., nm );

P[Nj = nj ] = P[X ∈ Aj ] =

X Aj

X i6=j

ni = n − nj }

n! pn1 1 ...pnmm n1 !...nm !

X n! (n − nj )! n pj j (1 − pj )n−nj nj !(n − nj )! n1 !...nj−1 !nj+1 !...nm ! Aj   n nj = pj (1 − pj )n−nj

=

nj

48

CHAPITRE 3.

VARIABLES ALÉATOIRES DISCRÈTES

Nl , Nj , soient non corrélées, et a fortiori indépendantes. On calcule la covariance de deux marginales Nj , Nl . Le couple (Nj , Nl ) suit une loi multinomiale de paramètres : n, pj , pl , 1−(pj +pl ). En eet, lorsque l'on tire un échantillon de taille n, chaque élément tiré est soit de type j avec probabilité pj , soit de type l avec probabilité pl , soit d'un autre type avec probabilité 1 − (pj + pl ). On en déduit

Il n'y a aucune raison pour que les variables aléatoires

X

E[Nj Nl ] =

nj nl

(nj ,nl );nj +nl ≤n

X

=

(nj ,nl );nj +nl ≤n

n! n p j pnl (1 − pl − pj )n−nj −nl nj !nl !(n − nj − nl )! j l

(n − 2)! n −1 p j plnl −1 (1 − pl − pj )n−2−(nj −1)−(nl −1) (nj − 1)!(nl − 1)!(n − 2 − (nj − 1) − (nl − 1))! j × n(n − 1)pj pi

= n(n − 1)pj pl ce qui n'est pas égal à

E[Nj ]E[Nl ] = n2 pj pl .

3.3.4 Somme de variables aléatoires indépendantes Somme de variables de Bernoulli Proposition 3.3.10 Soient X1 , ..., Xn n variables indépendantes de loi de Bernoulli de paramètre p. La variable aléatoire

Y =

n X

Xi

i=1

suit une loi binomiale de paramètre (n, p).

Remarque 3.3.5 C'est de cette façon que nous avons introduit la loi binomiale au Chapitre

3. En fait nous allons voir que nous pouvons toujours construire une variable aléatoire de loi binomiale comme somme de Bernoulli indépendantes. Ce qui suit n'est pas clairement au programme, mais permet de comprendre l'indépendance. On considère une variable de Bernoulli de paramètre et note

S,

p

1. An de n copies indépendantes :

l'événement la variable de Bernoulli réalise

façon indépendante, on va construire

On se place sur l'espace

(Ωn , F ⊗n , P⊗n )

la probabilité produit. On dénit



F ⊗n

et

(Ω, F, P). On appelle succès, répéter n fois l'expérience, de

sur un espace

P⊗n

sont respectivement la tribu produit et

Xi : ω ∈ Ωn 7→ ωi .

Par dénition de la tribu produit

P⊗n ,

on a

P⊗n (Xi = 1) = P⊗n (Ω × Ω × ..., ×{S}, ×... × Ω) = P(Ω) × P({S})... × P(Ω) = P[{S}] = p. Soit

(x1 , ..., xn ) ∈ {0, 1}n .

On a

P⊗n [X1 = x1 , ..., Xn = xn ] = P⊗n [X1 = x1 ]...P⊗n [Xn = xn ] = pk (1 − p)n−k

3.3.

VECTEURS ALÉATOIRES DISCRETS

kP est le nombre Y = ni=1 Xi suit la où

P[Y = k] = (

de

xi , i ∈ [|1, |n]

valant

49

1.

On conclut immédiatement que la variable

loi suivante :

le nombre de façon de choisir

k

éléments parmi

k

n−k

n)×p (1−p)

  n k = p (1−p)n−k . k

Somme de variables binomiales Proposition 3.3.11 Soient X1 , ..., Xk des variables aléatoires binomiales de paramètres respectifs (n1 , p), ..., (nk , p). La variable aléatoire Y =

k X

Xi

i=1

est une de loi binomiale de paramètre (

Pk

i=1

ni , p).

D'après la proposition précédente, chaque variable

Xi

est somme de

ni

variables de Bernoulli

indépendantes. On les numérote de la façon suivante :

X1 =

n1 X

Bi , X2 =

n2 X

Bi , ..., Xk =

i=n1 +1

i=1

nk X

On a donc

Y =

k X

Xi =

i=1

ni X

k X

Bi

i=n1 +...+nk−1 +1

Bj =

i=1 j=n1 +...+ni−1 +1

D'après la proposition précédente, on a donc que

Y

n1 +...+n X k

Bl .

l=1

suit une loi binomiale de paramètre

(n1 +

... + nk , p).

Somme de variables de Poisson Proposition 3.3.12 Soient X1 , ..., Xk des variables aléatoires dénies sur un même espace, indépendantes de loi de Poisson de paramètre respectif λi . La variable aléatoire Y =

k X

Xi

i=1

suit une loi de Poisson de paramètre On le fait dans le cas donne donc

X1

et

X2

k = 2,

Pk

i=1

λi

et le soin de faire une récurrence sur

variables telles que

λj1 −λ1 P[X1 = j] = e j! P[X2 = l] =

λl2 −λ2 e l!

k

est laissé au lecteur. On se

50

CHAPITRE 3.

On cherche à calculer

P[X1 + X2 = n].

P[X1 + X2 = n] = P

n [

VARIABLES ALÉATOIRES DISCRÈTES

On a :

! {X1 = i} ∩ {X2 = n − i}

i=0

= =

n X i=0 n X i=0 n X

P(X1 = i, X2 = n − i) P(X1 = i)P(X2 = n − i)

λi1 −λ1 λn−i 2 e e−λ2 i! (n − i)! i=0 n n   X 1 X n i n−i (λ1 + λ2 )i −(λ1 +λ2 ) =e λ1 λ2 = e−(λ1 +λ2 ) . i! i=0 i i! i=0

=

Un outil très important pour étudier plus généralement les sommes de variables aléatoires est la notion de fonction génératrice. Cette notion n'est pas exigible mais apparaît implicitement dans de nombreux exercices. Nous soulignons également qu'une fonction génératrice n'est rien d'autre qu'une série entière (totalement au programme.) Soit dans

N.

La fonction génératrice associée à

X

X

une variable aléatoire à valeurs

est dénie de la façon suivante :

X

GX : s ∈] − 1, 1[7→ E[s ] =

∞ X

sk P[X = k].

k=0

La fonction génératrice caractérise entièrement la loi.

Proposition 3.3.13 Soient X et Y deux variables aléatoires. X et Y ont même loi si et seulement si GX = GY .

Démonstration. Que peut-on dire des coecients de deux séries entières égales ? 3.4

Exercices

Exercice 3.4.1 Soit n un entier ≥ 1. On considère l'expérience aléatoire qui consiste à lancer successivement n fois un dé (équilibré) et à noter les n résultats obtenus (dans l'ordre). 1. Décrire l'univers Ω associé à cette expérience aléatoire. Déterminer le cardinal de Ω. 2. Calculer la probabilité de l'évènement A = on obtient au moins un 6 . 3. Démontrer que pour avoir une probabilité supérieure ou égale à 0, 9 d'obtenir au moins un 6, il faut et il sut que : n≥

ln(10) ln(6) − ln(5)

Exercice 3.4.2 Une urne contient trois boules blanches et trois boules noires. On tire simultanément quatre boules de l'urne au hasard. Quelle est la probabilité qu'il y ait autant de blanches que de noires ?

3.4.

EXERCICES

51

Exercice 3.4.3 On considère un jeu de échettes. La cible est un disque de rayon 3. Par

simplicité, nous supposons que le joueur atteint toujours la cible. Supposons que le centre de la cible est situé à l'origine du plan R2 . Nous souhaitons étudier les emplacements des échettes sur la cible. Nous supposons que la cible est divisée en trois cercles centrés à l'origine C1 , C2 , C3 de rayons respectifs 1, 2, 3. Ces cercles divisent la cible en trois anneaux A1 , A2 , A3 avec Ak = {(x, y) ∈ R2 ; k − 1 ≤

p x2 + y 2 < k}.

1) Donner un univers Ω. 2) On suppose que la probabilité de tomber dans un anneau est proportionnelle à son aire. Calculer P(A1 ), P(A2 ), P(A3 )

3) Soit maintenant X la variable aléatoire qui donne le nombre de points selon l'emplacement de la échette. On suppose que la règle du jeu est la suivante : Si la échette tombe dans Ak alors le joueur remporte 3 − k + 1 points. Calculer l'espérance de X 4) Donner la fonction de répartition de X et tracer la. 5) On suppose maintenant que le joueur n'atteint pas la cible avec une probabilité donnée p > 0. On suppose que si le joueur atteint la cible alors il marque des points selon les mêmes règles que précédemment. Sinon, il marque 0 point. Mêmes questions que précédemment.

Exercice 3.4.4 (Minimum de deux variables aléatoires géométriques) Dans cet exer-

cice, p désigne un réel de ]0; 1[ et q = 1 − p. On considère deux variables aléatoires X et Y , indépendantes, et suivant toutes deux la même loi géométrique de paramètre p. 1. Soit i ∈ N . En remarquant que (X ≤ i) = ?

i [

(X = k), montrer que P(X > i) = q i .

k=1

2. Vérier que l'égalité précédente est encore vraie lorsque i = 0. 3. On dénit une variable aléatoire Z en posant Z = min(X, Y ), c'est-à-dire : ( X Z= Y

si X ≤ Y si Y < X

Expliquer pourquoi, pour tout i ∈ N : (Z > i) = (X > i) ∩ (Y > i)

4. En déduire P (Z > i), pour i ∈ N. 5. Soit i ∈ N∗ . En utilisant le fait que (Z > i − 1) = (Z > i) ∪ (Z = i), calculer P (Z = i), pour i ∈ N∗ . 6. Démontrer que Z suit la loi géométrique de paramètre 1 − q 2 .

Exercice 3.4.5

Le trousseau de clefs d'un gardien de nuit comporte dix clefs, dont une seule

ouvre la porte du poste de garde. Pour qu'il y pénètre, il y a deux scenarios possibles :



Cas

A

: il prend une clef au hasard, l'essaie, la met de côté si elle n'ouvre pas, et ainsi de

suite.

• Cas B

: il prend une clef au hasard, l'essaie, mais la laisse sur le trousseau si elle n'ouvre pas,

et ainsi de suite.

52

CHAPITRE 3.

On désigne respectivement par

XA

et

XB

VARIABLES ALÉATOIRES DISCRÈTES

les variables aléatoires égales aux nombres d'essais

(y compris le bon) avant succès, dans le premier et le second scenario. Déterminer la loi de probabilité et la fonction de répartition de

E[XA ]

Calculer

et

XA

et de

XB .

E[XB ].

Le gardien utilise la méthode

B

un jour sur trois. Un jour, après avoir essayé

8

clefs, il n'a

toujours pas ouvert la porte. Quelle est la probabilité pour qu'il ait utilisé la méthode

Exercice 3.4.6

B?

n un entier naturel non nul. Une personne eectue n lancers indépendants Xn le nombre de "piles" obtenus. Quelle est la loi de Xn ? quelle est son espérance ? sa variance ? Calculer la probabilité pour qu'à l'issue des n lancers, le nombre de piles soit strictement Soit

d'une pièce parfaitement équilibrée. Soit 1) 2)

supérieur au nombre de faces.

Exercice 3.4.7 (#) montage

A

et

B

Une entreprise de construction produit des objets sur deux chaînes de

qui fonctionnent indépendemment l'une de l'autre. Pour une chaîne donnée,

les fabrications des pièces sont indépendantes. On suppose que produit est

0.1

40%

A

60% des ob jets et B A soit défectueux B soit défectueux est

produit

des objets. La probabilité qu'un ob jet construit par la chaine

alors que la probabilité pour qu'un objet construit par la chaine

0.2. 1. On choisit au hasard un objet à la sortie de l'entreprise. On constate que cet objet est défectueux. Calculer la probabilité de l'événement l'ob jet provient de la chaîne A . 2. On suppose de plus que le nombre d'objets produits en une heure par aléatoire

Y

qui suit une loi de Poisson de paramètre

On considère la variable aléatoire par la chaîne

A

X

A

est une variable

λ = 20.

représentant le nombre d'objets défectueux produits

en une heure.

(a) Rappeler la loi de

Y

ainsi que la valeur de l'espérance et de la variance de

Y.

k et n deux entiers naturels, déterminer la probabilité conditionnelle P(Y =n) [X = k]. (On distinguera les cas k ≤ n et k > n ). En déduire, en utilisant le système complet d'événements (Y = i) i∈N , que X suit

(b) Soient

(c)

une loi de Poisson de paramètre 2 .

Solution. 1. Pour un objet pris à la sortie,

P (A) = 0.6

D =l'objet est défectueux. a P (D/A) = 0.1 et P (D/B) = 0.2

et

P (B) = 0.4

Soit On

et comme

(A, B)

est un système complet d'évé-

nements,

P (D) = P (D/A) P (A) + P (D/B) P (B) = 0.1 · 0.6 + 0.2 · 0.4 = 0.14 Si l'ob jet est défectueux, la probabilité de l'événement l'objet provient de la chaîne A est

P (A/D)

que l'on calcule par la formule de Bayes :

P (D/A) P (A) P (A ∩ D) = P (D) P (D) 0.1 · 0.6 0.06 6 3 = = = = 0.14 0.14 14 7

P (A/D) =

3.4.

EXERCICES

53

2. On suppose de plus que le nombre d'objets produits en une heure par aléatoire

Y

qui suit une loi de Poisson de paramètre

On considère la variable aléatoire par la chaîne

A

est une variable

λ = 20.

représentant le nombre d'objets défectueux produits

en une heure.

Y (Ω) = N V (Y ) = λ = 20

(a) On a

X

A

et pour tout entier

n : P (Y = n) =

λn e−λ . n!

E (Y ) = λ = 20

et

Y = n, X est le nombre d'objet défectueux parmi n, qui sont défectueux indépendemment les un des autres avec une même probabilité 0.1. Donc sachant

(b) Quand

Y = n, X ,→ B (n, 0.1) et P [X = k/Y = n] = 0 si k > n

(c) Comme

(Y = n)n∈N ,

et

P [X = k/Y = n] = Cnk 0.1k 0.9n−k

si

k≤n

est un système complet d'événements on a pour tout entier

P (X = k) =

+∞ X

k:

P [X = k/Y = n] P (Y = n)

n=0 série convergente dont on calcule la somme partielle en distinguant suivant que ou

n N ).

2. Donner les lois de

T1

3. Déterminer, lorsque

et

T2 .

n ≥ 2,

(Tn = 1), (Tn = 2), (Tn = n) n > N et n ≤ N ).

la probabilité des événements

(pour la dernière probabilité, on distinguera deux cas :

4. À l'aide de la formule des probabilités totales, justier l'égalité entier

k

tel que

(I)

suivante, pour tout

k N −k+1 P (Tn = k) + P (Tn = k − 1) N N E(Tn ) de la variable Tn , on considère la fonction polynomiale

P (Tn+1 = k) =

5. An de calculer l'espérance

Gn

(I)

1 ≤ k ≤ n.

dénie par :

∀x ∈ R, Gn (x) = (a) Quelle est la valeur de (b) Exprimer

E(Tn )

P (Tn = k)xk

k=1

Gn (1) ?

en fonction de

(c) En utilisant la relation

n X

(I),

G0n (1).

montrer que :

∀x ∈ R, Gn+1 (x) =

1 (x − x2 )G0n (x) + xGn (x) N

(d) En dérivant l'expression précédente, en déduire que :

  1 E(Tn+1 ) = 1 − E(Tn ) + 1 N (e) Prouver enn que l'espérance de

Tn

est donnée par :

 E(Tn ) = N (f ) L'entier

N



1 1− 1− N

étant xé, calculer la limite de

n 

E(Tn ) lorsque n tend vers +∞. Interpréter

le résultat.

Exercice 3.4.9 On lance n fois (n ≥ 3) une pièce de monnaie parfaitement équilibrée. Pour

tout i ∈ [|1, n|], on pose Ai = on a obtenu pile au i-ème lancer . 1. Soit X le nombre total de  piles  obtenu. Donner sa loi, son espérance et sa variance. 2. Si, à l'issue des n lancers, on obtient par exemple pile-pile-face-face-face-pile-. . . , on dit que l'on a une première série de longueur 2, parce qu'on a obtenu 2 piles au début (et pas plus), et une deuxième série de longueur 3, parce qu'on a obtenu ensuite 3 faces (et pas plus). Autre exemple : si l'on obtient face-face-pile-face-. . . , on a une première série de longueur 2 et une deuxième série de longueur 1. On note S1 la longueur de la première série et S2 la longueur de la deuxième série si elle existe. On convient de poser S2 = 0 s'il n'y a pas de deuxième série, c'est-à-dire si S1 = n. Déterminer S1 (Ω). 3. Justier l'égalité (S1 = 1) = (A1 ∩A2 )∪(A1 ∩A2 ). En déduire, en justiant soigneusement, 1 2

que P(S1 = 1) = .

3.4.

EXERCICES

55

4. En étudiant l'événement (S1 = k) à la manière de la question précédente, démontrer que :  k 1 ∀k ∈ [|1, n − 1|], P(S1 = k) = 2  n−1 1 . 5. Démontrer que P(S1 = n) = 2

6. Vérier, en utilisant les formules obtenues dans les deux questions précédentes, que : n X

P(S1 = k) = 1

k=1

7. Soit x ∈ R \ {1}. Démontrer que pour tout n ∈ N∗ : n X

ixi−1 =

i=1

nxn+1 − (n + 1)xn + 1 . (1 − x)2

Calculer l'espérance de S1 . 8. Justier l'égalité S2 (Ω) = [|0, n − 1|]. 9. Calculer P(S2 = 0). 10. Soit k ∈ [|1, n|]. Montrer que :   0 si k = n 1 si k = n − 1 P(S2 = 1|S1 = k) =  1 si k ≤ n − 2 2

11. En déduire que : P(S2 = 1) =

Exercice 3.4.10

Une urne contient

Exercice 3.4.11

Soit

N

1 2

boules numérotées de

1

à

N.

(n ≤ N ). On étudiera d'abord le cas avec remise, puis sans remise. Soit X et Y le plus petit et le plus grand des nombres obtenus a) Calculer P(X ≥ x) pour tout x ∈ [|1, n|]. En déduire la loi de X . b) Calculer P(Y ≤ y) pour tout y ∈ [|1, n|]. En déduire la loi de Y . que : pour tout

a) Déterminer

a

un nombre réel, et

k ∈ N,

X

On en tire

c) La variable aléatoire

Exercice 3.4.12

P[X = k] =

a 2k k!

X admet elle une espérance ? Si oui, la déterminer. X admet elle une variance ? Si oui, la déterminer.

Calculer la fonction de répartition de :

 la loi uniforme sur

{1, ..., n}

 la loi de Bernoulli de paramètre  la loi Binomiale de paramètres

4

p et

1 2

une à une

une variable aléatoire à valeurs dans

a.

b) La variable aléatoire

n

N,

telle

56

CHAPITRE 3.

 la loi géométrique de paramètre

p.

Exercice 3.4.13

On admet que si

0≤xk sinon.

si

k n

i=1 Comme

· P (N = k) .

Xi = n

est une v.a. binomiale de paramètres

k X

Xi = n, N = k .

i=1

!

i=1

De plus, comme on considère une somme de pendantes,

P

!

a

i=1

Pk

=

k X

k≥0

X1 , . . . , Xk , on !

est indépendant de

P

Xi = n, N = k

X

i=1

k≥0

k X

!

k

N

P(λ), P(N = k) = e−λ λk! .

est une v.a.

Finalement, on a

X k  λk pn e−λ X k! pn (1 − p)k−n e−λ P(S = n) = = (1 − p)k−n λk n k! n! k!(k − n)! k≥n k≥n et par un changement de variables dans la somme :

P(S = n) =

pn e−λ X 1 λn pn e−λ λ(1−p) (λp)n −λp (1 − p)k λk+n = e = e . n! k≥0 k! n! n!

Exercice 3.4.18 (Loi multinomiale #)

Une boîte contient

n jetons numérotés de 1 à n. On

tire un jeton au hasard, on note son numéro et on le remet dans la boîte. Si le numéro de ce jeton est

i,

alors on tire au hasard et sans remise

hasard dans trois urnes

U1 , U2

et

U3

X

Uk

k = 1, 2, 3,

on note

Xk

la variable

après cette opération.

la variable aléatoire donnant le numéro du jeton que l'on a tiré au départ dans la

boîte. Quelle est la loi de 2. Calculer pour 3.

jetons de la boîte que l'on distribue au

(vides au départ). Pour

aléatoire désignant le nombre de jetons de l'urne 1. Soit

i

X ? Déterminer la loi conjointe du couple (Xk , X), où k = 1, 2, 3.

k = 1, 2, 3,

l'espérance de

(a) Trouver la loi du vecteur aléatoire

Xk

(On pourra utiliser

X = X1 + X2 + X3 ).

(X1 , X2 , X).

(b) En déduire la loi du vecteur aléatoire

(X1 , X2 , X3 ).

solution 1. La loi de

X

est la loi uniforme sur

{1, .., n}.

Pour

1≤i≤n

et

0 ≤ j ≤ n,

P(Xk = j, X = i) = P(Xk = j|X = i)P(X = i) = P(Xk = j|X = i) · et sachant

{X = i},

la v.a.

Xk

est une binomiale de paramètres 1/3 et

0

 P(Xk = j, X = i) =

1 j n i



 1 j 3

si

 2 i−j 3

si

j>i j ≤ i ≤ n.

i.

1 n

On a donc

58

CHAPITRE 3.

2. Comme

X = X1 + X2 + X 3

VARIABLES ALÉATOIRES DISCRÈTES

et que les trois v.a.

3E[X1 ] = E[X] =

et donc

3.

X1 , X 2

et

X3

ont même loi,

1 n(n + 1) n 2

n+1 . 6 1 ≤ i ≤ n et 0 ≤ j, k ≤ n,

E[X1 ] =

(a) Pour

P(X1 = j, X2 = k, X = i) = P(X=i) (X1 = j, X2 = k)P(X = i) = Conditionnellement à

{X = i},

l'expérience revient à placer

L'espace des congurations possibles, qui est de cardinal uniforme. De plus, le nombre de congurations avec boules dans la seconde est

si

j+k ≤i

j

i

1 P(X=i) (X1 = j, X2 = k). n boules dans 3 urnes.

i

3 , est muni de la probabilité k

boules dans la 1ère urne et

i! j!k!(i − j − k)!

et 0 sinon.

On a donc

P(X1 = j, X2 = k, X = i) =

11 i! i n 3 j!k!(i − j − k)!

si

j + k ≤ i ≤ n.

(b) Par la question précédente, on a directement

P(X1 = j, X2 = k, X3 = l) =

Exercice 3.4.19 (#)

si

j + k + l ≤ n.

On joue à pile ou face avec une pièce non équilibrée. A chaque lancer la

probabilité d'obtenir pile est

X

1 1 (j + k + l)! n 3j+k+l j!k!l!

2/3, et face 1/3. Les lancers sont supposés indépendants. On note

la variable aléatoire réelle égale au nombre de lancers nécessaires pour l'obtention, pour la

première fois de deux piles consécutifs. Soit

n

pn la probabilité de l'événement (X = n). (X = 2), (X = 3), (X = 4), (X = 5). Déterminer la

un entier naturel non nul. On note

1) Expliciter les événements

p1 , p2 , p3 , p4

et

valeur de

p5

2) A l'aide de la formule des probabilités totales, en distinguant deux cas selon le résultat du premier lancer, montrer que

1 2 ∀n ≥ 3, pn = pn−2 + pn−1 . 9 3 3) En déduire l'expression de 4) Calculer

pn

en fonction de

E[X].

Exercice 3.4.20

1) Déterminer

α, β, γ

n

pour

n ≥ 1.

tels que pour tout

k ∈ N? ,

1 α β γ = + + k(k + 1)(k + 2) k k+1 k+2

3.4.

EXERCICES

2) Soit

a ∈ R.

59

Déterminer

a

pour que

pk =

a k(k + 1)(k + 2)

soit une loi de probabilité. 3) Cette loi de probabilité admet elle une espérance ? une variance ?

Exercice 3.4.21

Soit

X

une variable aléatoire à valeurs dans

1) Montrer que pour tout

n ∈ N? ,

n X

kP[X = k] =

converge. Montrer

n−1 X

! − nP(X > n).

P[X > k]

i=1

k=1 2) On suppose que

N? .

lim nP(X > n) = 0 et que la série que X admet une espérance et que

de terme général

n→∞

E(X) =

∞ X

uk = P(X > k)

P(X > k).

k=1 3) Réciproquement, on suppose que

X

admet une espérance. Montrer que

lim nP(X > n) = 0

n→∞ et en déduire

E[X] =

∞ X

P[X > k].

k=0

Exercice 3.4.22 1) Si 2) Si

Soit X une v.a.r discrète telle P E(X) existe, E(X) = ∞ k=1 P[X ≥ k]. E[X(X − 1)] existe,

E[X(X − 1)] = 2

Exercice 3.4.23 N

que

∞ X ∞ X p=2 n=p

On considère un entier naturel

boules numérotées de

1

à

N.

X(Ω) = N.

N

Montrer que

P[X ≥ n].

supérieur ou égal à

3.

Une urne contient

On y eectue des tirages successifs d'une boule avec remise de

la boule tirée après chaque tirage, jusqu'à obtenir pour la première fois un numéro déjà tiré.

TN

On note alors

le rang aléatoire de ce dernier tirage.

Par exemple, si on a obtenu successivement les numéros 1-5-4-7-3-5, la variable valeur 6. Alors que si on a obtenu 5-4-2-2 la variable 1) Déterminer la loi, l'espérance et la variance de 2) Soit

TN

prend la valeur 4.

T3 .

N ≥3

a) Déterminer l'ensemble des valeurs que peut prendre b) Calculer c) Prouver

TN .

P[TN = 2], P[TN = 3] et P[TN = N + 1] pour tout entier k de {1, ..., N }, les égalités  k−1 Y N! i P[TN > k] = = 1− . (N − k)!N k N i=0

En déduire la loi de la variable aléatoire

TN

TN

prend la

60

CHAPITRE 3.

Exercice 3.4.24

On joue à pile ou face avec une pièce non équilibrée. A chaque lancer la

probabilité d'obtenir pile est

X

VARIABLES ALÉATOIRES DISCRÈTES

2/3, et face 1/3. Les lancers sont supposés indépendants. On note

la variable aléatoire réelle égale au nombre de lancers nécessaires pour l'obtention, pour la

première fois de deux piles consécutifs. Soit

n

pn la probabilité de l'événement (X = n). (X = 2), (X = 3), (X = 4), (X = 5). Déterminer la

un entier naturel non nul. On note

1) Expliciter les événements

p1 , p2 , p3 , p4

et

valeur de

p5

2) A l'aide de la formule des probabilités totales, en distinguant deux cas selon le résultat du premier lancer, montrer que

1 2 ∀n ≥ 3, pn = pn−2 + pn−1 . 9 3 3) En déduire l'expression de 4) Calculer

pn

en fonction de

n

E[X].

Exercice 3.4.25

1) Déterminer

α, β, γ

pour

n ≥ 1.

tels que pour tout

k ∈ N? ,

1 α β γ = + + k(k + 1)(k + 2) k k+1 k+2 2) Soit

a ∈ R.

Déterminer

a

pour que

pk =

a k(k + 1)(k + 2)

soit une loi de probabilité. 3) Cette loi de probabilité admet elle une espérance ? une variance ?

Exercice 3.4.26 (A faire !) ?

N

Soit

P une probabilité et X

une variable aléatoire à valeurs dans

.

1) Montrer que pour tout

n ∈ N? ,

n X

kP[X = k] =

converge. Montrer

! P[X > k]

i=1

k=1 2) On suppose que

n−1 X

− nP(X > n).

lim nP(X > n) = 0 et que la série que X admet une espérance et que

n→∞

E(X) =

∞ X

de terme général

P(X > k).

k=1 3) Réciproquement, on suppose que

X

admet une espérance. Montrer que

lim nP(X > n) = 0

n→∞ et en déduire

E[X] =

∞ X k=0

P[X > k].

uk = P(X > k)

3.4.

EXERCICES

Exercice 3.4.27 1) Si 2) Si

61

X une v.a.r discrète telle P∞ E(X) = k=1 P[X ≥ k].

Soit

E(X) existe, E[X(X − 1)]

Soient

X

et

Y

 Déterminer la loi de



Montrer que

∞ X ∞ X p=2 n=p

P[X ≥ n].

deux variables aléatoires indépendantes, à valeurs dans

X T = min(X, Y ).

 Déterminer en fonction de la loi de

Exercice 3.4.29

X(Ω) = N.

existe,

E[X(X − 1)] = 2

Exercice 3.4.28

que

Y,

et de la loi de

la loi de

N.

Z =X +Y.

n variables aléatoires indépendantes de Bernoulli de paramètre p est une loi binomiale de paramètres n, p. Montrer que la somme de n variables aléatoires de Poisson de paramètres λ1 , ..., λn respectiPn vement est une loi de Poisson de paramètre i=1 λi

Exercice 3.4.30

 Montrer que la somme de

Une urne contient une boule blanche et une boule noire, les boules étant

indiscernables au toucher. On y prélève une boule, chaque boule ayant la même probabilité d'être tirée, on note sa couleur, et on la remet dans l'urne avec

c

boules de la couleur de la

boule tirée. On répète cette épreuve, on réalise ainsi une succession de tirages On considère les variables aléatoires

Xi = 1 Xi = 0 On dénit, pour

(Xi )1≤i≤n

dénies par :

(n ≥ 2).

si on obtient une boule blanche au i-ème tirage.

.

sinon

2 ≤ p ≤ n,

la variable aléatoire

Zp =

Zp

p X

par

Xi

i=1 1) Déterminer la loi du couple

(X1 , X2 ).

En déduire la loi de

Z2 3) a) Déterminer Zp (Ω). Soit p ≤ n − 1 b) Déterminer P(Xp+1 = 1|Zp = k) pour k ∈ Zp (Ω).

X2 .

2) Déterminer la loi de

En utilisant la formule des probabilités

totales, montrer que

P[Xp+1 = 1] = c) Montrer par récurrence que pour tout

1 + cE[Zp ] 2 + pc

p ∈ [|1, n|],

P[Xp = 1] = P[Xp = 0] =

1 2

Exercice 3.4.31 Soit une pièce avec probabilité d'avoir face p.  On lance la pièce n fois, soit X la variable aléatoire représentant le nombre de faces obtenues, et Y le nombre de piles. Quelle est la loi de X , la loi de Y ? montrer que les variables aléatoires X et Y ne sont pas indépendantes.  On lance maintenant la pièce N fois où N est un nombre aléatoire qui suit une loi de Poisson. On note encore X et Y le nombre de faces et le nombre de piles. Déterminer la loi du couple (X, Y ), en déduire que X et Y sont indépendantes, et donner leurs lois respectives.

62

CHAPITRE 3.

Exercice 3.4.32

n

On considère

VARIABLES ALÉATOIRES DISCRÈTES

urnes numérotées de

1

n.

à

La première urne contient des

boules blanches et des boules noires ; la proportion de boules blanches est vantes contiennent chacune On eectue

n

a

boules blanches et

a

p1 .

Les urnes sui-

boules noires.

tirages de la manière suivante : on tire une boule de la premiere urne que l'on

place dans la deuxième urne, puis on tire une boule de la deuxième urne que l'on place dans la troisième, et ainsi de suite jusqu'au tirage dans la dernière urne.

Pour

1 ≤ k ≤ n,

on désigne par

kème urne est blanche, égale à

0

Xj

la variable aléatoire égale à

fonction de

p1

et de

k ème

si la boule tirée de la

1) Déterminer les lois de probabilités de

X1

et

X2 ,

1

si la boule tirée dans la

urne est noire.

puis leurs espérances et leurs variances en

a.

2) Démontrer qu'il existe une valeur de

p1

pour laquelle

X1

et

X2

suivent la même loi de

probabilité.

p1 étudier l'indépendance de X1 et X2 . Pour 1 ≤ k ≤ n, on qk = P[Xk = 0]. existe une matrice M dépendant de a telle que pour k ∈ [|1, n − 1|]     pk+1 pk =M qk+1 qk

3) Pour cette valeur de

pk = P[Xk = 1]

4) Démontrer qu'il

5) Déterminer 6) Déterminer

M n pour n ∈ N, puis lim pn et lim qn .

n→∞

Exercice 3.4.33

Soit

déterminer la loi de

(X, Y )

un couple de variables aléatoires à valeurs dans

P({X = j} ∩ {Y = k}) = λ.

X

et de

Exercice 3.4.34

et

Y

Soit

X

N×N

tel que :

(j + k)λj+k ej!k!

f : x 7→ 2xe2x−1 − 1) Y . Les variables X et Y

(On pourra étudier

b) Déterminer les lois de

sur

R+ .

sont elles indépendantes ?

deux variables indépendantes vériant :

1 P[X = n] = P[Y = n] = 4 n ∈ N. Déterminer a. Calculer E[X]

Xn .

n→∞

∀(j, k) ∈ N2 ,

a) Déterminer

pose

et



1 + an n!



pour tout 1) 2)

et

3) Déterminer la

V(X) loi de S = X + Y .

Exercice 3.4.35

On admet que si

r ∈ N? ,  ∞  X 1 k+r−1 k = x (1 − x)r r − 1 k=0 0≤x a. La fonction un est alors croissante sur [0, a] et atteint donc son maximum en a : sup |un (x)| = an (1 − a) pour a assez grand converge. Pour cela, cherchons un équivalent de étudiant les variations de la fonction

x∈[0,a]

et la série de terme général ) et la série

P

n un

(an (1 − a))n

est convergente puisque

a 0, x 7→ ce est intégrable sur ]0, +∞[ et l'intégrale vaut α. On a donc c = α.

2. Si

3.

c = 1/π

4. Si 5.

α ≤ 0,

impossible. Si

α > 0, c = α/a

c=2

Exercice 4.4.2 (#) Soit X une variable aléatoire suivant une loi dont la densité de probabilité est donnée par

fX : R −→ R+ −x2 /2 x 7−→ xe 1R?+ (x).

Après avoir démontré leurs existences, déterminer l'espérance et la variance de la variable aléatoire X 2 . Solution. On pose Y = X 2 . On a alors E[Y ] = E[X 2 ] et V[Y ] = E[Y 2 ]−E[Y ]2 = E[X 4 ]−E[X 2 ]2 . L'existence de l'espérance et de la variance découle de la comparaison avec les intégrales de Riemann.

Calcul de l'espérance. Par dénition, Z E[Y ] =

+∞

x2 xe−x

2 /2

dx.

0 On introduit alors les fonctions suivantes

u : R+ → R+ 2 x 7−→ −e−x /2 , v : R+ → R+ x 7−→ x2 ,

84

CHAPITRE 4.

On a alors

VARIABLES ALÉATOIRES À DENSITÉ

+∞

Z

u0 (x)v(x)dx.

E[Y ] = 0 Puisque

u

et

E[Y ] =

v

sont de classe

2 [−x2 e−x /2 ]+∞ 0

C1

sur

R+ ,

+∞

Z +2

la formule d'intégration par parties donne

−x2 /2

xe

Z

+∞

xe−x

dx = 2

0

2 /2

dx = 2[−e−x

0

2 /2

]+∞ = 2. 0

Calcul de la variance. Nous avons ensuite +∞

Z

2

x4 xe−x

E[Y ] =

2 /2

dx.

0 On introduit alors les fonctions suivantes

u : R+ → R+ 2 x 7−→ −e−x /2 , v : R+ → R+ x 7−→ x4 , On a alors

+∞

Z

2

u0 (x)v(x)dx.

E[Y ] = 0 Puisque

u

et

v

sont de classe

2

E[Y ] =

C

1

sur

R+ ,

2 [−x4 e−x /2 ]+∞ 0

la formule d'intégration par parties donne

Z

+∞

+4

3 −x2 /2

xe

Z

+∞

x2 xe−x

dx = 4

0

2 /2

dx.

0

On eectue alors une nouvelle intégration par parties (ou alors on remarque que l'on a déjà fait le calcul plus haut) pour obtenir

2

Z

E[Y ] = 8

+∞

xe−x

2 /2

dx = 8[−e−x

2 /2

0

]+∞ = 8. 0

On en déduit que

V[Y ] = E[Y 2 ] − E[Y ]2 = 4.

Exercice 4.4.3 Pour quelles valeurs de α ≥ 0, l'espérance E(X α ) est-elle nie, si la densité de la loi de X est

fX : R −→ R+ x 7−→ C(1 + x2 )−m

où C ∈ R et m ∈ R. Réponse : α < 2m − 1.

Exercice 4.4.4 Soient a < b deux réels. Calculer E e−X si X suit une loi uniforme sur 

l'intervalle [a, b], c'est-à-dire si la densité de X est fX = Réponse. E e−X = 

e−b −e−a . b−a

1 1 b−a [a,b]

.

4.4.

EXERCICES

85

Exercice 4.4.5 (#)

1. Soit F la fonction de répartition d'une variable aléatoire X . On suppose que F est bijective. Soit U une variable aléatoire uniforme sur [0, 1]. Montrer que F −1 (U ) a même loi que X . 2. On suppose que X est une v.a. à valeurs dans R et ayant pour densité : f : y 7−→

1 π(1 + y 2 )

(on dit que X est une v.a. de Cauchy de paramètre 1). 3. Calculer la fonction de répartition de X . 4. Montrer que si U est une v.a. uniforme sur [0, 1], alors    1 Y = tan π U − 2

a même loi que X . Solution. 1. Déterminons la fonction de répartition de

F −1 (U )

:

P(F −1 (U ) ≤ x) = P(U ≤ F (x)) = F (x). 2.

Z

x

F (x) = −∞ 3.

F est strictement croissante F −1 . Soit y ∈ [0, 1],

1 π dy = Arctan(x) + . π(1 + y 2 ) π 2

et continue :

F

est donc inversible. Calculons son inverse

    1 π 1 π  y= Arctan(x) − ⇐⇒ π y − = Arctan(x) ⇐⇒ x = tan π y − π 2 2 2  −1 et donc F (y) = tan π y − π2 . On conclut que F −1 (U ) a même loi que X par question 1.

la

Exercice 4.4.6 (#) Soit X une variable aléatoire positive ayant une densité continue f et

telle que E[X r ] est nie pour r ≥ 1. 1. Montrer que

lim xr P(X > x) = 0.

x→+∞

Indication : trouver une expression de P(X > x) en fonction de f . 2. En déduire que Z ∞ E[X r ] =

rxr−1 P(X > x)dx.

0

Indication : Que vaut la dérivée de x 7−→ P(X > x) ? Solution.

86

CHAPITRE 4.

1. On a

P(X > x) =

R +∞ x

f (t)dt

VARIABLES ALÉATOIRES À DENSITÉ

et donc

r

x P(X > x) = x

r

+∞

Z

f (t)dt ≤

x et ce dernier terme tend vers 0 quand

x → +∞

Z

+∞

tr f (t)dt

x

puisque

E[X r ] =

R +∞ 0

tr f (t)dt

est nie.

2. On fait une intégration par parties. Puisque

f

x > 0, (P(X > x))0 = −f (x). On a alors Z A h iA Z A r−1 r rt P(X > x)dt = t P(X > t) + tr f (t)dt

est continue, on a pour

0

x

Le premier terme tend vers 0 d'après a) et le second vers

pour

A > 0,

0

E[X r ]

qui est nie.

Exercice 4.4.7 (#) Soit X une variable aléatoire telle que X et 2X ont même fonction de

répartition. Donner une équation vériée par la fonction de répartition de X et en déduire sa loi. Solution. On note F

x ∈ R. On a  x x F (x) = P(X ≤ x) = P(2X ≤ x) = P X ≤ =F . 2 2  x et en faisant tendre n En réitérant, on a alors que pour tous x ∈ R et n ∈ N, F (x) = F n 2 + − vers +∞, on a donc F (x) = F (0 ) si x > 0 et F (x) = F (0 ) si x < 0. Or, F est continue à + droite donc F (0 ) = F (0). La fonction F est donc constante sur ] − ∞, 0[ et sur [0, +∞[. Mais, par propriété des fonctions de répartition, F (−∞) = 0 et F (+∞) = 1. On en déduit que F (x) = 0 si x < 0 et F (x) = 1 si x ≥ 0, ce qui signie que P(X = 0) = 1 et donc X est nulle. la fonction de répartition de

X.

Soit

Exercice 4.4.8 Soit X une variable aléatoire de loi exponentielle de paramètre λ. On désigne

par [.] la fonction partie entière. 1) On pose Y = [X]. Donner la loi de Y , son espérance et sa variance. 2) Soit Z l'entier le plus proche de Y , donner la loi de Z .

Exercice 4.4.9 Soit X une variable aléatoire de loi normale centrée réduite. On note Y = Déterminer la fonction de répartition de Y et sa densité.

X2 2

.

Exercice 4.4.10 Soient X et Y deux variables aléatoires réelles indépendantes de densités respectives f et g et de fonctions de répartition respectives F et G. Donner les densités de U = max(X, Y ) et V = min(X, Y ).

Exercice 4.4.11 Soit X une variable aléatoire à densité. Soit g une fonction C 1 croissante.

Montrer que

Z E[g(X)] = g(0) +



g 0 (t)P[X > t]dt

0

Exercice 4.4.12 Soit (X1 , ..., Xn ), n variables indépendantes identiquement distribuées. Dé-

terminer la fonction de répartition de min(X1 , ..., Xn ). En supposant que la loi de X1 est une densité, exprimer la densité de min(X1 , ..., Xn ).

4.4.

EXERCICES

87

Exercice 4.4.13 (Exercice fondamental) Soient X et Y deux variables aléatoires (à densité ou discrètes) avec un moment d'ordre 2. En pensant à l'inégalité de Cauchy-Schwarz, démontrer que p p E[Y 2 ] E[X 2 ].

E[XY ] ≤

Exercice 4.4.14

La durée en heures de fonctionnement d'un ordinateur est une variable aléa-

toire continue de densité : x

f : x 7→ λe− 36 1) Calculer

si

x ≥ 0; 0

sinon.

λ.

2) Quelle est la probabilité que l'ordinateur fonctionne entre 10 et 36 heures ? 3) Quelle est la probabilité qu'il fonctionne moins de 36 heures ?

Exercice 4.4.15 La RATP estime que le retard en minutes du bus 156 est une variable aléatoire X de densité de probabilité f avec

f (x) = ax(10 − x) si x ∈ [0, 10] et 0 sinon.

1) Trouver a tel que f soit bien une densité de probabilité. 2) Calculer le retard moyen d'un bus et sa variance 3) Déterminer la fonction de répartition de X et calculer la probabilité qu'un bus ait un retard supérieur à 8 minutes. 4) Soit Y = X 2 , déterminer la fonction de répartition de Y puis sa densité de probabilité.

Exercice 4.4.16 (#) Soit f la fonction dénie sur R par :  2  f (t) = (1 + t)3  f (t) = 0

si t ≥ 0 si t < 0

1. Montrer que f est une densité d'une variable aléatoire Z 2. Déterminer la fonction de répartition FZ de Z . 3. Justier la convergence de l'intégrale : Z 0

+∞

2t dt (1 + t)3

La calculer en eectuant le changement de variable u = t + 1. 4. Prouver que Z admet une espérance et la déterminer. 5. Z admet-elle une variance ? Solution. 1. On vérie les caractéristiques d'une densité : 

f

est positive sur

 continue sur



R

R

88

CHAPITRE 4.

VARIABLES ALÉATOIRES À DENSITÉ

Z 

0

0

 si

x ≥ 0 : FZ (x) = Z

+∞

3. l'intégrale

0 En

+∞

en

±∞.

−∞

f est bien une densité de variable Rx On a FZ (x) = f (t) dt donc −∞  si x < 0 : FZ (x) = 0 Z Z Donc

2.

+∞

f est impropre f est prolongeable à gauche et à droite en 0 donc −∞ R0 R0 f = −∞ 0 = 0 (converge) −∞  K Z X Z K 2 1 1 f= =1− →1 3 dt = − 2 (1 + t) (1 + t) 0 (1 + K)2 0 0 Z +∞ Z +∞ f converge et vaut 1 et f converge et vaut 1. donc

x

0+ −∞

0

2t dt (1 + t)3

f =1−

Z

+∞

Or l'intégrale de Riemann

1Z d'intégrale à termes positifs, On eectue le changement de

0

1 (1 + x)2

n'est impropre qu'en

on a un équivalent simple :

dt : t = 0 ↔ r = 1 Z K

aléatoire.

+∞

2t 2t 2 3 = 3 3 ∼ 2 > 0. t (1 + t) t (1 + 1/t)

1 dt t2

est convergente car

2 > 1.

Donc par comparaison

+∞

2t dt converge. (1 + t)3 0 1 variable (u est de classe C sur [1, K + 1]) u = t + 1 : du ↔

Z K+1 Z K+1 2 2 2t 2 (u − 1) du = − du 3 dt = u3 u2 u3 (1 + t) 1 1  K+1 −2 −2 1 1 = +1 = + 2 + u u 1 K + 1 (K + 1)2 −→ 1 K→∞

Z donc

0

+∞

2t dt = 1 (1 + t)3

4. Espérance ? On étudie la convergence

Z 

R +∞ −∞

tf (t) dt

impropre en

0

±∞.

tf (t) dt = 0 Z +∞ 2t tf (t) dt = 3 dt = 1 (d'après la question précédente) (1 + t) 0 0 R +∞ donc tf (t) dt converge et Z admet une espérance E (Z) = 1 −∞

Z−∞ +∞ 



5. Comme

2t2 2 3 ∼ t (1 + t)

dont l'intégrale diverge en

+∞,

alors

Z2

n'a pas d'espérance et

Z

n'a pas de variance.

Exercice 4.4.17 (#) On considère trois variables aléatoires X , Y et Z indépendantes et suivant la loi exponentielle de paramètre λ.

4.4.

EXERCICES

89

1. Déterminer la loi de Y + Z (on pourra calculer sa densité). 2. (a) Déterminer la densité de la variable aléatoire D = Y + Z − X sur R+ . (b) Calculer P(X ≤ Y + Z). 3. Déterminer l'événement complémentaire de l'événement {X ≤ Y + Z} ∩ {Y ≤ Z + X} ∩ {Z ≤ X + Y }

et calculer sa probabilité. 4. Quelle est la probabilité pour qu'on puisse construire un triangle (éventuellement aplati) dont les côtés aient pour longueurs X , Y et Z ? solution 1.

Y +Z

est encore une variable aléatoire à valeurs dans

dantes, une densité

fY +Z

x>0 Z

de

−∞

2.

fY +Z (x) = 0

pour

(a) La variable aléatoire

x > 0,

pour

fY (t)fZ (x − t)dt =

0

Y +Z

−X . On R dans R.

On a donc besoin de calculer la densité de une fonction continue bornée de

+∞ −λy

E[Φ(−X)] =

Φ(−y)λe

u=−y

x > 0, Z

−X

est donc

(4.2)

utilise la méthode vue en TD.

Z

0

Φ(u)λeλu du.

dy =

0 La densité de

et, à nouveau par convolution,

fY +Z (t)f−X (x − t)dt.

−∞

Z

−∞

u 7−→ λeλu 1]−∞,0] (u)

et en revenant à (4.2), on a pour

+∞

fD (x) =

2

λ te

−λt

sont indépen-

+∞

fD (x) =

Φ

Z

et

λe−λt λe−λ(x−t) = λ2 xe−λx .

est indépendante de

Z

Soit

Y

x

Z

x ≤ 0.

−X

et comme

peut être dénie par convolution, ce qui donne pour

+∞

fY +Z (x) = De plus,

Y +Z

R+

λ(x−t)

1[0,+∞[ (t)λe

−∞

3 λx

1]−∞,0] (x − t)dx = λ e

Z

+∞

te−2λt dt.

x

Le calcul de cette intégrale se fait à l'aide d'une intégration par parties, ce qui donne pour

x>0 λ (2λx + 1)e−λx . 4

fD (x) = (b) On a

P(X ≤ Y + Z) = P(D ≥ 0) =

Z 0

+∞

λ fD (x)dx = 4

En intégrant à nouveau par parties, on obtient :

Z

+∞

(2λx + 1)e−λx dx.

0

P(D ≥ 0) = 3/4.

90

CHAPITRE 4.

VARIABLES ALÉATOIRES À DENSITÉ

C = {X ≤ Y + Z} ∩ {Y ≤ Z + X} ∩ {Z ≤ X + Y }. L'événement complémentaire est C = {X > Y + Z} ∪ {Y > Z + X} ∪ {Z > X + Y }. Les trois événements constituant la réunion précédente sont deux à deux disjoints (si on avait par exemple {X > Y + Z} et {Y > Z + X}, on aurait {X > 2Z + X}, ce qui est clairement impossible puisque Z + est à valeurs dans R ). De plus, d'après la question b), chacun de ces événements a pour probabilité 1/4. c On en déduit que P(C ) = 3/4.

3. Posons

c

4. On peut construire un triangle de côtés donnés si et seulement si chacun de ces nombres est inférieur ou égal à la somme des deux autres, ce qui correspond à la réalisation de l'événement

C

de probabilité 1/4 .

Exercice 4.4.18 Dans cet exercice, n désigne un entier naturel non nul. nxn−1 si x ∈ [0; 1] 0 sinon

1. Soit fn la fonction dénie par : fn (x) =

Montrer que fn est une densité de probabilité. 2. On considère une variable aléatoire Xn réelle dont une densité de probabilité est fn . On dit alors que Xn suit une loi monôme d'ordre n. (a) Reconnaître la loi de X1 . (b) Dans le cas où n est supérieur ou égal à 2, déterminer la fonction de répartition Fn de Xn , ainsi que son espérance E (Xn ) et sa variance V (Xn ). 3. On considère deux variables aléatoires Un et Vn dénies sur le même espace probabilisé (Ω, A, P ), suivant la loi monôme d'ordre n (n > 2) et indépendantes, c'est-à-dire qu'elles vérient en particulier l'égalité suivante : ∀x ∈ R,

P (Un 6 x ∩ Vn 6 x) = P (Un 6 x) P (Vn 6 x)

On pose Mn = sup (Un , Vn ) et on admet que Mn est une variable aléatoire dénie, elle aussi, sur (Ω, A, P ).

(a) Pour tout réel x, écrire, en justiant la réponse, l'événement (Mn 6 x) à l'aide des événements (Un 6 x) et (Vn 6 x). (b) En déduire une densité de Mn . Vérier que Mn suit une loi monôme dont on donnera l'ordre, puis déterminer sans calcul E (Mn ). (c) On pose Tn = inf (Un , Vn ). Exprimer Mn + Tn en fonction de Un et Vn , puis en déduire, sans calcul d'intégrale, la valeur de E (Tn ).

Dans cet exercice,

n

désigne un entier naturel non nul.



1. Soit

fn

la fonction dénie par :

nxn−1 si x ∈ [0; 1] 0 sinon R− {0, 1} (en fait, en 0 elle

fn (x) =

fn est positive sur R et continue sur R +∞ f n est impropre en ±∞ car fn est continue par morceaux R−∞ R0 0 f = −∞ 0 converge et est nulle. −∞ n R +∞ R +∞ fn = 1 0 = 0 1 R1 R 1 n−1 f = nx dx = [xn ]1x=0 = 1 car 0n = 0 pour n ∈ N∗ n 0 0 R +∞ Donc f converge et vaut 1. −∞ n Donc fn est bien une densité de probabilité.

est continue)

sur

R

4.4.

EXERCICES

91

2. On considère une variable aléatoire dit alors que

Xn

Xn

réelle dont une densité de probabilité est

suit une loi monôme d'ordre

 (a) Pour sur

n = 1 la densité est : f1 (x) =

1 0

fn .

On

n. si

x ∈ [0; 1] sinon

donc

X1

suit une loi uniforme

[0, 1]

(b) La fonction de réparition de

Xn

est donnée par :

Rx

Fn (x) = −∞ f où il faut distinguer suivant que x < 0 : 0 ≤ x ≤ 1 et x > 1 : Rx  si x < 1 alors Fn (x) = 0=0 −∞ R Rx 0  si 0 ≤ x ≤ 1 alors Fn (x) = 0 + 0 ntn−1 dt = 0 + [tn ]x0 = xn −∞ Rx R 1 n−1 R0 0 = 0 + [tn ]10 + 0 = 1 nt dt + 0 +  si 1 < x alors Fn (x) = 1 0 −∞ R +∞ Pour calculer E (Xn ) on étudie la convergence et on calcule tfn (t) dt qui −∞ impropre en ±∞ R0 R0 t fn (t) dt = −∞ 0 = .0 −∞ R +∞ R +∞ 0=0 t f (t) dt = n  1 Z1 1 Z 11 Z 1 n n+1 n n−1 n t fn (t) dt = t nt dt = nt dt = t = n+1 n+1 0 0 0 t=0 n Donc Xn a une espérance et E (Xn ) = n+1  1 Z 1 Z 1  n n+2 n n+1 2 2 nt dt = t fn (t) dt = = De même pour E Xn = t n+2 n+2 0 0 0 Donc X a une variance et  2   n n 2 2 V (Xn ) = E Xn − E Xn = − n+2 n+1 2 n + 2n + 1 − n (n + 2) = n (n + 2) (n + 1)2 n = (n + 2) (n + 1)2

est

Un et Vn dénies sur le même espace probabilisé (Ω, A, P ), suivant la loi monôme d'ordre n (n > 2) et indépendantes, c'est-à-dire qu'elles

3. On considère deux variables aléatoires

vérient en particulier l'égalité suivante :

∀x ∈ R,

Mn = sup (Un , Vn ) sur (Ω, A, P ).

On pose aussi, (a)

P (Un 6 x ∩ Vn 6 x) = P (Un 6 x) P (Vn 6 x)

(Mn 6 x)

et on admet que

Mn

est une variable aléatoire dénie, elle

x c'est à dire tous sont x et (Mn 6 x) = (Un 6 x) ∩ (Vn 6 x) Comme Un et Vn sont indépendantes, on a alors : p (Mn 6 x) = p (Un 6 x)·p (Vn 6 x) En notant F la fonction de répartition d'une loi monôme et G celle de Mn on a est l'événement le plus grand es tplus petit que

plus petit que

(b)

alors :

G (x) = F (x) · F (x) = F (x)2 pour tout x réel. Comme F est la fonctio de répartition d'une variable

à densité, on sait

92

CHAPITRE 4.

 que

F

VARIABLES ALÉATOIRES À DENSITÉ

est continue sur

1

C sur F 0 = fn

 de classe  et que

R R− {0, 1}

(là où

fn

est continue)

Donc  que 

G

G

est continue sur

de classe

R comme R− {0, 1}

composée de fonctions continues.

0

est une variable à densité et suit une

E (Mn ) =

2xn nxn−1 = 2nx2n−1 si x ∈ [0; 1] 0 sinon loi monôme d'ordre 2n



G = 2F (x) F (x) = 2F (x) fn (x) =

Mn

et donc

sur

0

 et que Donc

C

1

2n 2n + 1

Tn = inf (Un , Vn ). On a Mn + Tn = Un + Vn (car l'un est le plus petit et l'auter le plus grand) n 2n De plus E (Un ) = E (Vn ) = alors E (Un + Vn ) = E (Un ) + E (Vn ) = n+1 n+1 Et comme Tn = Mn + Tn − Mn = Un + Vn − Mn on a nalement

(c) On pose

E (Tn ) = E (Un + Vn ) − E (Mn ) 2n 2n − = n + 1 2n + 1 2n2 = (n + 1) (2n + 1)

Exercice 4.4.19 (Inégalité de Paley-Zigmund) Soit X une variable positive, non nulle, ayant un moment d'ordre 2. Montrer

P (X ≥ αE[X]) ≥ (1 − α)2

(E[X])2 E[X 2 ]

pour tout α ∈]0, 1[.

Exercice 4.4.20 (#) Soit X une variable aleatoire normale de moyenne µ = 2 de variance σ 2 = 4.

1. Soit la variable T = (X − µ)/σ . Quelle loi de probabilité suit T ? 2. On considère l'événement {X < 1, 5}. Quel est l'événement équivalent pour T ? Quelle est la probabilité correspondante ? 3. Même question pour l'évenement {X > −2}. 4. Soit l'évenement {−1 ≤ T < 1}. Quel est l'événement équivalent pour X ? Quelle est sa probabilité ? 5. Déterminer les valeurs x telles que P(X < x) = 0, 76 ; P(X ≥ x) = 0, 6 et P(0 ≤ X < x) = 0, 40. Solution. 2.

P(X < 1, 5) = P(T < −0, 25) = 1 − P(T ≤ 0, 25) = 0, 401

3.

P(X > −2) = P(T > −2)P(T ≤ 2) = 0, 977

4.4.

4.

EXERCICES

93

P(−1 ≤ T < 1) = P(T < 1)−P(T < −1) = P(T < 1)−P(T > 1) = P(T < 1)−(1−P(T ≤ 1)) et donc P(−1 ≤ T < 1) = 2P(T < 1) − 1 = 0, 682 .

5. 





x−2 ). Donc x−2 2 2

P(X < x) = P(T < P(X ≥ x) = P T ≥

x−2 2



= 0, 71

=P T ≤

2−x 2



et

x = 3, 42

et donc

.

x = 1, 5

.

  = P T < x−2 − P (T < −1) . On a alors P(0 ≤ X < x) = P −1 ≤ T < x−2 2 2     x−2 x−2 P(0 ≤ X < x) = P T < − 1 + P(T ≤ 1) = P T < − 0, 16 2 2 P(T ≤ 1) = 0, 84). = 0, 56. On a alors-+ x = 2, 3

(car d'après la table de la loi normale,

x

On cherche donc

tel que

P T <

x−2 2

.

Exercice 4.4.21 (#) Le taux de glycémie d'une population est répartie suivant une loi nor-

male. Une enquête auprès de l'ensemble de cette population montre que 84,1% des individus ont un taux inférieur à 1,40 g/l et 2,3% ont un taux supérieur à 1,60 g/l. 1. A l'aide de la table de la loi normale, déterminer la moyenne et la variance du modèle. 2. En admettant qu'un taux de glycémie supérieur à 1,30 g/l nécessite un traitement, quel pourcentage de cette population devra t'on traiter ? Solution. 1. Notons respectivement note

X.

m

et

σ2

la moyenne et la variance du taux de glycémie que l'on

On a

 0, 841 = P(X < 1, 4) = P

X −m 1, 4 − m < σ σ

 .

N (m, σ 2 ), N =

X−m est une v.a. normale σ 1,4−m utilisant la table de la loi normale, on a donc = 1. De même, σ Comme

X

est une v.a. normale

N (0, 1).

En

  1, 6 − m 0, 977 = P(X < 1, 6) = P N < σ et

1,6−m σ

= 2.

Pour trouver

m

et

σ,

il sut donc de résoudre le système

σ + m = 1, 4 2σ + m = 1, 6 qui a pour solution 2. Il sut de calculer

m = 1, 2 σ = 0, 2

.

X

est donc une v.a.

N (1, 2; 0, 04).

P(X > 1, 3) = P(N > 0, 5) = 1 − P(N ≤ 0, 5) = 0, 31

.

Exercice 4.4.22 (#) Soit X une variable aléatoire gaussienne centrée et réduite (on note X ∼ N (0, 1)). Trouver la densité de la variable aléatoire Y = X 2 .

Solution. La densité de X 2

est

e−y/2 f (y) = √ 1[0,+∞[ (y). 2πy

94

CHAPITRE 4.

Exercice 4.4.23

On considère

N

de loi normale

P(ε = −1) = P(ε = 1) = 1/2. 0 1. Montrer que N := εN a même loi que N loi que N ). 0 2. Est-ce que N + N est une v.a. normale ?

VARIABLES ALÉATOIRES À DENSITÉ

N (0, 1)

et

ε,

indépendante de

(on pourra d'abord montrer que

N, −N

telle que

a même

Solution. 1. Calculons la fonction de répartition de

N 0.

Pour

x ∈ R,

P(N 0 ≤ x) = P(εN ≤ x) = P(ε = 1, εN ≤ x) + P(ε = −1, εN ≤ x) = P(ε = 1, N ≤ x) + P(ε = −1, N ≥ −x) = P(ε = 1)P(N ≤ x) + P(ε = −1)P(N ≥ −x) puisque les variables

ε

et

N

sont indépendantes. De plus, en utilisant la dénition de

ε

et la propriété de symétrie de la loi normale centrée réduite,

1 1 P(N 0 ≤ x) = P(N ≤ x) + P(N ≤ x) = P(N ≤ x). 2 2 Les 2 v.a.

N

et

N0

ont donc même fonction de répartition : elles ont donc même loi.

2. En utilisant l'indépendance de

N

et

ε,

on remarque que

1 1 ·1= 2 2 (on rappelle que comme N est une variable à densité, on a P(N 6= 0) = 1−P(N = 0) = 1). 0 0 On a donc montré que P(N + N = 0) = 1/2. Cette probabilité étant non nulle, N + N P(N + N 0 6= 0) = P((ε + 1)N 6= 0) = P(ε + 1 6= 0)P(N 6= 0) =

ne peut pas être une variable à densité et a fortiori pas une v.a. normale.

N et N 0 sont N + N 0 est une

Rappel de cours : Si

pendantes, alors

N (µ1 , σ12 ) N (µ1 + µ2 , σ12 + σ22 ).

deux variables normales v.a. normale

et

N (µ2 , σ22 )

indé-

Cet exercice fournit donc un contre-exemple à cette propriété quand les 2 v.a. sont dépendantes.

Exercice 4.4.24 (dicile) Soient a et b deux réels strictement positifs et s ∈]0, 1[. R 1) Etablir la convergence de l'intégrale J = aJ ).

. Calculer sa valeur (indication calculer

+∞ 1 du eu +a 0

On considère une suite de variables aléatoires (Yk )k≥1 dénies sur (Ω, F, P), indépendantes et suivant la même loi exponentielle de paramètre b. On considère également sur le même espace probabilisé Ω, une variable aléatoire N indépendantes des Yk , suivant une loi géométrique de paramètre s. On va étudier Z := max{Y1 , ..., YN }. ? 2) Soit j ∈ N et t > 0. Calculer la probabilité conditionnelle P[Z ≤ t|N = j] 3) En déduire la fonction de répartition de Z et déterminer une densité. 4) Montrer que Z a une espérance et que l'on a E[Z] =

− ln(s) . b(1 − s)

Seul le résultat de la question 4 est nécessaire pour traiter les questions suivantes :

4.4.

EXERCICES

95

5) Soit g la fonction dénie sur [0, ∞[ par g(0) = 1 et g(t) =  Montrer que g est continue et bornée sur [0, +∞[.  Etablir que pour tout t > 0 et n ∈ N, on a l'égalité g(t) = g(t)e

−(n+1)t

+

n X

te−t 1−e−t

pour t > 0.

te−(k+1)t .

k=0 +∞ −(k+1)t dt etP la calculer. 6) Justier la convergence R ∞ de l'intégrale 0 te 1 7) Montrer alors que 0 g(t)dt est convergence et égale à ∞ k=1 k2 P∞ 1 2 8) On rappelle que k=1 k2 = π6 . Montrer que la valeur moyenne de la quantité E[Z] sur ]0, 1[, R 1 − ln(s) 2 c'est à dire 0 b(1−s) ds, est égale à π6b .

R

Exercice 4.4.25

On considère une fonction

F

F (x) = a

1) Déterminer les valeurs de

dénie par

x ≤ −1 ,

si

F (x) = bx + c

si

x ∈] − 1, 1[ ,

F (x) = d

si

x≥1.

a, b , c

d

et

pour que

F

soit une fonction de répartition d'une

variable aléatoire à densité. 2) Représenter graphiquement

F.

3) Déterminer la densité de probabilité associée à

Exercice 4.4.26

Soit

f

la fonction de

R

∀x ∈ [2, 4[ f (x) = λ 1) Déterminer

3)

pour que

f

R+

1 ; (1 − x)2

dénie par

f (x) = 0 x ∈ / [2, 4[ .

soit une densité de probabilité.

f . Déterminer sa fonction de répartition F . Calculer l'espérance E(X) et la variance V (X) de la variable aléatoire X . On pourra utiliser

2) Soit

X

λ∈R

dans

F.

une variable aléatoire de densité

les égalités

x = (x − 1) + 1 ,

Exercice 4.4.27

Soit

X

x2 = (x − 1)2 + 2(x − 1) + 1 .

une variable aléatoire réelle de densité

pX .

Déterminer la densité de

Y dans les cas suivants : Y = aX + b où a, b sont des nombres réels et a 6= 0 ; Y = X2 ; Y = exp(X).

la variable aléatoire   

Résoudre cet exercice en utilisant les deux méthodes suivantes : le calcul de la fonction de répartition, l'utilisation du théorème de transfert.

Exercice 4.4.28

Soit

X

une variable aléatoire de loi normale centrée réduite.

 Démontrer que pour tout variable aléatoire

X

k ∈ N,

X

R∞ 0

x2

xk e− 2 dx

est convergente. En déduire que la

admet des moments de tout ordre.

admet

x2

x ∈ R 7→ px (x) = √12π e− 2 0 comme espérance et 1 comme

 Démontrer que l'application  Montrer que

l'intégrale

est bien une densité de probabilité. variance.

96

CHAPITRE 4.

VARIABLES ALÉATOIRES À DENSITÉ

Y = σX + m avec σ, m deux réels non-nuls suit une loi que Y admet des moments de tout ordre et a pour espérance

 Montrer que la variable aléatoire normale

m

N (m, σ). σ2.

En déduire

et variance

Exercice 4.4.29 FX (x)

On considère une variable aléatoire réelle

si

x 0, P[|X| > a] ≤ 99

E[|X|] a

100

CHAPITRE 5.

THÉORÈMES LIMITES

Démonstration. Soit A = {|X| > a}, on a E[1A ] = P(A). De plus |X| = |X|1|X|≤a + |X|1|X|>a ≥ a1|X|>a d'où

P[|X| > a] ≤

E[|X|] . a



Proposition 5.1.2 (Inégalité de Tchebychev) Soit X une variable possédant un moment

d'ordre 2, alors

∀a > 0, P[|X − E(X)| > a] ≤

Démonstration.

V(X) . a2

C'est immédiat par l'inégalité de Markov appliquée à

Y = |X − E(X)|2 .

Vous

pouvez également suivre le même argument que précédemment (à savoir faire).

Théorème 5.1.3 (Loi faible des grands nombres I) Soit (Xn , n ≥ 1) une suite de va-

riables aléatoires réelles dénies sur un même espace (Ω, F, P) indépendantes, de même Pn es1 pérance et variance. On dénit la moyenne empirique des variables (Xn ) par Zn = n i=1 Xi . Alors, Zn −→ E[X1 ] en probabilité. n→∞

Démonstration. L'inégalité de Tchebyche nous donne        V Snn Sn Sn Sn P | −E |> t = P | − E[X]|> t ≤ . n n n t2 D'autre part

V

Sn n 2 t



1 V(Sn ). n2 t2

=

Par indépendance, cette dernière quantité est égale à

n 1 X V(X) V(Xi ) = . 2 2 n t i=1 nt2 On conclut que

Sn converge en probabilité vers la constante n

E[X]. 

Dénition 5.1.2 Sous réserve d'existence des quantités manipulées, on dit que la suite (Xn , n ≥ 1)

 converge en moyenne vers X si lim E (|Xn − X|) = 0 n→∞  converge en moyenne quadratique vers X si lim E (|Xn − X|2 ) = 0 n→∞

Proposition 5.1.4 Si (Xn , n ≥ 1) converge en moyenne vers X , alors E[Xn ] −→ E[X] n→∞

Démonstration. Par la seconde inégalité triangulaire ||E[Xn ]| − |E[X]|≤ E[|Xn − X|] La quantité à droite tend vers

0

par dénition.

On énonce alors le théorème suivant :



5.1.

NOTIONS DE CONVERGENCE DE SUITES ALÉATOIRES

101

Théorème 5.1.5 (Convergence en moyenne quadratique) Soit (Xn , n ≥ 1) une suite de

variables aléatoires réelles indépendantes de même loi etPde carré intégrable (i.e possédant un moment d'ordre 2). La suite des moyennes empiriques n1 ni=1 Xi converge en moyenne quadratique vers E[X1 ]. Démonstration. On a : n

1X E || Xi − E[X1 ]|2 n i=1

!

n

=V

1X Xi n i=1

! .

Or par indépendance, et car les variables on même loi, on a :

n

V

1X Xi n i=1

On obtient la convergence souhaitée.

! =

n 1 X 1 V(Xi ) = V(X1 ). 2 n i=1 n



Proposition 5.1.6 La convergence en moyenne quadratique implique la convergence en moyenne, qui implique la convergence en probabilité. Démonstration...

5.1.2 Convergence en loi Dénition 5.1.3 Soit (Xn , n ≥ 1) une suite de variables aléatoires. On note leur fonction

de répartition Fn . Soit X une variable aléatoire. de fonction de répartition F . On dit que (Xn , n ≥ 1) converge en loi vers X et on note L

Xn −→ X n→∞

Si pour tout x point de continuité de F on a Fn (x) −→ F (x). n−→∞

Comme son nom l'indique, cette convergence est relative aux lois des variables et pas aux variables elles-mêmes contrairement à la convergence en probabilité, on ne peut pas munir

L0

d'une distance pour cette convergence (on peut le faire pour les mesures de probabilités

associées). On admet la proposition suivante :

Proposition 5.1.7 (Convergence en loi et fonctions tests) L

Xn −→ X n→∞

si et seulement si, pour toute fonction continue bornée φ de Rd dans R, on a E[φ(Xn )] −→ E[φ(X)]. n→∞

La proposition nous permet de prendre des fonctions continues bornées à la place d'indicatrice de fermés. Sa démonstration (que nous ne faisons pas) est basée sur une approximation de l'indicatrice par des fonctions régulières. La démonstration n'est pas triviale et n'est pas au programme.

102

CHAPITRE 5.

THÉORÈMES LIMITES

Proposition 5.1.8 On a l'implication suivante Xn −→ X en probabilité =⇒ Xn −→ X en loi. n→∞

n→∞

La réciproque est fausse. Démonstration.

On va utiliser la proposition précédente. Soit

qui converge en probabilité vers

X.

Si

φ

elle est uniformément continue. Pour tout

|φ(x) − φ(y)| ≤ .

(Xn , n ≥ 1)

une suite de v.a

est une fonction continue à support compact, alors

 > 0,

il existe

η > 0

On a donc

tel que si

|x − y| ≤ η

on a

|E[φ(Xn ) − φ(X)]| ≤ E[|φ(Xn ) − φ(X)|] = E[|φ(Xn ) − φ(X)|1{|Xn −X|≤η} ] + E[|φ(Xn ) − φ(X)|1{|Xn −X|>η} ] ≤  + 2||φ||∞ P[|Xn − X| > η]. On a donc

lim sup|E[φ(Xn ) − φ(X)]| ≤ . n→∞

Ceci est vrai pour tout

>0

donc

lim |E[φ(Xn ) − φ(X)]| = 0,

n→∞



on conclut par la proposition précédente.

5.1.3 Approximations de certaines lois et théorème central limite Théorème 5.1.9 (Approximation loi hypergéométrique-loi binomiale) Soit (Xk , k ≥

1) une suite de variables aléatoires de loi hypergéométrique de paramètres (k, n, p). La suite (Xk , k ≥ 1) converge en loi vers une variable X binomiale de paramètre (n, p)

Remarque 5.1.1 La loi hypergéométrique résulte d'un tirage sans remise alors que la loi binomiale d'un tirage avec remise. A la limite, que l'on "remette les boules" dans l'urne ou pas, on obtient la loi binomiale.

Démonstration. Tout d'abord, la variable Xk prend ses valeurs dans [| max{0; n−k(1−p)}, min{n, kp}|]. On a de plus

kp j



P[Xk = j] =

k(1−p) n−j  k n



(kp)! k(1 − p) n!(k − n)! × × j!(kp − j)! (n − j)!(k(1 − p) − n + j)! n!   n (kp)! k(1 − p) (k − n)! = × × . j (kp − j)! (k(1 − p) − n + j)! n!

=

En remarquant que

q! (q−l)!

= Alq ∼ q l , q→∞

on obtient

    n (N p)k (N (1 − p))n−k n k P[Xk = j] ∼ = p (1 − p)n−k . n k→∞ k N k

5.1.

NOTIONS DE CONVERGENCE DE SUITES ALÉATOIRES

103

k , n − k(1 − p) ≤ 0 et kp ≥ n, Xk prend donc ses valeurs dans [|0, n|]. obtenue, pour tout j ∈ [|0; n|], P[Xk = j] −→ P[X = j], où X suit une

A partir d'un certain rang D'après l'équivalence

loi binomiale. On en déduit la convergence simple des continuité de

F.

En eet, si

x ∈ [0, n] \ [|0, n|],

Fk (x) = P[Xk ≤ x] = Pour conclure, il reste à remarquer

[x] X j=0

x

alors

Fk

k→∞

vers

F

sur l'ensemble des points de

est un point de continuité de

P[Xk = j] −→

k→∞

[x] X

F

et

P[X = j] = F (x).

j=0

Fk (x) = F (x) = 0 si x < 0 et Fk (x) = F (x) = 1 si x > n. 

Théorème 5.1.10 (Approximation de la loi binomiale par la loi de Poisson) Soit (Xk , k ≥

1) une suite de variables aléatoires réelles. Chaque Xk suit une loi binomiale de paramètres k, λk . Le réel λ est xé. Alors la suite (Xk , k ≥ 1) converge en loi vers X une variable aléatoire de Poisson de paramètre λ.

démonstration. Dans la preuve du théorème précédent, on a vu qu'il était en fait susant pour les variables discrètes de montrer les convergences des probabilités On a pour tout

P[Xk = j]

vers

P[X = j].

k ≥ j,

  k j P[Xk = j] = p (1 − p)k−j j k−j    j  λ k λ 1− = k k j −j  k λ 1− k λj k! λ λj −λ = e . 1 − −→ k→∞ j! j! (k − j)! kj k

La dernière ligne vient du fait que



λ 1− k

k

−→ e−λ

k→∞

(à savoir démontrer) et de

1 − λk k! (k − j)! kj



−j −→ 1.

k→∞

Théorème 5.1.11 (Théorème central limite) Soit (Xn , n ≥ 1) une suite de variables aléa-

toires réelles indépendantes et de même loi, admettant une espérance (notée m) et une variance (notée σ 2 ). Soit Sn =

n X

Xi .

i=1

On a E[Sn ] = nm et V (Sn ) = nσ 2 . La suite des variables aléatoires centrées réduites : 

 Sn − nm √ ;n ≥ 1 nσ

converge en loi vers une loi gaussienne N (0, 1). Autrement dit : Sn − nm P a≤ √ ≤b nσ 



1 −→ √ n→∞ 2π

Z a

b

2 /2

e−t

dt

104

Démonstration.

CHAPITRE 5.

THÉORÈMES LIMITES

La preuve la plus ecace repose sur les fonctions caractéristiques, outils que

élémentaires.

nous ne développons pas dans ce cours. Il existe des preuves

Nous verrons en

problème, un cas particulier. Pour le cas général, voir par exemple l'article de Jérôme Depauw

1

Le théorème central limite met en avant le caractère universel de la loi gaussienne, il justie la modélisation d'une erreur aléatoire par une loi normale. Souvent, une erreur aléatoire est modélisée par l'addition d'un grands nombres d'événements indépendants.

Proposition 5.1.12 (intervalle de conance) Supposons que V(X1 ) = 1, on déduit du théorème précédent le résultat suivant : la probabilité que E[X1 ] se trouve dans l'intervalle aléatoire "

n

n

1X b 1X a Xi − √ , Xi − √ n i=1 n n i=1 n

#

est égale à 1 P(a ≤ Z ≤ b) = √ 2π

Z

b

x2

e− 2 dx.

a

Cette dernière vaut environ 0.95 pour b = −a = 1.96. On dit alors que l'intervalle "

n

n

1X 1.96 1 X 1.96 Xi − √ , Xi + √ n i=1 n n i=1 n

#

est un intervalle de probabilité (on dit aussi intervalle de conance) pour le paramètre de la moyenne θ = E[X1 ] à 95% On termine ce chapitre en mentionnant la loi forte des grands nombres. Ce théorème dépasse le cadre du cours mais est fondamental en théorie des probabilités.

5.1.4 Convergence presque-sûre et loi forte des grands nombres Dénition 5.1.4 On dit que la suite (Xn , n ≥ 1) converge presque-sûrement vers X , si   P {ω ∈ Ω; Xn (ω) −→ X(ω)} = 1. n→∞

Cette notion de convergence est très forte. Elle implique la convergence en probabilité (mais n'est pas équivalente). Pour établir la convergence presque-sûre d'une suite de variables aléatoires des informations précises sur la  tra jectoire de la suite sont nécessaires (et rarement accessibles). On peut maintenant énoncer la loi forte des grands nombres.

Théorème 5.1.13 (Loi forte des grands nombres) Soit (Xn , n ≥ 1) une suite de variables indépendantes avec un moment d'ordre 1, alors lim n1

Pn

i=1

Xi = E[X1 ] presque sûrement.

1. disponible ici : www.lmpt.univ-tours.fr/∼depauw/TCLRMS_WEB.pdf.

5.2.

EXERCICES.

105

La démonstration de ce théorème requiert au minimum le ment issu des axiomes posés sur la probabilité d'événements

(Ai , i ≥ 1)

P

lemme de Borel-Cantelli,

directe-

dans la dénition. Si on considère une suite

indépendants de même probabilité

p.

La variable aléatoire

n

1X 1A n i=1 i E[X1 ] = p. La loi faible des grands nombres nous dit que cette fréquence converge en probabilité vers p. La loi

correspond à la fréquence d'apparition des événements

Ai

pour

i

entre

1

et

n,

et

forte nous dit que cette convergence est presque-sûre et nous permet de revenir à la dénition heuristique d'une probabilité en tant que limite d'une fréquence d'apparition...

5.2

Exercices.

? Exercice 5.2.1 Soit (Xn , n ≥ 1) une suite de variables  aléatoires de loi géométrique sur N de

paramètre nθ avec θ ∈ R?+ . Montrer que la suite la loi exponentielle de paramètre θ.

Xn n n≥1

converge en loi vers une v.a.r suivant

Exercice 5.2.2 Soit (Xn , n ≥ 1) une suite de v.a.r indépendantes identiquement distribuées

de loi uniforme sur [0, 1]. On note mn = min{X1 , ..., Xn } et Mn = max{X1 , ..., Xn }, montrer que (mn , n ≥ 1) converge en probabilité vers 0 et (Mn , n ≥ 1) vers 1.

Exercice 5.2.3 Soit (Xn , n ≥ 1) une suite de v.a.r telle que E[Xn ] n→∞ −→ a et V(Xn ) −→ 0, montrer que Xn −→ a en probabilité. n→

Exercice 5.2.4 Soit f une fonction continue bornée de R dans R. Montrer que lim

n→∞

∞ X k=0

e

k

  k f = f (λ). k! n

−nλ (nλ)

Indication : utiliser une suite de variables de Poisson de paramètre λ, et utiliser la loi faible des grands nombres. La loi forte est hors programme.

Exercice 5.2.5 Soit (Xn )n≥1 une suite de v.a. i.i.d. suivant la loi normale N (1, 3). Montrer que la suite de terme général

n

1X Xi eXi n i=1

converge en probabilités et déterminer sa limite.

Exercice 5.2.6 1) Soit f une fonction uniformément continue de Rd dans R et (Xn , n ∈ N)

une suite qui converge en probabilité vers X , alors (f (Xn ), n ≥ 0) converge en probabilité vers f (X). 2) Montrer que si (Xn , n ≥ 0) et (Yn , n ≥ 0) convergent respectivement vers X et Y en probabilité alors (Xn + Yn , n ≥ 1) converge vers X + Y en probabilité.

106

CHAPITRE 5.

THÉORÈMES LIMITES

3) Soit (Xn , n ≥ 1) une suite de v.a.r. indépendantes de même loi telle que E[|X1 |] < ∞. Vérier que P P n i=1

Xn = n

Xi

n

en déduire à l'aide de la question 2), que



n−1 Xi n − 1 i=1 , n n−1

converge en probabilité vers 0.

Xn n

Exercice 5.2.7 Soient {Xn }n≥1 une suite de variables aléatoires i.i.d telles que X1 ∼ P(1). P

Pour tout entier naturel non nul n on pose Sn = 1. Déterminer la limite en loi de

n

S√ n −n n

o n≥1

2. Montrer que e−n

n k=1

.

n X nk k=0

Xk .

k!

−→

n→+∞

1 . 2

Exercice 5.2.8 (Une loi faible des grands nombres pour des variables non indépendantes)

Soit (Xn , n ≥ 1) une suite de v.a.r.Pindépendantes de même loi admettant un moment d'ordre 2. On pose Yn = Xn Xn+1 et Sn = nk=1 Yk . 1) Les variables Yn sont-elles indépendantes ? 2) Montrer que pour tout  > 0,  1 Sn P | − E[Y1 ]|>  ≤ 2 2 V (Sn ) n n 

3) En déduire que

Sn n

converge en probabilité vers E[X1 ]2 .

Exercice 5.2.9 (Inégalité de Hölder) Soient

X

et

Y

Soient

p

et

q

deux variables aléatoires possédant respectivement un moment

moment d'ordre

q.

+ 1q = 1. d'ordre p et un

deux réels positifs tels que

1 p

L'inégalité d'Hölder que l'on va démontrer est 1

1

E[|XY |] ≤ (E[|X|p ]) p (E[|Y |q ]) q 1) Soient

x, y

deux réels positifs. En utilisant la concavité de

ln, c'est-à-dire pour tout λ ∈]0, 1[

ln(λx + (1 − λ)y) ≥ λ ln(x) + (1 − λ) ln(y), montrer l'inégalité (appelée inégalité de Young)

xy ≤ 2) En posant

˜= X

X et E[|X|p ]1/p

Y˜ =

xp y q + . p q

Y , montrer l'inégalité d'Hölder. E[|Y |q ]1/q

X a un moment d'ordre s. Soit 0 ≤ r ≤ s. En appliquant l'inégalité d'Hölder p |X|r et 1 avec p = rs , et q = p−1 son conjugué, montrer

3) On suppose que aux variables

E[|X|r ] ≤ E[|X|s ]1/p . En déduire que

X

a un moment d'ordre

r

pour tout

r ≤ s.

5.2.

EXERCICES.

Exercice 5.2.10

107

(Xn , n ≥ 1) une suite 4 toires indépendantes telles que pour tout k ≥ 1, E[Xk ] = 0 et E[Xk ] ≤ K Pn positif indépendant de k . On pose Sn = k=1 Xk , on va montrer que [Loi forte des grands nombres] Soit

Sn −→ 0 n n→∞ et

"

Sn n

E

de variables aléaoù

K

est un réel

p.s.

4 # −→ 0.

n→∞

1) En utilisant le résultat de la dernière question de l'exercice précédent. Justier que

E[Xi3 ]

E[Xi2 ],

ont un sens. Montrer que

"

# X

E[Sn4 ] = E

Xk4 + 6

E[Xi2 ]2 ≤ E[Xi4 ],

Xi2 Xj2 .

i α) −→ 0. n→∞

On dénit maintenant la notion de biais d'un estimateur (au programme en BTS).

Dénition 6.1.2 (Biais d'un estimateur) Soit Tn un estimateur du paramètre θ, 109

110

CHAPITRE 6.

ELÉMENTS DE STATISTIQUES

 Si pour tout θ ∈ Θ, E[Tn ] = θ, l'estimateur est dit sans biais.  Si pour tout θ ∈ Θ, E[Tn ] −→ θ, l'estimateur est dit asymptotiquement sans biais. n→∞

Remarque 6.1.1 Il faut noter que la propriété d'être non biaisé n'est pas indispensable. Il arrive même que certains estimateurs biaisés donnent de meilleurs résultats !

Proposition 6.1.1 Tout estimateur asymptotiquement sans biais dont la variance tend vers 0 est convergent.

Démonstration. Utiliser l'inégalité de Markov.

Dénition 6.1.3 Supposons que Tn a un moment d'ordre 2. Le risque quadratique de l'estimateur Tn est la quantité

RTn (θ) := E[(Tn − θ)2 ] θ et Tn . La notion de risque quadratique permet Sn est meilleur que Tn si

Il mesure l'écart en moyenne quadratique entre de comparer deux estimateurs : l'estimateur

∀θ ∈ Θ, RSn (θ) ≤ RTn (θ).

Dénition 6.1.4  Soit (X1 , ..., Xn ) un échantillon de taille n de X .  La moyenne

empirique

est

n

1X X n := Xi . n i=1

 La variance

empirique

est

n

Sn2

 La variance

empirique corrigée

1X := (Xi − X n )2 . n i=1

est n

Σ2n :=

1 X (Xi − X n )2 . n − 1 i=1

Proposition 6.1.2 Soit X une variable aléatoire de moyenne m et d'écart-type σ, alors E[X n ] = m, E[Sn2 ] =

V(X n ) =

n−1 2 σ , n

σ2 n

E[Σ2n ] = σ 2 .

Démonstration. Exercice.

Proposition 6.1.3 Soit X une variable aléatoire de moyenne m et de variance σ2 .

6.1.

ESTIMATION

111

1) La moyenne empirique X n est un estimateur sans biais et convergent de m. Si on se donne une réalisation ω , une estimation ponctuelle de la moyenne est donnée par n

1X xi x¯ = n i=1

où xi = Xi (ω) sont les données. 2) La variance empirique σn est un estimateur sans biais de la variance. Si on se donne une réalisation ω , une estimation ponctuelle de la variance est donnée par n

1X (xi − x¯)2 n i=1

où xi = Xi (ω) sont les données. 3) La variance empirique corrigée Σn est un estimateur sans biais de la variance. Si on se donne une réalisation ω , une estimation ponctuelle de la variance est donnée par n

1 X (xi − x¯)2 n − 1 i=1

où xi = Xi (ω) sont les données. 4) A ces trois estimateurs classiques, on peut rajouter celui du moment d'ordre r : n

m ˆ r :=

1X r x. n i=1 i

Démonstration. 1) Laissée au lecteur (appliquée la loi faible des grands nombres). 2) Laissée au lecteur. 3) Les variables

Xi

étant indépendantes de même loi, nous avons

# n 1 X ¯ n )2 = n E[(X1 − X ¯ n )2 ]. (Xk − X E[Σn ] = E n − 1 k=1 n−1 "

Nous avons

¯ n )2 ] = E[X 2 ] − E[(X1 − X 1 = E[X12 ] −

Les variables aléatoires

(Xi )

2 n

n X

2 n

n X



E[X1 Xi ] +

i=1

i=1

E[X1 Xi ] +

1  E n2 1 n2

n X

!2  Xi



i=1

n X n X

E[Xi Xj ].

i=1 j=1

étant indépendantes et identiquement distribuées nous avons :

E[Xi Xj ] = E[X12 ] si i = j E[Xi Xj ] = E[X1 ]2 si i 6= j.

112

CHAPITRE 6.

ELÉMENTS DE STATISTIQUES

On a donc



n n X n  1 X 2X 2 E[X1 Xi ] = − E[X12 ] + (n − 1)E[X1 ]2 2 E[Xi Xj ] n i=1 n n i=1 j=1 n

 1 X 2 2 ] + (n − 1)E[X ] E[X 1 1 n2 i=1  1 = E[X12 ] + (n − 1)E[X1 ]2 . n

=

On en déduit :

¯ n )2 ] = E[X12 ] − E[(X1 − X Finalement

 n−1 1 E[X12 ] + (n − 1)E[X1 ]2 = (E[X12 ] − E[X1 ]2 ). n n

E[Σ2n ] = EX12 ] − E[X1 ]2 = σ 2 . 

Une méthode classique pour construire un estimateur est

la méthode des moments

basée sur

une application directe de la loi des grands nombres. La méthode des moments consiste à exprimer

θ

E[X], E[X 2 ], ... puis de remplacer chaque moment par le moment lui correspondant. Cela fournit un estimateur convergent de θ . L'expression peut 2 2 2 intervenir σ que l'on remplace alors par Sn ou Σn .

en termes des moments

empirique aussi faire

E[X], E[X 2 ] etc  jusqu'à  obtenir à l'aide des moments une expression 2 inversible de θ . On inverse alors cette expression, ce qui donne θ en fonction de E[X], E[X ], ... 2 2 2 ¯ n , E[X ] par m ¯ ) etc. et on remplace E[X] par X ˆ 2 (ou par Σn + X En pratique, on calcule

n

Exemple 6.1.1 Soit X une variable aléatoire prenant les valeurs {0, 1, 2} avec les probabilités P[X = 0] = 1 − p1 − p2 , P[X = 1] = p1 , P[X = 2] = p2 ;

alors

 1 2 2 pˆ2 = S + Xn − Xn 2 n est un estimateur sans biais du paramètre p2 . Un estimateur classique est l

'estimateur du maximum de vraisemblance (E.M.V). On sup-

θ ∈ R. Soit (X1 , ..., Xn ) un échantillon. Notons L(x1 , ..., xn ; θ) (X1 , ...Xn ). Lorsque (x1 , ..., xn ) est xé, θ 7→ L(x1 , ..., xn , θ) est appelée vraisem-

pose que la loi a pour paramètre la densité de blance de

θ.

Dénition 6.1.5 On appelle estimateur du maximum de vraisemblance la valeur de θ qui rend

maximale L(x1 , ..., xn , θ).

Puisque le logarithme est une fonction strictement croissante, on peut chercher à maximiser la fonction θ 7→ − ln L(x1 , ..., xn , θ). En pratique, un E.M.V est une solution de l'équation de la vraisemblance : ∂ ln L(X, θ) = 0. ∂θ

6.1.

ESTIMATION

113

Intervalles de conance et lois usuelles en statistiques Nous avons déjà brièvement introduit la notion d'intervalle de conance dans la proposition 5.1.12. Au lieu de donner une valeur (estimation ponctuelle) du paramètre bornes

B1

et

B2

θ

on cherche deux

entre lesquelles on espère que se trouve la vraie valeur du paramètre. Les

bornes sont des fonctions des variables aléatoires

X1 , ..., Xn .

Dénition 6.1.6  Soit B1 = f1 (X1 , ..., Xn ) et B2 = f2 (X1 , ..., Xn ). On appelle intervalle de

probabilité pour le paramètre θ le couple (B1 , B2 ) et P(B1 ≤ θ ≤ B2 ) est la probabilité de recouvrement (appelée plus souvent niveau de conance). Si cette probabilité est égale à α, [B1 , B2 ] est appelé intervalle de probabilité 1 − α. En général on choisit une valeur faible pour α et on construit l'intervalle de sorte que la probabilité de recouvrement soit égale à 1 − α.

 On appelle intervalle de conance 1 − α (noté souvent IC1−α (θ) pour θ toute réalisation [b1 , b2 ] d'un intervalle de probabilité de recouvrement égale à 1 − α [B1 , B2 ]. Pour comprendre le principe de construction d'un intervalle de conance nous allons nous concentrer dans un premier temps sur le cas d'un intervalle de conance pour la moyenne dans le cas gaussien.

(X1 , ..., Xn ) un échantillon de loi normale N (µ, σ 2 ). On suppose σ connu le paramètre ¯ n suit une loi normale de paramètres à estimer est µ. Comme l'échantillon est gaussien, X ¯ 2 (µ, σ /n). Pour pouvoir utiliser les tables gaussiennes, on dénit T = Xs/n√−µ qui suit une loi n gaussienne standard. La variable T est appelée statistique pivotale, elle dépend de X1 , ..., Xn et θ = µ mais sa loi est indépendante de µ. Cette statistique est utile car elle va permettre d'encadrer le paramètre µ. Dans un premier temps, on observe que Soit

P[qα/2 < T < q1−α/2 ] = 1 − α, où

qp

on a

désigne le quantile d'ordre

qp = −q1−p

En isolant

µ

p pour la loi normale N (0, 1). Comme cette loi est symétrique,

et on peut donc écrire que

  ¯n − µ √ X P −q1−α/2 ≤ n ≤ q1−α/2 = 1 − α. σ

pour l'encadrer, on obtient

  σ σ ¯ n + q1−α/2 √ ¯ n − q1−α/2 √ ≤ µ ≤ X = 1 − α. P X n n On pose

¯ n − q1−α/2 √σ B1 = X n

¯ n + q1−α/2 √σ B2 = X n l'intervalle [B1 , B2 ] est un intervalle de probabilité 1 − α pour la moyenne µ. Il est important de comprendre que ce sont B1 et B2 qui sont aléatoires et non pas µ. En pratique on utilise les réalisations des variables aléatoires, un intervalle de conance est une réalisation [b1 , b2 ]. et

Remarque 6.1.2 La largeur de l'intervalle de conance est une fonction décroissante de α et

de n.

114

CHAPITRE 6.

ELÉMENTS DE STATISTIQUES

Deux lois utiles : la loi du khi-deux et la loi de Student Dénition 6.1.7 Soit d ≥ 1. Par P dénition, la loi du Khi-deux à d degrés de liberté est la loi de la variable aléatoire Yd = di=1 Ni2 où N1 , ..., Nd sont d variables gaussiennes centrées réduites. Proposition 6.1.4 Soit Yd une variable aléatoire qui suit une loi du khi-deux à d degrés de

liberté, alors 1  sa densité est donnée par fYd (x) = kd xd/2−1 e−x/2 1[0,∞[ (x) avec kd = 2d/2 Γ(d/2)  Yd est intégrable √ d] = d √ et E[Y  Si d ≥ 30, P[ Yd − 2d − 1 ∈ I] ≈ P[N ∈ I] où N est une Gaussienne standard.

Dénitionq6.1.8 On dit que la variable aléatoire Td suit la loi de Student à d degrés de liberté si Td = N Ydd où N et Yd sont deux variables indépendantes de loi respective la loi normale centrée réduite, et la loi du khi-deux à d degrés de liberté.

Proposition 6.1.5 Soit Td une variable aléatoire suivant la loi de Student. Sa densité est fTd (x) = cd (1 + x2 /d)−



d+1 2

,

Γ( d+1 ) cd = √ 2 Πd 2

e−x /2 pTd (x) −→ √ . d→∞ 2π

Dans les applications, si d ≥ 30 alors P[Td ∈ I] ≈ P[N ∈ I].

Intervalle de conance pour une moyenne et une variance. N (µ, σ 2 ). Deux cas sont à envisager pour la détermination d'un intervalle de conance : selon que σ soit ¯ n − q1−α/2 σ et connu ou non. Dans le premier cas, on a montré précédemment que B1 = X n σ ¯ n + u1−α/2 √ forment les bornes d'un intervalle de probabilité 1 − α. Dans le seoond B2 = X n cas, où σ est inconnu. On a que

Soient

X1 , ..., Xn n

variables aléatoires gaussiennes, indépendantes et de même loi

n 1 X (n − 1)Σ2n ¯ n )2 = 2 (Xi − X σ2 σ i=1 suit une loi du khi-deux à

avec

N

de loi

N (0, 1) et K

n−1

degrés de liberté. On dénit

T =



¯

n (XΣnn−µ .

On a

√ ¯ n(Xn − µ)/σ N T =q = S2 K (n − 1) σ2 (n−1)

indépendante de loi du khi-deux à

n − 1 degrés de liberté. T

est une

statistique pivotale puisque sa loi est indépendante des paramètres. On en déduit un intervalle

6.2.

EXERCICES

115

pour µ car on a P[tn−1;α/2 < T < tn−1;1−α/2 ] = 1 − α, où α pour la loi de Student à n − 1 degrés de liberté. On a donc quantile d'ordre 2 de probabilité

1−α

P[tn−1:α/2 < en isolant

µ

et en remarquant que

par rapport à

0,

on obtient

tn−1;α/2

est le

¯n − µ √ X n < tn−1,1−α/2 ] = 1 − α, Σn

tn−1;α/2 = −tn−1;1−α/2



car la loi de Student est symétrique

Σn Σn ¯ n − tn−1;1−α/2 √ ¯ n + tn−1;1−α/2 √ P X 0,

en considérant l'événement

Sn n

  | . Sn |≤ n

A = {x ∈ [0, 1]; |x −

δ},

montrer que

    Sn E |f (x) − f | ≤ m(δ) + 2||f ||∞ E[1|x− Sn |>δ| ]. n n 9 En utilisant la question (4), déduire que





E |f (x) − f

Sn n

  ||f ||∞ | ≤ m(δ) + . 2nδ 2

10) Montrer que

||f − Bn ||∞ ≤ m(δ) + Soit

 > 0.

11) Montrer qu'il existe 12) Déterminer

7.3

||f ||∞ . 2nδ 2

n0

δ

m(δ ) ≤ /2. tout n ≥ n0 , ||f − Bn ||∞ ≤ .

tel que

tel que pour

Conclure.

Marche aléatoire

On se donne un espace probabilisé

(Ω, F, P)

sur lequel est dénie une suite

variables aléatoires indépendantes identiquement distribuées. La loi de

X1

(Xn , n ∈ N? )

est donnée par

1 P(X1 = 1) = P(X1 = −1) = . 2 On dénit

S0 = 0 La suite de variables aléatoires

et

(Sn , n ≥ 1)

2

+1

1

S1

S2

Sn =

Pn

k=1

est appelée

−1 +1

Xk .

marche aléatoire symétrique.

S4

S3

−1 S5

0 1

2

3

4

5

de

7.3.

MARCHE ALÉATOIRE

129

Plusieurs questions naturelles se posent, la marche aléatoire, retourne-t-elle à l'origine ? Si oui, combien de temps met-on en moyenne pour y revenir ?

L'objectif du problème est de répondre à ces deux questions. On dénit

T =

  min{n ≥ 1; Sn = 0} 

La variable aléatoire

T

+∞

si

{n ≥ 1; Sn = 0} = 6 ∅

sinon.

est le premier temps de retour à

0

de la marche aléatoire.

Le problème contient trois parties. La troisième partie est purement analytique. N'hésitez pas à admettre des questions d'analyse pour avancer.

130

CHAPITRE 7.

SUJETS DES EXAMENS PASSÉS ET PROBLÈMES

Etude du temps de retour à l'origine : En = la

1) On considère les événement

marche aléatoire n'a pas touché

n  et Ak = La marche aléatoire visite 0 k . Justier brièvement les égalités

0

entre les temps

pour la dernière fois avant l'instant

n,

1

et

à l'instant

En = (T > n) ∪ (T = +∞) Ak = (Sk = 0) ∩

!

n \

(Si 6= 0)

i=k+1

2) Montrer que

n \

P(Ak ) = P(Sk = 0)P(Sk =0)

! (Si 6= 0) .

i=k+1 On rappelle que la notation

P(Sk =0) (.)

correspond à la probabilité conditionnelle sachant

Sk = 0. 3) Soit

k

Sn0 = Sn+k pour tout n ≥ 0. (Sn , n ≥ 0), montrer que

un entier xé, on dénit

0 sachant S0

=0

a même loi que

En remarquant que

(Sn0 , n ≥ 0)

P(Ak ) = P(Sk = 0)P (En−k ) . 4) Justier que

S P( nk=0 Ak ) = 1

et montrer que

n X

P(Sk = 0)P (En−k ) = 1.

k=0 5) Soit

x ∈ [0, 1[.

On considère les suites

(an , n ≥ 0)

an = P[Sn = 0]xn Justier que les séries de terme général

et

(bn , n ≥ 0)

et

dénies par

bn = P[En ]xn .

(an , n ≥ 0)

et

(bn , n ≥ 0)

sont convergentes. En

utilisant le produit de Cauchy (voir l'encadré à la n du sujet) montrer que

1 = 1−x

+∞ X

!

∞ X

P[Sn = 0]xn

n=0

! P[En ]xn .

n=0

P[S2n+1 = 0] = 0 pour tout n. On dénit une suite de variables aléatoires (Yi , i ≥ 1) de la façon suivante : Yi = 1 si Xi = 1 et 0 sinon. Justier l'identité événements ! 2n X (S2n = 0) = Yi = n .

6) Justier que

indépendantes des

i=1 Quelles sont les lois respectives de

Yi

et

P2n

i=1

Yi ?

En déduire que

2n n 4n



P[S2n = 0] =

.

7.3.

MARCHE ALÉATOIRE

7) En admettant

131

1 ∞ X n=0

montrer que

∞ X

2n n 4n



1 , x2n = √ 1 − x2 r

P[En ]xn =

n=0 8) En remarquant que l'événement pour tout

(T = +∞)

1+x . 1−x

est inclus dans

En

pour tout

n,

montrer que

x ∈ [0, 1[, n

P[T = +∞]x ≤ P[En ]x Montrer que pour tout

n

et en déduire que

n=0

x ∈ [0, 1[ P[T = +∞] ≤

En faisant tendre

x

1,

vers

∞ X

n

P[T = +∞]x ≤

∞ X

P[En ]xn .

n=0

√ 1 − x2 .

montrer par encadrement que

P[T = +∞] = 0. Qu'en déduisez vous pour la marche aléatoire, avec quelle probabilité retourne-t-elle à l'origine ?

Etude de l'espérance du temps de retour à l'origine : 9) Justier que

P[T > n] = P[En ]

et en déduire que pour tout

∞ X

r n

P[T > n]x =

n=0

x ∈ [0, 1[,

1+x . 1−x

Montrer que

X n≥0 On rappelle que si

P

n≥1

an x

n

lim−

x→R 10) Justier que pour tout

P[T > n] = ∞.

est une série entière de rayon de convergence

∞ X

an x n =

n=1

∞ X n=1

an Rn ∈ R+ ∪ {+∞}.

k ∈ N, P[T = k] = P[T > k − 1] − P[T > k].

En utilisant cette relation, établir que pour tout entier naturel

n X k=0

kP[T = k] =

n−1 X k=0

1. On le démontre dans la dernière partie du sujet

n ≥ 2,

P[T > k] − nP[T > n].

R

alors

132

CHAPITRE 7.

11) On suppose que

E[T ] < +∞.

Montrer que

∞ X

nP[T > n] = n

SUJETS DES EXAMENS PASSÉS ET PROBLÈMES

P[T = k]

et

∞ X

n

k=n+1

nP[T > n]

En déduire que

k=n+1

tend vers

0

n

lorsque

E[T ] =

∞ X

P[T = k] ≤

∞ X

kP[T = k].

k=n+1

tend vers l'inni, et que

P[T > k].

k=0 En particulier, si

E[T ] < +∞

alors

P∞

k=0

P[T > k] < ∞.

12) Montrer à l'aide de la question précédente et de la question 9 que

E[T ] = +∞. La moyenne du temps de retour à l'origine est donc innie. Cette propriété remarquable est liée au faite que si la marche aléatoire s'éloigne beaucoup de 0, il lui faut beaucoup de temps pour y revenir.

1 . Développement en série entière de φ : x → √1−x La fonction

n,

à l'ordre

φ:x→

√1 est de classe 1−x

on a au point

x ∈ [0, 1[

φ(x) = φ(n)

sur

n X xk

k!

la dérivée n-ième de

(k)

t ∈ [0, x],

15) On a

2

0

φ,

x

(x − t)n (n+1) φ (t)dt. n!

montrer par récurrence que 2n+1 (2n)! (1 − x)− 2 . n 4 n!

démontrer que

 n 2n+2  (x − t)n (n+1) x−t 1 n+1 φ (t) = (n + 1) n+1 × n! 4 1−t (1 − t)3/2

l'inégalité suivante :

pour tout

Z

φ (0) +

φ(n) (x) = 14) Soit

[0, 1[. Par la formule de Taylor avec reste intégral

:

k=0 13) On note

C∞

t ∈ [0, x], 0 ≤

x−t 1−t

(2n+2 n+1 ) 4n+1

≤ x. 0≤

en déduire

Z 0

≤ 1.

En étudiant la fonction

Montrer à partir de ces inégalités que

(x − t)n (n+1) (n + 1)xn φ (t) ≤ , n! (1 − x)3/2

x

(x − t)n (n+1) φ (t)dt −→ 0. n→+∞ n!

16) Etablir l'égalité préalablement admise

 ∞ 2n X 1 n √ = x2n . n 2 4 1−x n=1 2.

(2n+2 n+1 ) 4n+1

= P[S2n+2 = 0] ≤ 1

t 7→ x −

x−t , montrer que 1−t

7.3.

MARCHE ALÉATOIRE

133

Rappel sur le produit de Cauchy :

si

(an , n ≥ 1)

et

(bn , n ≥ 1)

sont deux suites positives et forment les termes généraux

de séries convergentes, alors la série de terme général

cn =

n X

ak bn−k

k=0 converge et sa somme vaut

∞ X n=0

Figure

cn =

∞ X n=0

! an

∞ X

! bn

.

n=0

7.2  Réalisation d'une marche aléatoire symétrique, n=100 et n=1000

Les marches aléatoires jouent un rôle important en théorie des probabilités. L'échelle de temps dans la simulation à droite est dix fois plus petite que celle de gauche. Cette courbe approche une fonction aléatoire célèbre : le mouvement Brownien. Cette fonction aléatoire est avec probabilité 1, continue, non-dérivable, non monotone par morceaux. Ces fonctions très irrégulières sont typiques en théorie des probabilités (plus précisément en théorie des processus stochastiques.) Il n'est pas facile de construire des fonctions déterministes avec de telles propriétés. Le mouvement Brownien est enseigné en M2. Il est impliqué dans de nombreux modèles probabilistes pour la physique, la biologie ou la nance.

134

CHAPITRE 7.

SUJETS DES EXAMENS PASSÉS ET PROBLÈMES

Chapitre 8 Problèmes d'analyse pour les probabilités

Intégrale de Gauss Soit

f : x ∈ R 7→ e−x 1) Montrer que

f

est intégrable sur

2 /2

.

R.

2) Soit

Z



f (x)dx.

G := 0 Montrer que

Z



f (x)dx = 2G. −∞ 3) Soit

Z

e−(x

H :=

2 +y 2 )

dxdy.

R+ ×R+ Montrer que

H = G2 .

4) Rappeler brièvement la dénition des coordonnées polaires. En passant aux coordonnées polaires, montrer que

Z

2

e−r rdrdθ.

H= R+ ×[0, π2 ] En déduire la valeur de

H

puis de

G.

Intégrales de Wallis et la formule de Stirling La formule de Stirling est l'équivalent suivant :

 n n √ 2πn . n→∞ e

n! ∼

An de l'établir, on introduit les intégrales de Wallis : pour

Z In =

π/2

sinn (t)dt.

0

135

n ∈ N,

136

CHAPITRE 8.

1) Montrer que

(In )n∈N

PROBLÈMES D'ANALYSE POUR LES PROBABILITÉS

est décroissante et convergente.

n∈N

2) Montrer que pour tout

n ≥ 2,

tel que

In = 3) Calculer

I2n

et

4) Démontrer que

n−1 In−2 . n−2

I2n+1 . I2n −→ I2n+1 n→∞

1.

5) En déduire que



6) En remarquant que

1.3.5...(2n − 1) 2.4.6...2n

2.4.6...2n = 2n n!, √

2 n −→

n→∞

1 . π

montrer que

n(2n)!

1 −→ √ , π

22n (n!)2 n→∞ 7) Soit

f

une fonction

C 2 ([0, 1], R). Z

Montrer qu'il existe

1

f (x)dx = 0 Indication : introduire

ξ ∈ [0, 1]

1 1 (f (0) + f (1)) − f 00 (ξ). 2 12

φ(x) = 12 x(1−x), en particulier remarquer que

8) En appliquant la formule précédente, montrer que pour

k+1

Z k avec

tel que :

R1 0

f (x)dx = −

1≤k ≤n−1

R1 0

φ00 (x)f (x).

:

1 1 ln(x)dx = (ln(k) + ln(k + 1)) + ξk−2 2 12

k ≤ ξk ≤ k + 1.

9) Montrer que

Z 1

n

n X

n

1 1 X 1 ln(x)dx = ln(k) − ln(n) + . 2 12 k=1 ξk2 k=1

10) En déduire que

11) On pose

  n 1 1 X 1 ln(n!) = n + ln(n) − n + 1 − . 2 12 k=1 ξk2 Pn 1 1 γn = 1 − 12 k=1 ξ 2 , justier que γn est une suite convergente

et que

k

1

n! = nn+ 2 e−n eγn . 12) On pose

cn = eγn ,

on cherche la limite

c

de cette suite. Montrer en calculant

c2n que c2n

√ 22n (n!)2 2√ n→∞ n(2n)!

c = lim 13) En utilisant la question 6) montrer que

c=

√ 2π ,

en déduire la formule de Stirling.

137

Pour

Z

de loi

N (0, 1), Φ(t) = FZ (t) = P (Z ≤ t) =

t 0, 0 0, 1 0, 2 0, 3 0, 4 0, 5 0, 6 0, 7 0, 8 0, 9 1, 0 1, 1 1, 2 1, 3 1, 4 1, 5 1, 6 1, 7 1, 8 1, 9 2, 0 2, 1 2, 2 2, 3 2, 4 2, 5 2, 6 2, 7 2, 8 2, 9 3, 0 3, 1 3, 2 3, 3 3, 4 3, 5 3, 6 3, 7 3, 8 3, 9

0, 00 0, 5000 0, 5398 0, 5793 0, 6179 0, 6554 0, 6915 0, 7257 0, 7580 0, 7881 0, 8159 0, 8413 0, 8643 0, 8849 0, 9032 0, 9192 0, 9332 0, 9452 0, 9554 0, 9641 0, 9713 0, 9772 0, 9821 0, 9861 0, 9893 0, 9918 0, 9938 0, 9953 0, 9965 0, 9974 0, 9981 0, 9987 0, 9990 0, 9993 0, 9995 0, 9997 0, 9998 0, 9998 0, 9999 0, 9999 1, 0000

Exemples

:

0, 01 0, 5040 0, 5438 0, 5832 0, 6217 0, 6591 0, 6950 0, 7291 0, 7611 0, 7910 0, 8186 0, 8438 0, 8665 0, 8869 0, 9049 0, 9207 0, 9345 0, 9463 0, 9564 0, 9649 0, 9719 0, 9778 0, 9826 0, 9864 0, 9896 0, 9920 0, 9940 0, 9955 0, 9966 0, 9975 0, 9982 0, 9987 0, 9991 0, 9993 0, 9995 0, 9997 0, 9998 0, 9998 0, 9999 0, 9999 1, 0000

0, 02 0, 5080 0, 5478 0, 5871 0, 6255 0, 6628 0, 6985 0, 7324 0, 7642 0, 7939 0, 8212 0, 8461 0, 8686 0, 8888 0, 9066 0, 9222 0, 9357 0, 9474 0, 9573 0, 9656 0, 9726 0, 9783 0, 9830 0, 9868 0, 9898 0, 9922 0, 9941 0, 9956 0, 9967 0, 9976 0, 9982 0, 9987 0, 9991 0, 9994 0, 9995 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000

0, 03 0, 5120 0, 5517 0, 5910 0, 6293 0, 6664 0, 7019 0, 7357 0, 7673 0, 7967 0, 8238 0, 8485 0, 8708 0, 8907 0, 9082 0, 9236 0, 9370 0, 9484 0, 9582 0, 9664 0, 9732 0, 9788 0, 9834 0, 9871 0, 9901 0, 9925 0, 9943 0, 9957 0, 9968 0, 9977 0, 9983 0, 9988 0, 9991 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000

0, 04 0, 5160 0, 5557 0, 5948 0, 6331 0, 6700 0, 7054 0, 7389 0, 7704 0, 7995 0, 8264 0, 8508 0, 8729 0, 8925 0, 9099 0, 9251 0, 9382 0, 9495 0, 9591 0, 9671 0, 9738 0, 9793 0, 9838 0, 9875 0, 9904 0, 9927 0, 9945 0, 9959 0, 9969 0, 9977 0, 9984 0, 9988 0, 9992 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000

t

x2 dx e− 2 √ 2π −∞

Z

0, 05 0, 5199 0, 5596 0, 5987 0, 6368 0, 6736 0, 7088 0, 7422 0, 7734 0, 8023 0, 8289 0, 8531 0, 8749 0, 8944 0, 9115 0, 9265 0, 9394 0, 9505 0, 9599 0, 9678 0, 9744 0, 9798 0, 9842 0, 9878 0, 9906 0, 9929 0, 9946 0, 9960 0, 9970 0, 9978 0, 9984 0, 9989 0, 9992 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000

0, 06 0, 5239 0, 5636 0, 6026 0, 6406 0, 6772 0, 7123 0, 7454 0, 7764 0, 8051 0, 8315 0, 8554 0, 8770 0, 8962 0, 9131 0, 9279 0, 9406 0, 9515 0, 9608 0, 9686 0, 9750 0, 9803 0, 9846 0, 9881 0, 9909 0, 9931 0, 9948 0, 9961 0, 9971 0, 9979 0, 9985 0, 9989 0, 9992 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000

0, 07 0, 5279 0, 5675 0, 6064 0, 6443 0, 6808 0, 7157 0, 7486 0, 7794 0, 8078 0, 8340 0, 8577 0, 8790 0, 8980 0, 9147 0, 9292 0, 9418 0, 9525 0, 9616 0, 9693 0, 9756 0, 9808 0, 9850 0, 9884 0, 9911 0, 9932 0, 9949 0, 9962 0, 9972 0, 9979 0, 9985 0, 9989 0, 9992 0, 9995 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000

0, 08 0, 5319 0, 5714 0, 6103 0, 6480 0, 6844 0, 7190 0, 7517 0, 7823 0, 8106 0, 8365 0, 8599 0, 8810 0, 8997 0, 9162 0, 9306 0, 9429 0, 9535 0, 9625 0, 9699 0, 9761 0, 9812 0, 9854 0, 9887 0, 9913 0, 9934 0, 9951 0, 9963 0, 9973 0, 9980 0, 9986 0, 9990 0, 9993 0, 9995 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000

Φ(0, 25) ' 0, 5987, Φ(−0, 32) = 1 − Φ(0, 32) ' 1 − 0, 6255 = 0, 3745

0, 09 0, 5359 0, 5753 0, 6141 0, 6517 0, 6879 0, 7224 0, 7549 0, 7852 0, 8133 0, 8389 0, 8621 0, 8830 0, 9015 0, 9177 0, 9319 0, 9441 0, 9545 0, 9633 0, 9706 0, 9767 0, 9817 0, 9857 0, 9890 0, 9916 0, 9936 0, 9952 0, 9964 0, 9974 0, 9981 0, 9986 0, 9990 0, 9993 0, 9995 0, 9997 0, 9998 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF