Cours6 Fichier

January 13, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Cours6 Fichier...

Description

Probabilités Elémentaires – Licence

Chapitre 6 : Convergence des suites de variables aléatoires Dans ce chapitre, nous allons introduire une notion de convergence pour une suite de variables aléatoires puis nous énoncerons deux théorèmes limites très importants des probabilités : la loi faible des grands nombres et le théorème limite central.

1

Inégalités de Markov et de Bienaymé-Tchebichev

Ces inégalités permettent de majorer la probabilité pour une variable aléatoire de "trop" s’écarter de sa moyenne. Proposition 1. (Inégalité de Markov). Si X admet un moment d’ordre 1, on a, pour tout  > 0 : P(|X| > ) ≤

E(|X|) . 

Proposition 2. (Inégalité de Bienaymé-Tchebichev). Si X admet un moment d’ordre 2, on a, pour tout  > 0 :  V(X) P |X − E(X)| >  ≤ . 2 Plus l’écart-type est petit, plus la variable aléatoire X est concentrée autour de sa moyenne. Le cas extrême de cette concentration est atteint lorsque V(X) = 0 : la variable X est alors égale à une constante avec probabilité 1.

2

Loi faible des grands nombres

L’étude de phénomènes aléatoires conduit souvent à étudier la suite des moyennes arithmétiques d’une suite de variables aléatoires indépendantes et de même loi. C’est en particulier le cas en statistique lorsqu’on veut estimer un paramètre d’une loi de variable aléatoire liée à un phénomène, au vu d’une suite de réalisations indépendantes de ce phénomène. L’étude de la convergence de telles suites fait l’objet de résultats connus sous le nom de lois des grands nombres. Définition 1. On dit que la suite de variables aléatoires réelles (Xn )n∈N définies sur un espace probabilisé (Ω, A, P) converge en probabilité vers la variable aléatoire X si, pour tout  > 0, lim P(|Xn − X| > ) = 0.

n→+∞

Théorème 1. (Loi faible des grands nombres.) Soit (Xn )n∈N une suite de variables aléatoires définies sur l’espace probabilisé (Ω, A, P), indépendantes et admettant un moment d’ordre deux. On suppose la convergence des suites : n n 1 X 1X E(Xj ) −→ m et 2 V(Xj ) −→ 0. n→+∞ n→+∞ n n j=1

¯n = Alors, la suite des variables aléatoires X

j=1

1 n

Pn

j=1 Xj

converge en probabilité vers m.

Remarque. En particulier, les hypothèses du théorème précédent sont toutes satisfaites si les variables aléatoires Xn sont indépendantes et de même loi et si X1 admet un moment d’ordre deux.

3

Approximation de lois

L’objet de ce paragraphe est d’introduire aux problèmes d’approximation de lois. La loi binomiale, la loi hypergéométrique et les jeux de hasard font intervenir des factorielles, qui peuvent vite se révéler problématiques : par exemple 50! > 1064 . 1

3.1

Approximation de Poisson

Le théorème de Poisson donne une approximation de la loi binomiale B(n, p) lorsque n est "grand" et p "petit". Théorème 2. (Théorème de Poisson.) Soit (pn )n∈N une suite de réels de l’intervalle ]0, 1[ telle que limn→+∞ npn = λ > 0. Considérons, pour chaque entier n, une variable aléatoire Sn de loi B(n, pn ). On a donc ( Cnk pkn (1 − pn )n−k si 0 ≤ k ≤ n, P(Sn = k) = Pn (k) = 0 sinon. Alors, pour tout k ∈ N, la suite de terme général P(Sn = k) est convergente et on a : lim P(Sn = k) = exp(−λ)

n→+∞

λk . k!

Le théorème de Poisson donne une approximation de la loi binomiale lorsque le paramètre p est "petit". Dans la pratique, il est d’usage de remplacer la loi binomiale par la loi de Poisson dès que n est assez grand, de l’ordre de 30, et que p est petit, de l’ordre de 0, 1. Alors, si X est une variable aléatoire de loi binomiale de moyenne λ, sa loi est approximativement la loi de Poisson P(λ). Exemple : On veut déterminer la probabilité Pn (k) pour que, parmi n personnes, k soient nées le premier janvier. On suppose que personne n’est né le 29 février et que tous les autres jours sont équiprobables. Le nombre de personnes nées le premier janvier suit alors une loi binomiale k B(n, 1/365). Notons Pλ (k) = exp(−λ) λk! . Le tableau suivant permet de comparer la loi binomiale et son approximation : k P500 (k) 0 0, 2536 1 0, 3465 2 0, 2375 3 0, 1083 4 0, 0369 5 0, 0100

Pλ (k) 0, 2541 0, 3481 0, 2384 0, 1088 0, 0372 0, 0102

On peut remarquer en passant que Pλ (k) est petit dès que k ≥ 5. L’inégalité de Bienaymé-Tchebichev nous donne, pour une variable aléatoire S suivant la loi P(λ) avec λ = 500 365 , la majoration : P(S ≥ 5) ≤ P(S ≥ E(S) + 2, 6σS ) ≤ (2, 6)−2 ≤ 0, 15, environ 10 fois supérieure à la valeur de P(S ≥ 5). Voilà pourquoi, malgré son utilité, l’inégalité de Bienaymé-Tchebichev est parfois qualifiée de grossière.

3.2

Approximation d’une loi binomiale par la loi de Gauss

Et quand p n’est pas trop petit mais que n est grand, comment calculer la probabilité Pn (k) ? La réponse est donnée par le théorème suivant. Théorème 3. (Théorème de Moivre-Laplace.) Soit p tel que 0 < p < 1. Soit Sn une variable aléatoire de loi B(n, p). Pour tous réels a et b tels que a < b, on a, en notant q = 1 − p : " b−np  2 # Z √ npq 1 x lim P(a < Sn ≤ b) − √ exp − dx = 0. n→+∞ 2 2π a−np √ npq La loi de Sn peut donc être approchée, quand n est grand, par la loi de Gauss de même espérance et variance.

2

3.3

Approximation d’une loi hypergéométrique par la loi binomiale

Rappelons sur un exemple la définition de la loi hypergéométrique. Un lac contient r poissons, dont r1 sont d’une espèce intéressante. On pêche n poissons et on note X le nombre de poissons de la bonne espèce parmi les n attrapés. Alors on a P(X = k) =

n−k Crk1 Cr−r 1 Crn

quand le second membre est défini, et P(X = k) = 0 sinon. Si on change de procédé et que l’on rejette chaque poisson vivant après l’avoir pêché, le nombre Y de poissons pêchés de la bonne espèce suit k n−k une loi binomiale B(n, r1 /r) : on a P(Y = k) = Cnk rr1 1 − rr1 si 0 ≤ k ≤ n et P(Y = k) = 0 sinon. Il est naturel de penser que si r et r1 sont grands devant n, il y a peu de différences entre les deux procédés. C’est ce que confirme l’énoncé suivant. Théorème 4. Soit, d’une part, une suite de variables aléatoires (Xj )j∈N de loi hypergéométrique de paramètres n, rj , r1,j , et d’autre part une variable aléatoire Y de loi binomiale B(n, p). Si lim rj = +∞ et

j→+∞

lim

j→+∞

r1,j = p, rj

où p ∈]0, 1[, alors on a : lim P(Xj = k) = P(Y = k) = Cnk pk (1 − p)n−k .

j→+∞

3.4

Théorème limite central

Les résultats concernant l’approximation de lois sont souvent dénommés théorèmes limite. Le plus important de ces résultats a reçu le nom de théorème limite central. Théorème 5. (Théorème limite central.) Soit (Xn )n∈N une suite de variables aléatoires non constantes, indépendantes, de même loi, admettant un moment d’ordre deux. On définit, pour tout n ∈ N, la variable aléatoire Sn par : Pn j=1 Xj − nE(X1 ) p Sn = . nV(X1 ) Alors, pour tout couple (a, b) tels que a < b, on a :  2 Z b 1 x P(a < Sn ≤ b) −→ √ exp − dx. n→+∞ 2 2π a P Si une variable aléatoire X s’écrit nj=1 Xj où les variables aléatoires Xj vérifient les hypothèses du théorème, on  pourra approximer, dans le cas où n est grand, la loi de X par la loi gaussienne N E(X), V(X) . Outre le cas des variables aléatoires de loi B(n, p), c’est aussi le cas des variables aléatoires de loi de Poisson P(λ), qui ont la même loi qu’une somme de n variables indépendantes de loi P(λ/n), et des variables aléatoires de loi χ2n , qui ont la même loi qu’une somme de n variables indépendantes de loi χ21 .

3

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF