chap 7

January 10, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download chap 7...

Description

Chapitre 7

Convergence en probabilité et loi des grands nombres Toutes les variables aléatoires de ce chapitre sont définies sur un même espace probabilisé (Ω, A, P). On considère une suite de variables aléatoires indépendantes suivant toutes une même loi intégrable. Un résultat intuitif mais fondamental est le fait que la moyenne empirique des n premières variables, c’est-à-dire

X1 + · · · + Xn , “converge vers” l’espérance E(X1 ) n

commune à toutes ces variables. Un tel résultat sera qualifié de loi des grands nombres. Il joue un rôle essentiel en statistique puisqu’il permet d’estimer un paramètre (comme l’espérance) d’une loi inconnue en se basant sur des observations indépendantes de celleci : pour n assez grand, la moyenne empirique de n observations indépendantes fournit un estimateur de l’espérance. Évidemment, pour contrôler l’erreur d’estimation, il faudrait avoir une vitesse de convergence dans le résultat précédent. Cette question sera l’objet du chapitre suivant. Pour commencer, nous allons voir ce que l’on entend par “converge vers”. En probabilité, on peut envisager plusieurs modes de convergence (voir aussi le chapitre suivant).

7.1 Convergence en probabilité Définition 7.1.1. Soit (Xn )n∈N une suite de variables aléatoires. On dit que Xn converge en probabilité vers une variable aléatoire X si pour tout ε > 0,

lim P (|Xn − X| > ε) = 0.

n→+∞

Remarque 7.1.2. 1. Une définition équivalente est, par passage au complémentaire : pour tout ε > 0, limn→+∞ P(|Xn − X| ≤ ε) = 1.

2. Puisque c’est pour tout ε > 0, dans la définition, on peut remplacer P(|Xn − X| > ε) par P(|Xn − X| ≥ ε). 3. Si elle existe la limite X est unique à une égalité presque sûre près. En effet, si X et X 0 sont deux limites en probabilité de la suite (Xn ), alors pour tout ε > 0,

ε ε P(|X − X 0 | > ε) ≤ P(|X − Xn | > ) + P(|Xn − X 0 | > ) −−−−−→ 0. 2 2 n→+∞ Par continuité monotone séquentielle (prendre ε = k1 ) on obtient P(X 6= X 0 ) = 0.

CHAPITRE 7. CONVERGENCE EN PROBABILITÉ ET LOI DES GRANDS NOMBRES Exemple 7.1.3. Soit Xn une suite de variables aléatoires de lois respectives B( n1 ). Xn est à valeurs dans {0, 1} et donc pour tout ε ∈]0, 1[, P(|Xn | > ε) = P(Xn = 1) = n1 . On a montré que Xn → 0 en probabilité.

7.2 Loi faible des grands nombres Ce résultat a été démontré pour la première fois par Jacques Bernoulli (1713) dans le cas particulier des variables qui portent son nom. Théorème 7.2.1 (Loi faible des grands nombres). Soit (Xn )n≥1 une suite de variables aléatoires de même loi, dans L2 et deux à deux non corrélées et Sn = X1 + · · · + Xn . Alors,

Sn −−−−−→ E(X1 ) en probabilité. n n→+∞  Démonstration. Les Xi ayant toutes la même loi, on a E Snn = n1 (E(X1 ) + · · · + E(Xn )) = E(X1 ). De plus, elles sont deux à deux non corrélées, donc   1 V(X1 ) Sn = 2 (V(X1 ) + · · · + V(Xn )) = V . n n n Par l’inégalité de Bienaymé-Tchebychev, on obtient, pour tout ε > 0,

  Sn V(X1 ) − E(X1 ) > ε ≤ −−−−−→ 0. P n n ε2 n→+∞

Ce qui prouve le résultat.

Remarque 7.2.2. 1. En statistique, on dit que Snn est un estimateur convergent de E(X1 ). La dernière inégalité permet d’obtenir un intervalle de confiance pour E(X1 ). 2. La loi faible de grands nombres s’applique en particulier si les variables aléatoires sont indépendantes, de même loi et dans L2 . 3. Plus généralement, on dira qu’une suite quelconque (Xn )n≥1 vérifie une loi faible des grands nombres si Snn converge en probabilité. S −nE(X )

4. Une autre façon de formuler la conclusion du théorème est que n n 1 converge vers 0 en probabilité. En fait, en reprenant la démonstration, on peut montrer que Sn −nE(X1 ) → 0 en probabilité pour tout α > 21 (exercice). Que se passe-t-il pour α = 12 ? nα Exemple 7.2.3. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de même loi U([0, 1]). Alors n1 (X1 + · · · + Xn ) −−−−−→ 12 en probabilité. n→+∞

Pour finir cette section, remarquons que l’on a en fait montré un résultat plus fort : Sous les conditions du théorème 7.2.1, Snn converge vers E(X1 ) dans L2 , i.e.

E



2 !   Sn Sn − E(X1 ) =V −−−−−→ 0. n→+∞ n n

Plus généralement, la convergence de Xn vers X dans un espace Lp , p > 0, entraîne la convergence en probabilité de Xn vers X (utiliser l’inégalité de Markov). La réciproque est fausse. C’est évidemment faux si les Xn ne sont pas dans Lp pour le p en question, mais c’est aussi le cas, par exemple pour la suite de variables aléatoires Xn dans L1 de lois respectives PXn = (1 − n1 )δ0 + n1 δn qui converge en probabilté vers 0 mais pas dans L1 . En particulier, la convergence en probabilité n’entraîne pas la convergence des espérances.

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF