Théorèmes limites I Introduction II Loi des grands nombres

January 14, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Théorèmes limites I Introduction II Loi des grands nombres...

Description

Théorèmes limites I

Introduction

Le cours d’aujourd’hui est consacré à l’étude de certaines situations importantes où l’on cherche à obtenir des renseignements asymptotiques sur les résultats d’une expérience aléatoire. Commençons par décrire un cas typique : supposons qu’on réalise un grand nombre de fois une expérience qui peut réussir ou échouer. Notons An l’événement désignant la réussite de l’expérience au temps n. Devant la collection des résultats jusqu’au temps n, vu à travers les événements A1 , . . . , An , on peut s’intéresser à la fréquence de réussite de l’expérience c’est à dire au rapport nk où k désigne le nombre de fois où l’expérience a réussi. Y a-t-il alors un lien entre ce rapport nk et la probabilité de réussite de l’expérience ? C’est le type de question que nous allons chercher à étudier. Rappelons auparavant les deux types de convergences que nous avons introduits pour des suites de variables aléatoires réelles (Xn )n≥0 . a) La convergence en probabilités de Xn vers X affirme que si ε > 0 est donné, la probabilité que Xn s’écarte de X de plus de ε tend vers 0 soit P (| Xn − X |> ε) → 0. b) La convergence en loi se lit à travers le représentant de la loi d’une variable aléatoire qu’est la fonction caractéristique ϕX (t) = E(eitX ). Il y a convergence en loi de Xn vers X si pour tout t ∈ IR, ϕXn (t) → ϕX (t).

II

Loi des grands nombres

Soit (Xn )n≥0 une suite de variables aléatoires indépendantes et de même loi. n On considère X n = X1 +...+X , la moyenne arithmétique de X1 , . . . , Xn . n On a alors un premier énoncé Théorème 1 (Loi faible des grands nombres) Supposons que la loi commune des Xi admette un moment d’ordre 2. On pose σ 2 = Var(Xi ) et m = E(Xi ). Alors (X n )n≥1 converge en probabilités vers la constante m. démonstration : Soit ε > 0. On doit montrer que P (| X n − m |> ε) → 0. Commençons par observer que E(X n ) =

1 1 E(X1 + . . . + Xn ) = .n.m = m. n n

De plus X1 + . . . + Xn 1 1 σ2 ) = 2 Var(X1 + . . . + Xn ) = 2 .n.σ 2 = n n n n la dernière égalité résultant du fait que les variables Xi étant indépendantes, la variance de la somme est la somme des variances. L’inégalité de Bienaymé-Tchebitcheff nous permet alors d’écrire Var(X n ) = Var(

P (| X n − m |> ε) = P (| X n − E(X n ) |> ε) ≤ 2

1 σ2 Var(X ) = n ε2 nε2

σ et comme nε 2 → 0, on a P (| X n − m |> ε) → 0. Considérons le cas typique évoqué en introduction où l’on regarde la suite des résultats d’une expérience aléatoire, An désignant le fait que l’expérience a réussi au n-ième instant.

1

La variable 1IAn vaut alors 1 si l’expérience réussit et 0 si elle rate au n-ième instant. Par ailleurs, on suppose que les événements Ai résultant d’une même expérience qu’on répète ont même probabilité p et sont indépendants ce qui se traduit par le fait que les variables Pn aléatoires 1IAn ont même loi et sont indépendantes. k=1 1IAk La loi des grands nombres nous dit alors que converge en probabilités vers E(1IA1 ) = p et n Pn k=1 1IAk est la fréquence de réussite de l’expérience avant le temps n. On a donc pour la probabilité l’intern prétation de Bernoulli : quand on répète une expérience, la fréquence de réussite devient avec une très grande probabilité proche de la probabilité de réussite de l’expérience individuelle.

III

Théorème central

La loi des grands nombres nous dit que la fréquence empirique X n converge en probabilités vers l’espérance m. Mais elle ne nous dit rien en ce qui concerne la vitesse de cette convergence. C’est l’objet des résultats que nous allons maintenant regarder. Soit donc de nouveau (Xn )n≥1 une suite de variables aléatoires indépendantes de même loi admettant une n variance σ 2 et une espérance m, et posons X n = X1 +...+X . n √

2

On a vu que E(X n ) = m et Var(X n ) = σn . Par conséquent, la variable aléatoire Yn = σn (X n − m) est d’espérance nulle et de variance égale à 1. Le théorème suivant concerne la suite des variables (Yn )n≥1 . Théorème 2 (Thèorème central de la limite) Sous les hypothèses précédentes, la suite de v.a.r. (Yn )n≥1 converge en loi vers la loi N (0, 1). Démonstration : Nous devons commencer par calculer la fonction caractéristique de Yn . Remarquons dans un premier temps que √ n n n 1X 1 X Yn = ( Xi − m) = √ (Xi − m). σ n nσ i=1

i=1

Notons ϕ la fonction caractéristique de la loi commune des Xi − m. On a alors, pour tout t ∈ IR, itYn

ϕYn (t) = E(e

t i √nσ

) = E(e

Pn

k=1 (Xk −m)

) = E(

n Y

t (Xk −m) i √nσ

e

).

k=1 t i √nσ (Xk −m)

Notons que les variables e un produit ; on a donc

sont indépendantes et donc l’espérance précédente se décompose en

ϕYn (t) =

n Y

t (Xk −m) i √nσ

E(e

)

k=1

et puisque les Xk − m ont même loi de fonction caractéristique ϕ, on a ϕYn (t) = ϕ( √

t n ) . nσ

Il s’agit maintenant d’étudier la limite de cette expression. Commençons par démontrer un petit lemme technique. Lemme 1 Soient u1 , . . . , un et v1 , . . . , vn 2n nombres complexes de module inférieur ou égal à 1. Alors |

n Y k=1

uk −

n Y

vk |≤

k=1

n X k=1

2

| uk − vk | .

Démonstration : elle se fait par récurrence. Le cas n = 1 est évident. Supposons le lemme démontré à l’étape n − 1. On a alors |

n Y

n Y

uk −

k=1

vk |=|

k=1

≤|

n Y

n−1 Y

uk − (

k=1 n−1 Y

k=1

uk (un − vn ) + (

k=1

≤|

n−1 Y

uk || un − vn | + |

k=1

Or |

Qn−1 k=1

uk )vn + (

n−1 Y

n−1 Y

uk )vn −

k=1 n−1 Y

uk −

k=1

k=1

n−1 Y

n−1 Y

uk −

k=1

n Y

vk |

k=1

vk )vn |

vk || vn | .

k=1

uk |≤ 1 et | vn |≤ 1. Et utilisant le résultat au rang n − 1, on obtient bien |

n Y

uk −

k=1

n Y

vk |≤

k=1

n X

| uk − vk |

k=1

Terminons alors la démonstration du théorème. On sait, d’après les propriétés des fonctions caractéristiques, que ϕ(u) = 1 −

σ 2 u2 + o(u2 ) 2

puisque la variable aléatoire Xi − m est d’espérance nulle et de variance σ 2 . De ce fait, t 1 t2 ϕ( √ ) = 1 − + o( ). 2n n nσ t Posant alors u1 = u2 = . . . = un = ϕ( √nσ ) et v1 = v2 = . . . = vn = 1 − nombres complexes de module inférieur ou égal à 1. Donc d’après le lemme

t2 2n ,

on a bien une collection de 2n

n

| ϕ( √

X t n t2 n t t2 ) − (1 − ) |≤ | ϕ( √ ) − (1 − )| 2n 2n nσ nσ k=1

= n | ϕ( √

1 t t2 ) − (1 − ) |= no( ) = o(1) 2n n nσ

c’est à dire que lim | ϕ( √ n

Mais (1 −

t n t2 n ) − (1 − ) |= 0. 2n nσ

t2 n t2 t2 1 ) = exp[n ln(1 − )] = exp[n(− + o( )] 2n 2n 2n n

en faisant un développement limité du logarithme donc (1 − lim (1 −

n→+∞

t2 n 2n )

2 t2 n ) = e−t /2 . 2n

3

2

= exp(− t2 + o(1)) et de ce fait

t n 2 2 ) = e−t /2 c’est à dire que ϕYn (t) → e−t /2 et on reconnaît la nσ fonction caractéristique de la loi N (0, 1), ce qui revient à dire que la suite (Yn )n≥0 converge en loi vers N (0, 1). Finalement, on obtient

lim ϕ( √

n→+∞

On peut donc dire en conclusion que la vitesse de convergence dans la loi faible des grands nombres est de 2 l’ordre d’une loi normale de variance σn , au sens où la distance qui sépare la moyenne empirique de l’espérance est asymptotiquement distribuée comme la loi en question.

4

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF