Indépendance d`événements et de variables aléatoires

January 9, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Indépendance d`événements et de variables aléatoires...

Description

Agrégation de Mathématiques

Frédéric Boure

Indépendance d'événements et de variables aléatoires. Exemples.

On considère dans toute la leçon (Ω, F, P) un espace de probabilité. 1

Indépendance d'événements, probabilités conditionnelles.

Dénition 1.1

(Evenements indépendants). Deux événements A et B sont dits indépendants lorsque

P(A ∩ B) = P(A)P(B).

Une famille quelconque d'événements (Ai )i∈I de F est mutuellement indépendante si ∀J ⊂ I, J ni , P

\

 Ai

=

i∈J

Y

P(Ai ).

i∈J

Proposition 1.2. Soient A, B deux évenemtns avec P(B) > 0. On pose PB (A) := P(A|B) =

P(A ∩ B) . P(B)

la probabilité conditionnelle de A sachant que B est réalisé. Alors l'application PB : F A

→ [0, 1] 7→ PB (A)

est une probabilité.

Proposition 1.3. Si A et B sont deux événements avec P(B) > 0 alors A et B sont indépendants ⇐⇒ PB (A) = P(A).

Exemple.

1) Dans un jeu de 32 cartes, les événements {Obtenir un roi} et {Obtenir un pique} sont indépendants. Les événements {Obtenir un trèe} et {Obtenir un pique} ne sont pas indépendants.

2) Si Ω = [0, 1] et P = λ la mesure de Lebesgue. Les événements [  2(k − 1) 2k − 1  An := , 2n 2n n−1 16l62

dénis pour n ∈ N forment une famille mutuellement indépendante.

Proposition 1.4.

1) Si A et B sont deux événements indépendnats, il en est de même pour A et B c , Ac et B et enn A et B c . c

2) Plus généralement, si (Ai )i∈I est une famille mutuellement indépendante et si on contruit une famille d'événements (Bi )i∈I comme suit Bi = Ai ou Bi = Aci

alors la famille (Bi )i∈I est mutuellement indépendante. 

Applications. Dev Calcul de l'indicatrice d'Euler par une méthode probabiliste. Pour tout entier n, ϕ(n) = n

Y p|n,p∈P

1−

1 p

où P est l'ensemble des nombres premiers.

Théorème 1.5 1) Si

(Lemme de Borel-Cantelli). Soit (An )n une famille dénombrable d'événements

P(An ) < ∞ alors P(lim supn An ) = 0. Pn 2) Si n P(An ) = ∞ avec (An )n famille indépendante, alors P(lim supn An ) = 1. P

Remarque  On note l'événement {lim sup A } = {A n

n

i.s.} où i.s. signie inniment souvent.



Applications. 1) Suite de Pile/Face.

On considère une expérience aléatoire qui consiste à lancer successivement une pièce truquée, P(pile) = p ∈]0, 1[. On se demande si on va voir apparaître au moins un pile. On montre que presque-sûrement, il y a toujours au moins un pile qui sort. On se demande maintenant s'il y a une innité de pile qui apparaît. On note

An := {obtenir pile au n-ième lancer} et lim sup An := {obtenir pile i.s.}. n

Le lemme de Borel-Cantelli 2) montre que

P(obtenir pile i.s.) = 1. Quelle est la probabilité d'obtenir une innité de fois deux piles consécutifs ? (rép. 1) 2)

Marche aléatoire sur

Z

non symétrique. Soit la suite {Zi }i

dénie par Z0 = 0 et, pour tout i > 0, ( Zi+1 = Zi + 1 avec probabilité p Zi+1 = Zi − 1 avec probabilité q = 1 − p

où p 6= 12 . On considère l'événement An := {après 2n pas, je suis en 0} alors   2n n (4p(1 − p))n am √ P(An ) = p (1 − p)n ∼ 6 n C πn où a < 1. Le premier point du lemme de Borel-Cantelli permet de déduire que l'état 0 est transient pour la chaîne de Markov {Zi }i 2

Indépendance de tribus, variables aléatoires indépendantes.

Dénition 2.1. Soit (Ai )i∈I une famille de sous-tribus de P . On dit qu'elles sont indépendantes si et seulement si

∀J ⊂ I, J ni, ∀Ai ∈ Ai , P

\

 Aj

=

j∈J

Y

P(Aj ).

j∈J

Soit (Xi )i∈I une famille de variables aléatoires, Xi : (Ω, F, P) → (Ei , Ei )

On dit que (Xi )i∈I sont indépendantes si et seulement si les sous-tribus (σ(Xi ))i∈I le sont. On va désormais donner quelques caractérisations de l'indépendance de deux variables aléatoires. On pourra étendre ces caractérisations à une famille quelconque de variables aléatoires.

Théorème 2.2

(Caractérisation de l'indépendance). Soient X, Y deux variables aléatoires. Les assertions

suivantes sont équivalentes : (i) X et Y sont indépendantes

(ii) ∀A ∈ E, ∀B ∈ F, P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B) (iii) Si C (resp. D) est stable par intersection et engendre E (resp. F )

P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B)

∀(A, B) ∈ C × D.

(iv) ∀f : (E, E) → (R, B(R)), ∀g : (F, F) → (R, B(R)) mesurables,

E(f (X)g(Y )) = E(f (X))E(g(Y )). (v) ∀f : (E, E) → (R, B(R)), ∀g : (F, F) → (R, B(R)) mesurables, f (X) et g(Y ) sont indépendantes. On se limitera dans la suite aux variables aléatoires réelles (v.a.r) ou vecteurs aléatoires dans Rd .

Loi conjointe et lois marginales

Proposition 2.3. Soit (X1 , X2 , . . . , Xd ) une famille nie de v.a.r indépendantes. La loi P(X

du vecteur aléatoire sur (R , B(R )) est égale au produit des lois marginales P ⊗ · · · ⊗ P . Réciproquement, si la loi du vecteur est égale au produit des marges alors les variables aléatoires sont indépendantes. 1 ,...,Xd )

d

d

X1

Xd

Caractérisation par les fonctions caractéristiques, de répartition

Proposition 2.4. La famille (X1 , X2 , . . . , Xd ) de variables aléatoires à valeurs dans Rr dante si et seulement si

1

, . . . , Rrd est indépen-

∀(t1 , . . . , td ) ∈ Rr1 × · · · × Rrd , ϕ(X1 ,...,Xd ) (t1 , . . . , td ) = ϕX1 (t1 ) · · · ϕXd (td )

si et seulement si, pour r1 = · · · = rd = 1, F(X1 ,...,Xd ) (t1 , . . . , td ) = FX1 (t1 ) · · · FXd (td )

où ϕXi (resp. FXi ) représente la fonction caractéristique (resp. de répartition) de Xi .

Applications. 1) Méthode de Box-Muller pour simuler √ des v.a. gaussiennes. Si√U et V

sont des variables aléatoires i.i.d de loi uniforme sur [0, 1], alors X = −2 log V cos(2πU ) et Y = −2 log V sin(2πU ) sont i.i.d. de loi normale centrée réduite.  2) Dev Théorème de Renyi. Soit {Xn }n une de v.a.r iid de fonction de répartition F continue. Psuite n On dénit Rn le rang relatif de Xn par Rn := j=1 1l{Xj >Xn } . Alors la suite de variable aléatoire {Rn }n est iid et 1 ∀k ∈ {1, 2, . . . , n}. P(Rn = k) = n

Loi du tout ou rien de Kolmogorov

Dénition 2.5

(Tribu asymptotique). Soit (Ω, F, P) un espace de probabilité et {Ti }i∈N une suite de tribus

indépendantes. Soit

Cn = σ

[

 Tp

et C∞ =

p>n

\

Cn .

n∈N

La tribu C∞ s'appelle tribu asymptotique.

Remarques

1) Si on considère une suite de variables aléatoires indépendantes {Xi }i∈N

Xi : (Ω, F) → (Ei , Ei ) alors Ti = σ(Xi ) := {Xi−1 (A) : A ∈ Ei } est une sous-tribu de F et on peut dénir la tribu asymptotique pour {Xn }n . 2) Un événement est dans la tribu asymptotique de {Xn }n s'il ne dépend que du comportement de la suite {Xn }n lorsque n → ∞. 3)

Exemple. A := {ω ∈ Ω : limn Xn (ω) existe} ∈ C∞



Théorème 2.6 (Loi de 0-1 de Kolmogorov). Soit {Ti }i∈N une suite de tribus indépendantes et C∞ sa tribu asymptotique. Alors, pour tout événement A ∈ C∞ , P (A) ∈ {0, 1}.

Applications.

 Une application mesurable pour C∞ est presque-sûrement constante.  A := {An i.s.} ∈ A∞ pour la suite de tribu An = σ(An ) = {∅, An , Acn , Ω} donc si {An }n est une suite d'événements indépendants, P(A) ∈ {0, 1}. On peut alors donner une précisionP sur le lemme de B-C : Si {An }n est une suite d'événements indépendants, si P(lim sup An ) = 0 alors n P(An ) < ∞.

3

Somme de variables aléatoires indépendantes.

Proposition 3.1. Soient X, Y deux variables aléatoire indépendantes. Alors, P X+Y = P X ? P Y

ϕX+Y = ϕX · ϕY

Applications. 1) Soit {Xn }n une suite de var iid de loi N (m, σ 2 ). Alors, X ∼ N (m, σ 2 /n),Sn2 ∼ χ2 (n) et X ⊥ Sn2 . 2) Théorème de Berstein. Si X et Y sont deux var iid et L2 avec X + Y ⊥ X − Y alors X et Y sont gausiennes. Pn Dans la suite, {Xn }n désigne une suite de var iid et on dénit Sn := i=1 Xi . Théorèmes limites

Théorème 3.2

(Loi des grands nombres). 1) (loi faible) Si X admet un moment d'ordre 1, alors

Sn P −−−−→ E(X). n→∞ n 2) (loi forte) X admet un moment d'ordre 1 si et seulement si

Sn p.s. −−−−→ E(X). n n→∞

Applications.

1) Presque tout nombre réel de [0, 1] admet en moyenne autant de 0 que de 1 dans son développement dyadique.  2) Dev Presque tout irrationnel est normal. 3) Méthode de Monte-Carlo. Soit f : Rd → R avec d > 1. Soit à évaluer l'intégrale Z 1 Z 1 I= ··· f (t1 , . . . , tn )d(t1 , . . . , tn ). 0

0

Soit X = (X1 , · · · , Xn ) un vecteur aléatoire uniformément distribué sur [0, 1]d . On a alors I = E[f (X1 , · · · , Xn )] et N 1 X p.s. f (X(ωi )) −−−−→ I. N →∞ N i=1

Théorème 3.3 (Théorème de la limite centrale). Si X admet un moment d'ordre 2, et en notant m := E(X)

et σ 2 = Var(X) alors

Applications.

Sn − nm L √ −−−−→ N (0, 1). n→∞ σ n

limn→∞ e−n

nk k=0 k!

Pn

=

1 2

Un exemple de processus stochastique

Décrivons un processus de branchement élémentaire : le processus de Galton-Watson simple.

Dénition 3.4 (Processus de Galton-Watson). Un processus est une chaîne de

avec p∗i j := P(

Pi

Markov {Z

k=0

de Galton-Watson

de loi de reproduction P

n : n ∈ N} sur l'espace d'état N de matrice de transition (pij ) donnée par  ∗i pj , si i > 1 ; pij = P(Zn+1 = j|Zn = i) = j>0 δ0j , si i = 0

Yk = j) où {Yk }k est une suite de var iid de loi de probabilité P .

L'étude de cette chaîne est facilitée par l'usage de fonctions génératrices et/ou de martingales et des théorèmes limites qui leurs sont associées. On étudie par exemple la survivance de l'espèce, la vitesse d'extinction, l'instabilité de la chaîne etc.

Sources : Barbe-Ledoux ; Resnik (A probability path) ; Zuily-Queelec ; Cottrell.

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF