Cours4 Fichier

January 13, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Cours4 Fichier...

Description

Probabilités Elémentaires – Licence

Chapitre 4 : Vecteurs aléatoires discrets 1

Couple de variables aléatoires

Définition 1. Soit X et Y deux variables aléatoires discrètes définies sur l’espace probabilisable (Ω, A), et à valeurs respectivement dans E et F . Le couple (X, Y ) définit ce que l’on peut appeler une variable aléatoire discrète à valeurs dans E × F : à tout ω de Ω, il associe en effet le vecteur X(ω), Y (ω) . Proposition 1. La loi de probabilité du couple (X, Y ), aussi appelée loi conjointe de (X, Y ), est déterminée entièrement par la fonction de masse (x, y) 7→ P(X = x, Y = y) sur E × F . Exemple : On lance deux dés à 6 faces équilibrés. Soit X la somme des résultats et Y leur différence en valeur absolue : le couple (X, Y ) est à valeurs dans {1, · · · , 12} × {0, · · · , 5}. Pour calculer la loi conjointe de X et Y , on introduit les variables aléatoires R1 et R2 représentant les résultats des deux dés. On a, par exemple : P(X = 7, Y = 3) = Définition 2. On appelle lois marginales de X et de Y les lois respectives de X et de Y , que l’on peut calculer à partir de la loi conjointe : P ∀x ∈ E, P(X = x) = P y∈F P(X = x, Y = y). ∀y ∈ F, P(Y = y) = x∈E P(X = x, Y = y). Exemple : En gardant l’exemple précédent, on a : P(X = 7) = Définition 3. Soit X et Y deux variables aléatoires discrètes définies sur l’espace probabilisable (Ω, A), et à valeurs respectivement dans les espaces probabilisables (E, E) et (F, F). Soit x ∈ E tel que P(X = x) > 0. La loi de Y conditionnelle à l’événement (X=x), aussi appelée loi de Y sachant que X = x, est la probabilité sur (F, F) définie par l’application B 7→ P(X=x) (Y ∈ B) = P(Y ∈ B|X = x) (X=x)

et elle est notée PY

. (X=7)

Exemple : En gardant l’exemple précédent, la loi conditionnelle PY

est donnée par :

(X=x)

Proposition 2. La famille des probabilités PY , où x décrit l’ensemble des éléments de E tels que P(X = x) > 0, et la loi PX de X déterminent entièrement la loi du couple aléatoire (X, Y ) Proposition 3. Deux variables aléatoires X et Y sont indépendantes si et seulement si, pour tout (X=x) x ∈ E tel que P(X = x) > 0, la loi conditionnelle PY est égale à la loi marginale PY de Y . Définition 4. La moyenne conditionnelle et la variance conditionnelle de Y sachant que (X=x) X = x sont la moyenne et la variance calculées à partir de la loi conditionnelle PY . Exemple : En gardant l’exemple précédent, la moyenne conditionnelle de Y sachant X = 7 est : E(Y |X = 7) = et la variance conditionnelle de Y sachant X = 7 est : V(Y |X = 7) = 1

2

Vecteur de variables aléatoires

Ce que nous avons dit précédemment se généralise facilement lorsque l’on associe plus de deux variables aléatoires dans un vecteur. Définition 5. Soit X1 , · · · , Xn des variables aléatoires discrètes définies sur l’espace probabilisable (Ω, A), et à valeurs respectivement dans E1 , · · · , En . Le vecteur (X1 , · · · , Xn ) définit ce que l’on peut appeler une variable aléatoire discrète à valeurs dans E1 × · · · × En : à tout ω de Ω, il associe  en effet le vecteur X1 (ω), · · · , Xn (ω) . Comme précédemment, on peut définir la loi conjointe du vecteur (X1 , · · · , Xn ), les lois marginales de X1 , · · · , Xn ou encore les lois conditionnelles (Xj1 =xj1 ,··· ,Xjm =xjm )

PXi

, ∀{j1 , · · · , jm } ⊂ {1, · · · , n}.

Dans de nombreux modèles probabilistes ne sont explicites que la loi de X1 , PX1 , et les lois conditionnelles de Xi sachant X1 , · · · , Xi−1 , pour tout i entre 2 et n. La loi conjointe du vecteur s’obtient alors de la manière suivante : P(X1 = x1 , · · · , Xn = xn ) = P(X1 = x1 )P(X2 = x2 |X1 = x1 ) · · · P(Xn = xn |X1 = x1 , · · · , Xn−1 = xn−1 ). Parfois, les probabilités conditionnelles P(Xi = xi |X1 = x1 , · · · , Xi−1 = xi−1 ) ne dépendent que de xi et de xi−1 . On a alors P(Xi = xi |X1 = x1 , · · · , Xi−1 = xi−1 ) = P(Xi = xi |Xi−1 = xi−1 ) et P(X1 = x1 , · · · , Xn = xn ) = P(X1 = x1 )P(X2 = x2 |X1 = x1 ) · · · P(Xn = xn |Xn−1 = xn−1 ). Une suite de variables aléatoires (Xi )1≤i≤n satisfaisant cette condition est dite markovienne. Exemple : Soit (Ui )1≤i≤n une suite de variables aléatoires indépendantes à valeurs dans Z et soit, pour i = 1, · · · , n, Xi = U1 + · · · + Ui . La suite (Xi )1≤i≤n est markovienne à valeurs dans Z. En effet, si i ≥ 2, Xi = Xi−1 + Ui , si bien qu’on a : P(Xi = xi |X1 = x1 , · · · , Xi−1 = xi−1 ) = P(Ui = xi − xi−1 |X1 = x1 , · · · , Xi−1 = xi−1 ) quels que soient x1 , · · · , xi ∈ Z ; la variable aléatoire (X1 , · · · , Xi−1 ) étant indépendante de Ui , on a P(Xi = xi |X1 = x1 , · · · , Xi−1 = xi−1 ) = P(Ui = xi − xi−1 ). De plus, le même raisonnement conduit à l’égalité P(Xi = xi |Xi−1 = xi−1 ) = P(Ui = xi − xi−1 ).

3

Somme de variables aléatoires

On a très souvent besoin de calculer la somme de n variables aléatoires : Y = X1 + · · · + Xn .

3.1

Loi de probabilité

Quand les variables aléatoires X1 , · · · , Xn sont indépendantes, la loi de leur somme peut se calculer à partir des lois marginales. Nous donnons la méthode de calcul, dite de convolution, dans le cas où n = 2. Proposition 4. Soit X1 et X2 deux variables aléatoires discrètes définies sur l’espace probabilisé (Ω, A, P), à valeurs dans le même espace probabilisable (E, E), où E est stable par addition. Alors la variable aléatoire Y = X1 + X2 est discrète et sa loi est donnée par : ∀x ∈ E, P(Y = y) =

X

P(X1 = x1 ) P(X2 = y − x1 ).

x1 ∈E

2

Définition 6. On dit que la loi de probabilité de Y , obtenue à partir de PX1 et PX2 , est le produit de convolution ou simplement la convolution des deux probabilités PX1 et PX2 : elle est notée PX1 ∗ PX2 . Exemple : Loi triangulaire Soit un entier n ≥ 1 et deux variables aléatoires X1 et X2 indépendantes et de même loi uniforme sur {0, · · · , n}. On étudie la loi de Y = X1 + X2 . Pour tout k ∈ N, on a :

On dit que la loi de Y est symétrique par rapport à n. Proposition 5. La convolution de deux lois binomiales B(n1 , p) et B(n2 , p) est une loi binomiale B(n1 + n2 , p). La convolution de deux lois de Poisson P(λ1 ) et P(λ2 ) est une loi de Poisson P(λ1 + λ2 ).

3.2

Moments

Proposition 6. La moyenne et la variance de Y sont donnés par E(Y ) =

n X

E(Xi )

i=1

et V(Y ) =

n X

V(Xi ) + 2

n−1 X

i=1

n X

cov(Xi , Xj ).

i=1 j=i+1

Exemple : Moyenne empirique Supposons que les variables X1 , · · · , Xn soient indépendantes et identiquement distribuées (i.i.d.), de moyenne m et de variance σ 2 , représentant par exemple n observations d’une même variable dans une population. Si la moyenne m est inconnue, il est naturel de l’estimer par la moyenne empirique des Xi : n

X ¯= 1 X Xi . n i=1

Cette variable aléatoire admet pour moyenne ¯ = E(X) et pour variance ¯ = V(X) ¯ diminue et la probabilité que Ainsi, lorsque le nombre d’observations n augmente, la variance de X ¯ X soit "loin" de m également.

3.3

Fonction génératrice

Proposition 7. Soit X1 et X2 deux variables aléatoires indépendantes à valeurs dans N. La fonction génératrice de Y = X1 + X2 est donnée, pour tout s ∈ [−1, 1], par : GY (s) = GX1 (s) GX2 (s).

3

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF