Probabilités - Jean-Yves Tourneret

January 15, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Probabilités - Jean-Yves Tourneret...

Description

Probabilités Jean-Yves Tourneret(1) (1) Université de Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l’Information [email protected]

Cours Probabilité, 1TR, 2015-2016 – p. 1/68

Plan du cours Chapitre 1 : Eléments de base du calcul des probabilités Triplet de Probabilité (Ω, C, P ) Équiprobabilité - Dénombrement Probabilités conditionnelles Indépendance Chapitre 2 : Variables aléatoires réelles Chapitre 3 : Couples de variables aléatoires réelles Chapitre 4 : Vecteurs Gaussiens Chapitre 5 : Convergence et théorèmes limites Cours Probabilité, 1TR, 2015-2016 – p. 2/68

Bibliographie B. Lacaze, M. Maubourguet, C. Mailhes et J.-Y. Tourneret, Probabilités et Statistique appliquées, Cépadues, 1997. Athanasios Papoulis and S. Unnikrishna Pillai, Probability, Random Variable and Stochastic Processes, McGraw Hill Higher Education, 4th edition, 2002.

Cours Probabilité, 1TR, 2015-2016 – p. 3/68

Triplet de Probabilité (Ω, C, P ) Ω : Ensemble des résultats d’expérience C : Ensemble des événements C ⊂ P(Ω) Ω ∈ C (événement certain)

si A ∈ C alors A ∈ C (événement contraire) si Ai ∈ C, i ∈ I (I fini ou infini dénombrable), alors ∪Ai ∈ C

P : application probabilité de C dans [0, 1] P (Ω) = 1  P A = 1 − P (A) P P (∪Ai ) = i∈I P (Ai ) si les événements Ai sont disjoints.

Cours Probabilité, 1TR, 2015-2016 – p. 4/68

Propriétés Événements ∅∈C si Ai ∈ C, i ∈ I (I fini ou infini dénombrable), alors ∩Ai ∈ C Probabilité P (∅) = 0 si A ⊂ B , alors, P (A) ≤ P (B) P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

Cours Probabilité, 1TR, 2015-2016 – p. 5/68

Vocabulaire si a ∈ Ω alors {a} est un événement élémentaire

si Ω = ∪i∈I Ai avec Ai ∩ Aj = ∅, on dit que {Ai }i∈I est un système complet d’événements (Ω, C) espace probabilisable (Ω, C, P ) espace probabilisé C tribu ou σ -algèbre

Cours Probabilité, 1TR, 2015-2016 – p. 6/68

Équiprobabilité - Dénombrement Définition P (A) =

card(A) card(Ω)

=

Nombre de cas favorables Nombre de cas possibles

Exemples Jet d’un dé Tirages avec remise dans une urne à 2 catégories P (k succès sur n expériences) = Cnk Psk (1 − Ps )n−k n! où k = 0, ..., n, Cnk = k!(n−k)! , Ps est la probabilité du succès sur une expérience et n est le nombre d’expériences identiques et indépendantes.

Cours Probabilité, 1TR, 2015-2016 – p. 7/68

Probabilités conditionnelles Définition P (A ∩ B) P (A|B) = ou P (A ∩ B) = P (A|B)P (B) P (B)

Théorème des probabilités totales X P (B) = P (B|Ai )P (Ai ) i∈I

pour tout système complet d’événements {Ai }.

Formule de Bayes

P (B|A)P (A) P (A|B) = P (B) Cours Probabilité, 1TR, 2015-2016 – p. 8/68

Indépendance Deux événements Deux événements A et B sont indépendants si et ssi P (A ∩ B) = P (A)P (B) ou P (A|B) = P (A)

Généralisation On dit que {Ai }i∈I est famille d’événements mutuellement indépendants si et ssi Y P (∩i∈J Ai ) = P (Ai ), ∀J ⊂ I i∈J

☞ Exercice d’application

Cours Probabilité, 1TR, 2015-2016 – p. 9/68

Que faut-il savoir ? Probabilité d’une réunion d’événements : P (A ∪ B) =?  Probabilité de l’évènement contraire : P A =? Equiprobabilité : P (A) =?

Loi Binomiale : P (k succès sur n expériences) =? Probabilité conditionnelle : P (A|B) =? Indépendance : P (A ∩ B) =?

Formule de Bayes : P (A|B) =?

Cours Probabilité, 1TR, 2015-2016 – p. 10/68

Plan du cours Chapitre 1 : Eléments de base du calcul des probabilités Chapitre 2 : Variables aléatoires réelles Définition Loi d’une variable aléatoire Fonction de répartition Exemples fondamentaux Espérance mathématique Changements de variables Chapitre 3 : Couples de variables aléatoires réelles ... Cours Probabilité, 1TR, 2015-2016 – p. 11/68

Variable aléatoire réelle Définition Soient (Ω, C, P ) un triplet de probabilité qui est associé à l’expérience et (Ω′ , C ′ ), avec Ω′ ⊂ R un espace probabilisable qui résume les quantités qui nous intéressent. Une variable aléatoire réelle X est une application de Ω dans Ω′ qui possède la propriété de mesurabilité : ∀(a, b) ∈ C ′ , {ω|X(ω) ∈ (a, b)} ∈ C.

Exemple : somme des résultats de deux dés Ω −→ Ω′ X: (m, n) 7−→ m + n Cours Probabilité, 1TR, 2015-2016 – p. 12/68

Variable aléatoire discrète Loi d’une variable aléatoire discrète {X(ω), ω ∈ Ω} est fini ou infini dénombrable. La loi de X est définie par l’ensemble des valeurs possibles de X : {xi , i ∈ I} les probabilités associées pi = P [X = xi ] avec X X pi pi = 1 et P [X ∈ ∆] = i∈I

xi ∈∆

Exemples Jet d’un dé Jet d’une pièce ... Cours Probabilité, 1TR, 2015-2016 – p. 13/68

Variables aléatoires continues Loi d’une variable aléatoire continue {X(ω), ω ∈ Ω} est infini non dénombrable avec P [X = xi ] = 0, ∀xi . La loi de X est définie par l’ensemble des valeurs possibles de X qui est en général une réunion d’intervalles R→R telle que une densité de probabilité p : x 7−→ p(x) p(x) ≥ 0, ∀x ∈ R, Z p(u)du = 1, R Z P [X ∈ ∆] = p(u)du. ∆

Cours Probabilité, 1TR, 2015-2016 – p. 14/68

Variables aléatoires continues Remarques On peut avoir p(x) > 1. P [X∈[x,x+dx[] dx dx→0

p(x) = lim

P [X ∈ [x, x + dx[] ≃ p(x)dx pour dx “petit” lien avec l’histogramme

Exemples Loi uniforme sur [a, b] Loi normale

Cours Probabilité, 1TR, 2015-2016 – p. 15/68

Variable aléatoire mixte Loi d’une variable aléatoire mixte {X(ω), ω ∈ Ω)} = E ∪ {xi , ∈ I} est la réunion de deux ensembles, le premier E est infini non dénombrable avec P [X = x] = 0, ∀x ∈ E , le deuxième est fini ou infini dénombrable avec pi = P [X = xi ] > 0 . La loi de X est définie par {xi , ∈ I} avec pi = P [X = xi ] > 0 E et une densité de probabilité p telle que p(x) ≥ 0, ∀x ∈ R P p(u)du + i∈I pi = 1 R R P P [X ∈ ∆] = ∆ p(u)du + xi ∈∆ pi

R

Exemple : Tension aux bornes d’un voltmètre

Cours Probabilité, 1TR, 2015-2016 – p. 16/68

Exemples Fondamentaux de Lois Discrètes Loi de Bernoulli : X ∼ Be(p) P [X = 0] = p et P [X = 1] = q = 1 − p Lancer d’une pièce, “Succès ou Echec”, ... Loi Binomiale : X ∼ B(n, p) P [X = k] = Cnk pk q n−k ,

k = 0, ..., n

Probabilité d’avoir k succès sur n expériences, X = où Xi suit une loi de Bernoulli, ...

Pn

i=1 Xi

Loi de Poisson : X ∼ P(λ)

λk P [X = k] = exp(−λ), k!

k∈N

Loi du nombre d’arrivées pendant un temps donné Cours Probabilité, 1TR, 2015-2016 – p. 17/68

Exemples Fondamentaux de Lois Continues Loi Uniforme : X ∼ U ([a, b]) 1 , p(x) = b−a

x ∈ [a, b]

Loi Normale ou Gaussienne : X ∼ N (m, σ 2 )   2 (x − m) 1 , x∈R exp − p(x) = √ 2 2 2σ 2πσ Loi Gamma : X ∼ Ga(α, β) β α α−1 x exp(−βx), p(x) = Γ(α)

x>0

Pour α = 1, on a la loi exponentielle Cours Probabilité, 1TR, 2015-2016 – p. 18/68

Fonction de répartition Définition R → [0, 1] F : x 7−→ F (x) = P [X < x]

Propriétés F croissante lim F (x) = 0 et lim F (x) = 1 x→−∞

x→+∞

F caractérise une loi de probabilité Si X est une va discrète, le graphe de F est une fonction en escaliers Si X estR une va continue, F est continue et x F (x) = −∞ p(u)du, i.e., p(x) = F ′ (x) Cours Probabilité, 1TR, 2015-2016 – p. 19/68

Espérance mathématique Définition  P  α(xi )pi  X va discrète : i∈I R E[α(X)] = X va continue : α(u)p(u)du R   X va mixte : P α(x )p + R α(u)p(u)du i i i∈I R Propriétés Constante : E(cste) = cste Linéarité : E(aX + b) = aE(X) + b

Exemples Moments non centrés : E(X n ) (n = 1 : moyenne) n Moments centrés : E [X − E(X)] (n = 2 : variance) Fonction caractéristique : φX (t) = E [exp(itX)] Cours Probabilité, 1TR, 2015-2016 – p. 20/68

Exemples simples Variables aléatoires discrètes X  2 X 2 E [X] = xi P [X = xi ], E X = xi P [X = xi ] i∈I

i∈I



E e

 jtX

=

X

ejtxi P [X = xi ]

i∈I

Variables aléatoires continues Z Z  2 E [X] = up(u)du, E X = u2 p(u)du R R Z  jtX  E e = ejtu p(u)du R

Cours Probabilité, 1TR, 2015-2016 – p. 21/68

Propriétés Variance 

2

var(X) = E [X − E(X)]



Ecart Type : variance var(aX + b) = a2 var(X)



= E(X 2 ) − E(X)2

Fonction caractéristique Caractérise une loi de probabilité Cas continu Z φX (t) = eitu p(u)du R

est la transformée de Fourier de p. Exemples de calculs Cours Probabilité, 1TR, 2015-2016 – p. 22/68

Changements de variables Problème Étant donnée une variable aléatoire réelle X de loi connue, on cherche à déterminer la loi de Y = g(X) où g est une fonction de R dans R. Variables aléatoires discrètes Définition P [Y = yj ] =

X

p[X = xi ]

i|yj =g(xi )

Exemple Y = (X − 2)2 avec X ∼ P(λ) Cours Probabilité, 1TR, 2015-2016 – p. 23/68

Changements de va continues g bijective Théorème : si X est une va continue à valeurs dans un ouvert OX ⊂ R et g : R → R application bijective de OX dans un ouvert OY ⊂ R différentiable ainsi que son inverse g −1 , alors Y = g(X) est une va continue de densité  −1  dx pY (y) = pX g (y) . dy



dx dy

est le Jacobien de la transformation.

Idée de preuve Exemple : Y = aX + b avec X ∼ N (m, σ 2 ). Cours Probabilité, 1TR, 2015-2016 – p. 24/68

Changements de va continues g bijective par morceaux On suppose que g est différentiable sur chaque morceau ainsi que son inverse. Méthode : On ajoute la contribution de chaque bijection. Exemple : Y = X 2 avec X ∼ N (0, 1).

Cours Probabilité, 1TR, 2015-2016 – p. 25/68

Que faut-il savoir ? Loi d’une variable aléatoire discrète : ? Loi d’une variable aléatoire continue : ? Appartenance à un intervalle : P [X ∈ ∆] =?

Signification d’une densité : P [X ∈ [x, x + dx[] ≃? Fonction de répartition : F (x) =?

Espérance mathématique : E[X] =?, E[X 2 ] =? Variance : Var[X] =?, Ecart-type : ? Relations utiles : E[aX + b] =?, Var[aX + b] =? Fonction caractéristique : φ(t) =? Changement de variables : ? Cours Probabilité, 1TR, 2015-2016 – p. 26/68

Plan du cours Chapitre 1 : Eléments de base du calcul des probabilités Chapitre 2 : Variables aléatoires réelles Chapitre 3 : Couples de variables aléatoires réelles Définition Fonction de répartition Lois marginales, lois conditionnelles, indépendance Espérances mathématiques Changements de variables Chapitre 4 : Vecteurs Gaussiens Chapitre 5 : Convergence et théorèmes limites Cours Probabilité, 1TR, 2015-2016 – p. 27/68

Couple de va réelles Définition Soit (Ω, C, P ) un espace probabilisé et (Ω′ , C ′ ) un espace probabilisable avec Ω′ ⊂ R2 et C ′ construit à partir des réunions et intersections finies ou dénombrables des pavés (a, b) × (c, d) de R2 . Un couple (X, Y ) de variables aléatoires réelles est une application mesurable de Ω dans Ω′ . notation On notera P [(X, Y ) ∈ ∆] , ∆ ⊂ R2 , la probabilité que le couple (X, Y ) prenne ses valeurs dans ∆.

Cours Probabilité, 1TR, 2015-2016 – p. 28/68

Loi d’un couple de va Variables aléatoires discrètes La loi du couple (X, Y ) est définie par l’ensemble des valeurs possibles du couple (qui est un ensemble fini ou dénombrable) noté {(xi , yj ) , i ∈ I, j ∈ J} et par les probabilités associées pij = P [X P= xi , Y = yj ], i ∈ I, j ∈ J telles que pij ≥ 0 et i,j pij = 1. Variables aléatoires continues La loi du couple (X, Y ) est définie par l’ensemble des valeurs possibles du couple (qui est un ensemble infini non dénombrable), en général une réunion d’intervalles de R2 , et par une densité de probabilité p(x, y) telle que Z Z p(x, y) ≥ 0, et p(x, y)dxdy = 1. R2

Cours Probabilité, 1TR, 2015-2016 – p. 29/68

Propriétés Couples de va discrètes P [(X, Y ) ∈ ∆] =

X

P [X = xi , Y = yj ].

(i,j)|(xi ,yj )∈∆

Couples de va continues P [(X, Y ) ∈ ∆] =

Z Z

p(u, v)dudv ∆

Remarque : signification de p(u, v)

Cours Probabilité, 1TR, 2015-2016 – p. 30/68

Fonction de répartition Définition R2 → [0, 1] F : (x, y) 7−→ F (x, y) = P [X < x, Y < y] Propriétés C’est une fonction étagée lorsque (X, Y ) est un couple de va discrètes C’est une fonction continue lorsque (X, Y ) est un couple de va continues avec Z x Z y ∂ 2 F (x, y) p(u, v)dudv d’où p(x, y) = F (x, y) = ∂x∂y −∞ −∞ Cours Probabilité, 1TR, 2015-2016 – p. 31/68

Lois marginales Cas discret P [X = xi ] = pi. =

X

pij

j∈J

P [Y = yj ] = p.j =

X

pij

i∈I

Cas continu densité de X densité de Y

: :

p(x, .) = p(., y) =

Z

ZR

p(x, y)dy p(x, y)dx

R

Cours Probabilité, 1TR, 2015-2016 – p. 32/68

Lois conditionnelles Les lois conditionnelles d’un couple (X, Y ) sont les lois de X| Y = y et de Y | X = x. Cas discret

Cas continu

pij P [ X = xi | Y = y j ] = p.j pij P [ Y = y j | X = xi ] = pi.

densité de X| Y densité de Y | X

p(x, y) p( x| y) = p(., y) p(x, y) p( y| x) = p(x, .) Cours Probabilité, 1TR, 2015-2016 – p. 33/68

Indépendance Les variables aléatoires X et Y sont indépendantes si     ′ ′ P X ∈ ∆, Y ∈ ∆ = P [X ∈ ∆] P Y ∈ ∆ , ∀∆, ∀∆′ Cas discret

pij = pi. p.j

∀i ∈ I, ∀j ∈ J

Cas continu p(x, y) = p(x, .)p(., y) ∀x, ∀y

ou p( x| y) = p(x, .), ∀x, ∀y Cours Probabilité, 1TR, 2015-2016 – p. 34/68

Propriété si X et Y sont des variables aléatoires indépendantes et α et β sont des applications continues de R dans R, alors α (X) et β(Y ) sont des variables aléatoires indépendantes. La réciproque est vraie si α et β sont des applications bijectives. Par contre, dans le cas où α et β ne sont pas bijectives, la réciproque est fausse. On vérifiera par exemple que le couple (X Y ) de densité ( 1 (1 + xy) si |x| < 1 et |y| < 1 4 f (x, y) = 0 sinon est tel que X 2 et Y 2 sont indépendantes alors que X et Y ne le sont pas.

Cours Probabilité, 1TR, 2015-2016 – p. 35/68

Espérance mathématique Définition E[α(X, Y )] =

(

X et Y va discrètes : X et Y va continues :

P α(xi , yj )pij i,j∈I×J R α(u, v)p(u, v)dudv R2

Propriétés Constante : E(cste) = cste Linéarité : E [aα(X, Y ) + bβ(X, Y )] = aE [α(X, Y )] + bE [β(X, Y )] Définition cohérente (cas continu) : Z Z E [α(X)] = α(u)p(u, v)dudv = α(u)p(u, .)du R2

R

Indépendance : si X et Y sont indépendantes, alors E [α(X)β(Y )] = E [α(X)] E [β(Y )] , ∀α∀β

Cours Probabilité, 1TR, 2015-2016 – p. 36/68

Exemples Moments centrés et non centrés mij = E (X i Y j ) , i ∈ N, j ∈ N

µij = E ([X − E(X)]i [Y − E(Y )]j ) , i ∈ N, j ∈ N

Covariance et matrice de covariance = E ([X − E(X)][Y − E(Y )]) = E (XY ) − E(X)E(Y )       X − E[X] varX cov(X, Y ) T     , V = E VV = Y − E[Y ] cov(X, Y ) varY cov(X, Y )

Fonction caractéristique   T φX,Y (u1 , u2 ) = E exp(iu W ) , u = (u1 , u2 )T , W = (X, Y )T .

Cours Probabilité, 1TR, 2015-2016 – p. 37/68

Coefficient de Corrélation Définition r(X, Y ) =

cov(X, Y )

σX σY

,

où σX et σY sont les écart-types des va X et Y . Propriétés −1 ≤ r(X, Y ) ≤ 1 r(X, Y ) = ±1 si et ssi X et Y sont reliées par une relation affine si X et Y sont des va indépendantes, alors r(X, Y ) = 0 mais la réciproque est fausse Conclusion r(X, Y ) est une mesure imparfaite mais très pratique du lien entre les va X et Y . Cours Probabilité, 1TR, 2015-2016 – p. 38/68

Espérance conditionnelle Théorème E [α(X, Y )] = EX [EY [α(X, Y )|X]]

Exemple Y =

N X

Xi

i=1

où P [Xi = 1] = p, P [Xi = 0] = q = 1 − p et N est une va.

Cours Probabilité, 1TR, 2015-2016 – p. 39/68

Changements de variables Problème Étant donné un couple de variables aléatoires réelles (X, Y ) de loi connue, on cherche à déterminer la loi de (U, V ) = g(X, Y ) où g est une fonction de R2 dans R2 et U et V sont deux fonctions de R2 dans R. Variables aléatoires discrètes Définition P [(U, V ) = (uk , vl )] =

X

p[X = xi , Y = yj ]

i,j|g(xi ,yj )=(uk ,vl )

Exemple voir TD Cours Probabilité, 1TR, 2015-2016 – p. 40/68

Changements de va continues de R2 → R2 Théorème pour g bijective si (X, Y ) est un couple de va continues à valeurs dans un ouvert O ⊂ R2 et g : R2 → R2 est une application bijective de O dans un ouvert ∆ ⊂ R2 continument différentiable ainsi que son inverse g −1 , alors (U, V ) = g(X, Y ) est un couple de va continues de densité  −1  pU,V (u, v) = pX,Y g (u, v) |det(J)|, où J est la matrice Jacobienne définie par ! J=

∂x ∂u ∂y ∂u

∂x ∂v ∂y ∂v

Cours Probabilité, 1TR, 2015-2016 – p. 41/68

Changements de va continues de R2 → R2 Exemple X ∼ N (0, 1), Y ∼ N (0, 1), X et Y va indépendantes. Quelle est la loi de (R, Θ) avec X = R cos Θ et Y = R sin Θ ? Généralisation Si g est bijective par morceaux, on ajoute les contributions de chaque morceau.

Cours Probabilité, 1TR, 2015-2016 – p. 42/68

Changements de va continues de R2 → R Problème Si (X, Y ) est un couple de va continues de loi connue et g : R2 → R, on cherche la loi de U = g(X, Y ). Solutions

Variable intermédiaire : on introduit une va V = h(X, Y ) (e.g., V = X ou V = Y ), on cherche la loi du couple (U, V ), puis la loi marginale de U Calcul de la fonction de répartition de U Z P [U < u] = P [g(X, Y ) < u] = P [(X, Y ) ∈ ∆u ] = p(x, y)dxdy, ∆u

Cas particulier de U = X + Y , X et Y indépendantes Calcul de la fonction caractéristique de U . Cours Probabilité, 1TR, 2015-2016 – p. 43/68

Que faut-il savoir ? Loi d’un couple de va discrètes et continues : ? Appartenance à un intervalle : P [(X, Y ) ∈ ∆] =?

Comment calculer les lois marginales d’un couple ? Comment calculer les lois conditionnelles d’un couple ? Indépendance de deux variables aléatoires ? Espérance mathématique : E[XY ] =? Covariance : cov(X, Y ) =? Coeff. de corrélation : r(X, Y ) =?, r(X, Y ) ∈? Intérêt ? Espérances conditionnelles : ?

Trois méthodes de changements de variables : ?

Cours Probabilité, 1TR, 2015-2016 – p. 44/68

Plan du cours Chapitre 1 : Eléments de base du calcul des probabilités Chapitre 2 : Variables aléatoires réelles Chapitre 3 : Couples de variables aléatoires réelles Chapitre 4 : Vecteurs Gaussiens Définition Transformation affine Lois marginales, lois conditionnelles, indépendance Lois du chi2, de Student et de Fisher Chapitre 5 : Convergence et théorèmes limites Cours Probabilité, 1TR, 2015-2016 – p. 45/68

Vecteur Gaussien Définition On dit que X = (X1 , ..., Xn )T suit une loi normale à n dimensions et on notera X ∼ Nn (m, Σ), si la densité de probabilité de X s’écrit   1 1 p exp − (x − m)T Σ−1 (x − m) p(x) = 2 (2π)n/2 det(Σ) où x ∈ Rn , m ∈ Rn et Σ ∈ Mn (R) est une matrice symétrique définie positive. Cas particuliers n=1 Σ diagonale Cours Probabilité, 1TR, 2015-2016 – p. 46/68

Signification de m et Σ Fonction caractéristique    T  1 T iu X T φ(u) = E e = exp iu m − u Σu 2

Fonction génératrice des moments    T  1 T u X T θ(u) = E e = exp u m + u Σu 2 m et Σ m est le vecteur moyenne Σ est la matrice de covariance

Cours Probabilité, 1TR, 2015-2016 – p. 47/68

Cas Bivarié Fonction caractéristique   1 1 φ(u) = exp i(u1 m1 + u2 m2 ) − Σ11 u21 − Σ22 u22 − Σ12 u1 u2 2 2 Dérivées partielles ∂φ(u) = φ(u)(im1 − Σ12 u2 − Σ11 u1 ) ∂u1 ∂φ(u) = φ(u)(im2 − Σ12 u1 − Σ22 u2 ) ∂u2 ∂ 2 φ(u) = φ(u)(im1 − Σ12 u2 − Σ11 u1 )(im2 − Σ12 u1 − Σ22 u2 ) − Σ12 φ(u) ∂u1 ∂u2 Moments ∂φ(u) ∂φ(u) = iE[X1 ] = im1 , = iE[X2 ] = im2 ∂u1 u=0 ∂u2 u=0 ∂ 2 φ(u) = −E[X1 X2 ] = −m1 m2 − Σ12 ∂u ∂u 1

2 u=0

Cours Probabilité, 1TR, 2015-2016 – p. 48/68

Transformation affine Problème : Soit X ∼ Nn (m, Σ) un vecteur Gaussien. Quelle est la loi de Y = AX + b, où Y est un vecteur aléatoire de Rp , b ∈ Rp et A est une matrice de taille p × n avec p ≤ n ?

Idée : on calcule la fonction génératrice de Y = AX + b   1 T T θY (v) = exp v (Am + b) + v AΣAT v 2 Conclusion Y ∼ Np Am + b, AΣA

T



si A est de rang p (i.e., de rang maximal). Cours Probabilité, 1TR, 2015-2016 – p. 49/68

Lois marginales Hypothèses ! X′ X= ∼ Nn (m, Σ), m = ′′ X

!

m′ m′′

,Σ =

Σ′ MT

M Σ′′

!

Problème Quelle est la loi de X ′ ? Conclusion ′



X ∼ Np m , Σ

où p est la dimension de X ′ .





Cours Probabilité, 1TR, 2015-2016 – p. 50/68

Indépendance Hypothèses ! X′ X= ∼ Nn (m, Σ), m = ′′ X

m′ m′′

!

,Σ =

Σ′ MT

M Σ′′

!

Conclusion X ′ et X ′′ sont des vecteurs indépendants si et ssi M = 0.

Cours Probabilité, 1TR, 2015-2016 – p. 51/68

Loi du chi2 Définition Si X1 , ..., Xn sont n va indépendantes de loi N (0, 1), Pn alors Y = i=1 Xi2 ∼ χ2n suit une loi du chi2 à n degrés de liberté. Propriétés

Densité de probabilité : pn (y) =

n

y

y 2 −1 e− 2 IR+ (y) n n 2 2 Γ( 2 ) − n2

Fonction caractéristique : φn (t) = (1 − 2it) Moyenne et variance : E(Y ) = n et var(Y ) = 2n Additivité : si Y ∼ χ2n , Z ∼ χ2m , Y et Z ind. alors Y + Z ∼ χ2n+m Cours Probabilité, 1TR, 2015-2016 – p. 52/68

Loi de Student Définition Si X ∼ N (0, 1), Y ∼ χ2n , X et Y indépendantes, alors Propriétés

X Z = q ∼ tn Y n

Densité de probabilité

  − n+1 2 2 Γ z  1+ IR+ (z) pn (z) = √ n n nπΓ 2 n+1 2

Moyenne et variance (pour n > 2)

n E(Z) = 0 et var(Z) = n−2 pour n = 1, on a une loi de Cauchy Cours Probabilité, 1TR, 2015-2016 – p. 53/68

Loi de Fisher Définition Si X ∼ χ2n , Y ∼ χ2m , X et Y indépendantes, alors Propriétés

X/n Z= ∼ fn,m Y /m

Densité de probabilité connue (voir livres) Moyenne et variance (pour m > 4) m 2m2 (n + m − 2) E(Z) = et var(Z) = m−2 n(m − 4)(m − 2)2

Cours Probabilité, 1TR, 2015-2016 – p. 54/68

Que faut-il savoir ? X ∼ Nn (m, Σ)

Signification de m et de Σ ? Transformation affine (Y = AX + b) d’un vecteur gaussien ? Condition sur la matrice A associée ? Lois marginales d’un vecteur gaussien ? Indépendance de deux sous vecteurs d’un vecteur gaussien ? Pn loi de Y = i=1 Xi2 ∼ χ2n ? Cours Probabilité, 1TR, 2015-2016 – p. 55/68

Plan du cours Chapitre 1 : Eléments de base du calcul des probabilités Chapitre 2 : Variables aléatoires réelles Chapitre 3 : Couples de variables aléatoires réelles Chapitre 4 : Vecteurs Gaussiens Chapitre 5 : Convergence et théorèmes limites Convergence (en loi, en probabilité, en moyenne quadratique, presque sure) Théorèmes limites (loi des grands nombres, théorème de la limite centrale)

Cours Probabilité, 1TR, 2015-2016 – p. 56/68

Convergence en loi Définition La suite de va X1 , ..., Xn converge en loi vers la va X si et ssi la suite des fonctions de répartition Fn (x) = P [Xn < x] converge simplement vers F (x) = P [X < x] en tout point x où F est continue. Notation L

Xn → X n→∞

Exemple 1 1 P [Xn = 1] = et P [Xn = 0] = 1 − n n

Cours Probabilité, 1TR, 2015-2016 – p. 57/68

Convergence en loi Propriétés Théorème de Levy Xn cv en loi vers X si et ssi φ continue en t = 0 et  itX   itXn  → φ(t) = E e , ∀t. φn (t) = E e n→∞

Si Xn est une suite de va continues de densités L pn (x) et que pn (x) → p(x) p.p., alors Xn → X . n→∞

n→∞

L

Si Xn → X et g : R → R continue, alors n→∞

L

g(Xn ) → g(X). n→∞

Cours Probabilité, 1TR, 2015-2016 – p. 58/68

Convergence en probabilité Définition La suite de va X1 , ..., Xn converge en probabilité vers la va X si et ssi ∀ǫ > 0, on a P [|Xn − X| > ǫ] → 0. n→∞

Notation P

Xn → X n→∞

Exemple : Xn de densité pn (x) = Propriété

ne−nx . (1+e−nx )2

P

Si Xn → X et g : R → R continue, alors n→∞

P

g(Xn ) → g(X). n→∞

Cours Probabilité, 1TR, 2015-2016 – p. 59/68

Convergence en moyenne quadratique Définition La suite de va X1 , ..., Xn converge en moyenne quadratique vers la va X si et ssi   2 E (Xn − X) → 0. n→∞

Notation

MQ

Xn → X n→∞

Exemple 1 1 P [Xn = n] = p et P [Xn = 0] = 1 − p n n

avec p = 2 et p = 3. Cours Probabilité, 1TR, 2015-2016 – p. 60/68

Convergence presque sûre Définition La suite de va X1 , ..., Xn converge presque sûrement vers la va X si et ssi Xn (ω) → X(ω), n→∞

∀ω ∈ A|P (A) = 1.

Notation PS

Xn → X n→∞

Comparaison entre les différents types de convergence

Cours Probabilité, 1TR, 2015-2016 – p. 61/68

Loi faible des grands nombres Loi faible des grands nombres Si X1 , ..., Xn sont des va indépendantes et de même loi de moyenne E [Xk ] = m < ∞, alors la va 1 Pn X n = n k=1 Xk converge en probabilité vers m. Preuve

h

ϕX n (t) = E e

it n1

Pn

k=1

Xk

i

=E

"

n Y

k=1

e

i nt Xk

#

  n t = ϕ n

Dév. de Taylor de φ ϕ (t) = ϕ (0) + tϕ′ (0) + tλ (t) = 1 + itm + tλ (t)

Cours Probabilité, 1TR, 2015-2016 – p. 62/68

Preuve On en déduit 

       t t t t t t =n i m+ λ ln ϕX n (t) = n ln 1 + i m + λ n n n n n n

d’où

lim ϕX n (t) = eitm

∀t

n→∞

i.e., L

P

Xn → m ⇔ Xn → m n→∞

n→∞

Cours Probabilité, 1TR, 2015-2016 – p. 63/68

Loi forte des grands nombres Loi forte des grands nombres Si X1 , ..., Xn sont des va indépendantes et de même loi de moyenne E [Xk ] = m < ∞ et de variance σ 2 < ∞, 1 Pn alors la va X n = n k=1 Xk converge en moyenne quadratique vers m. Preuve E

h

X −m

2 i

n n 1 XX = 2 E [(Xk − m) (Xl − m)] n k=1 l=1

Mais E [(Xk − m) (Xl − m)] =

(

σ 2 si k = l 0 si k 6= l

Cours Probabilité, 1TR, 2015-2016 – p. 64/68

Preuve Donc E

i.e.,

h

Xn − m

2 i

σ2 = → 0 n n→∞

MQ

Xn → m n→∞

Cours Probabilité, 1TR, 2015-2016 – p. 65/68

Théorème de la limite centrale Théorème de la limite centrale Si X1 , ..., Xn sont des va indépendantes et de même loi 2 < ∞, de moyenne E [Xk ] = m < ∞ et de variance σ Pn X −nm converge en alors la va centrée réduite Yn = k=1√ k2 nσ loi vers la loi normale N (0, 1). Preuve



ϕYn (t) = E e

Mais

 itYn

=e

√ itm n − σ

n Y

k=1

h

E e

i σ√t n Xk

i

  h t i t i σ√n Xk √ E e =ϕ σ n Cours Probabilité, 1TR, 2015-2016 – p. 66/68

Preuve Donc

  √ t itm n √ + n ln ϕ ln [ϕYn (t)] = − σ σ n

En utilisant le développement de Taylor de ϕ

2 t ϕ (t) = ϕ (0) + tϕ′ (0) + ϕ′′ (0) + t2 λ (t) 2

On en déduit ln [ϕYn (t)] = − lim ϕYn (t) = e

n→∞

t2 −2

t2 2

+

t2 n

λ



t √

σ n



L

∀t ⇔ Yn → N (0, 1) n→∞

Cours Probabilité, 1TR, 2015-2016 – p. 67/68

Que faut-il savoir ? Convergence en loi ? Convergence en moyenne quadratique ? 1 Pn k=1 Xk converge en probabilité vers ? Conditions ? n 1 Pn k=1 Xk converge en moyenne quadratique vers ? n Conditions ? Yn =

Pn

Xk −? ?

k=1

converge en loi vers ?

Cours Probabilité, 1TR, 2015-2016 – p. 68/68

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF