Variables aléatoires réelles finies I. Variables aléatoires réelles II

January 14, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Variables aléatoires réelles finies I. Variables aléatoires réelles II...

Description

Gaudino, casier 5

version 2.0

Variables aléatoires réelles finies

P.C.S.I. 834

Lycée Masséna

Soit Ω un univers fini.

I.

Variables aléatoires réelles

I.1.

Variables aléatoires

d´ efinition 1. Une variable aléatoire est une fonction définie sur Ω à valeurs dans une ensemble E. Remarques : – La variable aléatoire est dite réelle lorsque E = R. – Une variable aléatoire se note généralement X, Y , . . . – L’événement noté usuellement {X = x} est l’ensemble X −1 ({x}) : image réciproque de {x} par X, ou encore l’ensemble des antécédents de x par X. On écrit habituellement P {X = x} au lieu de P ({X = x}). – L’ensemble image X(Ω) est appelé support de X. – Le support de X est ici fini (car Ω est fini) : on dit que X est une variable aléatoire finie. Dans la suite, on note X(Ω) = {x1 , · · · , xn } (au besoin, on précisera x1 < · · · < xn ). – Combinaisons linéaires de variables aléatoires, de variables aléatoires réelles, de variables aléatoires finies. Structure d’espace vectoriel.

I.2.

Loi d’une variable aléatoire

d´ efinition 2. Soit Ω un univers muni d’une probabilité P , et X une variable aléatoire. On définit PX , appelée loi de la variable aléatoire X, par : – sur les singletons de X(Ω) par PX ({xi }) = P {X = xi } ; – puis sur chaque sous-ensemble (événement) de X(Ω) par additivité. Pour A ⊂ X(Ω), on note PX (A) = P {X ∈ A}. Th´ eor` eme 1. PX est une loi de probabilité sur X(Ω). La probabilité d’obtenir xi en appliquant X est P {X = xi }. C’est donc aussi PX ({xi }). On la note aussi dans la suite pi . Exercice : on tire simultanément 2 boules dans une urne qui en contient 5, numérotées de 1 à 5. On note X la variable aléatoire qui donne la valeur absolue de la différence des numéros. Donner la loi de X. P {X = 1} = 2/5, P {X = 2} = 3/10, P {X = 3} = 1/5, P {X = 4} = 1/10

I.3.

Fonction de répartition 

d´ efinition 3. La fonction FX :

R x

−→ 7−→

[0, 1] est appelée fonction de répartition de X. P {X ≤ x}

On note encore X(Ω) = {x1 , · · · , xn }, avec x1 < x2 < · · · < xn . On a : – si x < x1 , P {X ≤ x} = 0 – si xk ≤ x < xk+1 avec 1 ≤ k ≤ n − 1, P {X ≤ x} = P {X = x1 } + P {X = x2 } + · · · + P {X = xk } – si x ≥ xn , P {X ≤ x} = 1 – si x < y sont deux réels, P {x < X ≤ y} = P {X ≤ y} − P {X ≤ x} Exercice : calculer la loi de X en calculant sa fonction de répartition, dans le cas où X désigne la face maximale sortie dans une série de n jets successifs indépendants de dés 6. P {X ≤ k} =

kn pour k ∈ J1, 6K 6n

II.

Couples de variables aléatoires

II.1.

Lois conjointes et marginales

– On considère les deux variables aléatoires finies, définies sur le même univers Ω. On note leurs supports respectifs : X(Ω) = {x1 , · · · , xn } et Y (Ω) = {y1 , · · · , ym } Le support du couple (X, Y ) est inclus dans X(Ω) × Y (Ω), et est en particulier fini : (X, Y ) est une fonction définie sur Ω, à valeurs dans R2 , de support fini : on parle de couple de variables aléatoires finies. 1

– La loi conjointe de X et Y est la loi de (X, Y ). C’est une loi sur X(Ω) × Y (Ω) (avec éventuellement des événements impossibles). Les événements atomiques sont les {(X, Y ) = (xk , yl )} soit encore {X = xk }∩{Y = yl }, {X = xk , Y = yl }, {X = xk et Y = yl }. Tout événement de X(Ω) × Y (Ω) s’obtient comme réunion disjointe de ces événements atomiques, et on calcule alors leur probabilité par additivité. – Les deux lois marginales de (X, Y ) sont respectivement les lois de X sur X(Ω) et de Y sur Y (Ω). – Si on note pk,l = P {(X, Y ) = (xk , yl )}, pk,∗ = P {X = xk }, et p∗,l = P {Y = yl }, on a le tableau : P X = x1 X = x2 .. . X = xn loi de Y et les relations : ∀k ∈ J1, nK,

m X

Y = y1 p1,1 p2,1 .. . pn,1 p∗,1

pk,l = pk,∗

l=1

Y = y2 p1,2 p2,2 .. . pn,2 p∗,2

··· ··· ··· .. . ··· ···

Y = ym p1,m p2,m .. . pn,m p∗,m

loi de X p1,∗ p2,∗ .. . pn,∗ 1

n X pk,l = p∗,l ∀l ∈ J1, mK, k=1

X

pk,l = 1

k,l

– La loi conjointe détermine les lois marginales, par ces formules de sommation. En revanche, les lois marginales ne déterminent pas la loi conjointe, puisque diverses valeurs des pk,l permettent d’obtenir les mêmes pk,∗ et p∗,l . Exercice : déterminer les lois conjointe et marginales de X et Y , dans le cas d’un jet de deux dés tétraédriques équilibrés distincts, où X est la somme des faces, et Y le produit. S’agit-il de variables aléatoires indépendantes ?

II.2.

Lois conditionnelles

d´ efinition 4. La loi conditionnelle de X sachant que {Y = yl }, où l’événement {Y = yl } est de probabilité non nulle, est la loi définie sur X(Ω) par les probabilités atomiques P {X = xk | Y = yl } =

pk,l P {(X, Y ) = (xk , yl )} = P {Y = yl } p∗,l

puis par additivité. On définit de même la loi conditionnelle de Y sachant {X = xk }. Proposition 2. La loi conditionnelle de X sachant que {Y = yl } est une loi de probabilité définie sur X(Ω).

III.

Variables aléatoires indépendantes

III.1.

Pour deux variables aléatoires

d´ efinition 5 (Couples de variables aléatoires indépendantes). Les variables aléatoires X et Y définies sur Ω sont dites indépendantes si, pour tout x de X(Ω) et tout y de Y (Ω), les événements {X = x} et {Y = y} sont indépendants, et donc ∀(k, l), P {(X, Y ) = (xk , yl )} = P {X = xk }P {Y = yl } Dans le tableau, en notant pk = P {X = xk } et ql = P {Y = yl }, on trouve : P X = x1 X = x2 .. . X = xn loi de Y

Y = y1 p1 q1 p2 q1 .. . pn q1 q1

Y = y2 p1 q2 p2 q2 .. . pn q2 q2

··· ··· ··· .. . ··· ···

Y = ym p1 qm p2 qm .. . pn qm qm

loi de X p1 p2 .. . pn 1

Proposition 3. Si X et Y sont indépendantes, alors, pour tout x élément de X(Ω), la loi conditionnelle PY |X=x est égale à la loi marginale PY . Th´ eor` eme 4. X et Y sont indépendantes, si et seulement si, pour toute partie A de X(Ω) et toute partie B de Y (Ω), on a : P {(X, Y ) ∈ A × B} = P {X ∈ A}P {Y ∈ B} 2

Sens direct : on applique la propriété aux singletons A = {xk } et B = {yl }. Réciproque : quitte à renuméroter, on prend A = {x1 , · · · , xk } et B = {y1 , · · · , yl }. {(X, Y ) ∈ A × B} est la réunion disjointe des ensembles {(X, Y ) = (xi , xj )} pour 1 ≤ i ≤ k et 1 ≤ j ≤ l, donc P {(X, Y ) ∈ A×B} est la somme de ces probabilités. Comme par définition de l’indépendance, P {(X, Y ) = (xi , xj )} = P {X = xi }P {Y = yj }, on a P {(X, Y ) ∈ A × B}

=

X

P {(X, Y ) = (xi , xj )}

1≤i≤k 1≤j≤l k =

X

P {X = xi }

i=1

III.2.

X

=

P {X = xi }P {Y = yj }

1≤i≤k 1≤j≤l l X

P {Y = yj }

=

P {X ∈ A} P {Y ∈ B}

j=1

Pour plusieurs variables aléatoires

d´ efinition 6 (Variables aléatoires mutuellement indépendantes). Les variables aléatoires X1 , X2 , · · · , Xp définies sur Ω sont dites mutuellement indépendantes si, pour tout (x1 , x2 , · · · , xp ) de X1 (Ω)×X2 (Ω)×· · ·×Xp (Ω), les événements {Xi = xi } sont mutuellement indépendants. Ceci est équivalent à : pour tout k et tout choix de k entiers i1 < i2 < · · · < ik de J1, pK, P {Xi1 = xi1 , Xi2 = xi2 , · · · , Xik = xik } = P {Xi1 = xi1 }P {Xi2 = xi2 } · · · P {Xik = xik } Th´ eor` eme 5 (admis). X1 , . . . , Xp sont des variables aléatoires mutuellement indépendantes, si et seulement si, quel p Y que soit (A1 , . . . , Ap ) ∈ P(Xi (Ω)), les événements (Xi ∈ Ai ) sont mutuellement indépendants. i=1

On a donc en particulier : pour tout k et tout choix de k entiers i1 < i2 < · · · < ik de J1, pK,   k k \ Y P  {Xij ∈ Aij } = P {Xij ∈ Aij } j=1

j=1

Toute sous-famille est alors constituée de variables aléatoires mutuellement indépendantes. Par exemple pour montrer que X1 et X2 sont indépendantes, on prend A3 = X3 (Ω), . . ., Ap = Xp (Ω) de sorte que {X3 ∈ A3 } = Ω, . . ., {Xp ∈ Ap } = Ω, et la propriété devient que {X1 ∈ A1 } et {X2 ∈ A2 } sont indépendants. Ceci pour tout A1 ∈ X1 (Ω) et A2 ∈ X2 (Ω), ce qui prouve l’indépendance de X1 et X2 par le théorème vu auparavant.

IV.

Espérance, variance et écart type d’une variable aléatoire

IV.1.

Espérance

IV.1.1.

définitions

Soit X une variable aléatoire définie sur l’univers Ω, et P une probabilité sur Ω. On note encore X(Ω) = {x1 , · · · , xn }. X d´ efinition 7. L’espérance de X est E(X) = X(w)P ({w}). w∈Ω

Remarques : – Interprétation : l’espérance représente la moyenne pondérée du résultat de l’expérience X renouvelée un grand nombre de fois. – Calculs pour une variable aléatoire constante égale à a : E(X) = a. – Calculs pour une indicatrice d’une sous-partie de Ω : E(X) représente le poids (coefficienté) de cette sous-partie dans Ω. IV.1.2.

résultats

Th´ eor` eme 6. – positivité de l’espérance : pour X une variable aléatoire positive, E(X) ≥ 0. – croissance de l’espérance : pour X et Y deux variables aléatoires, si X ≤ Y alors E(X) ≤ E(Y ). – linéarité : pour X et Y deux variables aléatoires, et λ ∈ R, E(λX + Y ) = λE(X) + E(Y ). n n X X – E(X) = P {X = xi }xi = pi xi . C’est la formule pratique de calcul de l’espérance. i=1

i=1

En particulier, E(aX + b) = aE(X) + b. La formule pratique se prouve en regroupant les ω qui ont la même image xi dans la formule de l’espérance : xi est affecté de la somme des probabilités des singletons (disjoints) de ces ω, donc de la probabilité de leur réunion, qui est l’ensemble {X = xi }. D’où le résultat.

Exercice : calculer espérance (2) et écart-type (1) de l’exercice sur les 2 boules dans une urne de 5. 3

IV.1.3.

cas indépendant

Th´ eor` eme 7. Si X et Y sont deux variables aléatoires indépendantes alors E(XY ) = E(X)E(Y ). Il suffit de décrire l’image de XY comme l’ensemble des produits xi yj , pour 1 ≤ i ≤ n et 1 ≤ j ≤ m. En utilisant P {(X, Y ) = (xi , yj )} = P {X = xi }P {Y = yj } par indépendance, on a

X

E(XY ) =

xi yj P {(X, Y ) = (xi , yj )} =

X

xi yj P {X = xi }P {Y = yj } =

1≤i≤n 1≤j≤m

1≤i≤n 1≤j≤m

n X

xi P {X = xi }

i=1

m X

yj P {Y = yj } = E(X)E(Y )

j=1

La réciproque est fausse en général.

2 Soit X une variable aléatoire qui prend les trois valeurs −1, 0, 1 avec la même probabilité 1/3, et Y = X . Alors 2 1 E(XY ) = E(X)E(Y ) = 0 mais X et Y ne sont pas indépendantes, puisque P {X = 1}P {Y = 1} = et P ({X = 1} ∩ {Y = 1}) = P {X = 1} = . 9 3

IV.2.

Image par une fonction

IV.2.1.

définition

Soit f : R → R et X une variable aléatoire sur Ω. f ◦ X est une nouvelle variable aléatoire sur Ω. La loi associée à cette variable aléatoire est une loi de probabilité sur le support de f ◦ X, i.e. sur f (X(Ω)) (qui est fini). Th´ eor` eme 8 (Théorème du transfert). E(f (X)) =

X

f (x)P {X = x} =

X

f (xi )pi =

i=1

x∈X(Ω)

Par définition, E(f (X)) =

n X

n X

f (xi )P {X = xi }

i=1

f ◦ X(ω)P {ω}. Comme pour la formule pratique, on regroupe les ω qui ont la même image xi dans la formule de l’espérance : f (xi ) est

ω∈Ω affecté de la somme des probabilités des singletons (disjoints) de ces ω, donc de la probabilité de leur réunion, qui est l’ensemble {X = xi }. D’où le résultat.

L’espérance de f (X) est déterminée par la loi de X (et pas uniquement de f ◦ X, c’est ce qui est remarquable dans ce théorème). Application au calcul du moment d’ordre 2 : cas où f : x 7→ x2 et calcul de E(X 2 ). IV.2.2.

cas indépendant

Th´ eor` eme 9 (admis). Si X et Y sont deux variables aléatoires indépendantes, et si f et g sont des applications définies respectivement sur X(Ω) et Y (Ω) alors les variables aléatoires f (X) et g(Y ) sont indépendantes. Il faut montrer que P {(f (X), f (Y )) = (ξ, µ)} = P {f (X) = ξ}P {f (Y ) = µ} où ξ ∈ f ◦ X(Ω) et µ ∈ g ◦ Y (Ω). Mais on a les égalités d’ensembles {f (X) = ξ} = {X ∈ f

−1

({ξ})} et {g(Y ) = µ} = {Y ∈ g

−1

({µ})}, et {(f (X), f (Y )) = (ξ, µ)} = {X ∈ f

IV.3.

Variance et écart-type

IV.3.1.

définitions

d´ efinition 8. – La variance de X est V (X) = E p – L’écart-type de X est σ(X) = V (X).



−1

({ξ})} ∩ {Y ∈ g

−1

({µ})}. Par indépendance du X et Y , on a bien le résultat.

2  X − E(X) .

Remarques : – Interprétation : la variance représente la dispersion des résultats autour de la moyenne. L’écart-type permet une mesure de la dispersion dimensionnée. – Calcul pour une variable aléatoire constante égale à a : V (X) = 0. IV.3.2.

résultats

Th´ eor` eme 10. – V (X) =

n X i=1

n  2 X  2 pi xi − E(X) = P (X = xi ) xi − E(X) (par le th de transfert). i=1

– Relation (de Koenig-Huygens) : V (X) = E(X 2 ) − E(X)2 (par linéarité). – Relation V (aX + b) = a2 V (X) (par Koenig-Huygens). Notons m = E(X).



2 La première formule est l’application du théorème de transfert à f : x 7→ (x − m) . 2 2 2 2 2 2 2 V (X) = E X − E(X) = E(X − 2mX + m ) = E(X ) − 2mE(X) + m = E(X ) − m .



2 2 2 2 2 2 2 2 2 V (aX + b) = E((aX + b) ) − E(aX + b) = a E(X ) + 2abE(X) + b − a E(X) − 2abE(X) − b = a V (X).





Remarques : – La relation de Koenig-Huygens est la formule pratique pour calculer la variance. – Exercice : calculer espérance (2) et écart-type (1) de l’exercice sur les 2 boules dans une urne de 5. 4

– Exercice : la valeur E(X) est celle qui minimise la fonction g : y 7→

n X

 2 pi xi − y .

i=1

Proposition 11. Si X et Y sont deux variables aléatoires indépendantes alors V (X + Y ) = V (X) + V (Y ). Généralisation à plusieurs variables aléatoires mutuellement indépendantes. 2 2 2 2 2 2 V (X + Y ) = E((X + Y ) ) − E(X + Y ) = E(X ) + 2E(XY ) + E(Y ) − E(X) − 2E(X)E(Y ) − E(Y ) = V (X) + V (Y ) + 2E(XY ) − 2E(X)E(Y ) = V (X) + V (Y ) car par indépendance, E(XY ) = E(X)E(Y ).

IV.4.

Normalisation

Corollaire 12 (renormalisation). Si X est une variable aléatoire alors X ∗ =

X − E(X) X − E(X) p = est centrée σ(X) V (X)

( i.e. d’espérance nulle) réduite ( i.e. de variance égale à 1).

V.

Quelques lois à connaître

V.1.

Variable constante

Lorsque X est constante, de support {a}, alors P {X = a} = 1, E(X) = a et V (X) = 0.

V.2.

Loi uniforme

d´ efinition 9. Soient a et b deux entiers tels que a < b (on note n = b − a + 1 soit le nombre d’entiers entre a et b). On dit que la variable aléatoire X suit la loi uniforme U(Ja, bK), noté X ,→ U(Ja, bK), lorsque : ∀k ∈ Ja, bK, P {X = k} =

1 1 = b−a+1 n

1 . n Exercice : si X ,→ U(J1, nK) alors X + a ,→ U(Ja + 1, a + nK). A-t-on un résultat analogue avec λX ,→ U(Jλ, nλK) (non) ? Cas particulier important : a = 1, b = n, et ∀k ∈ J1, nK, P {X = k} =

Th´ eor` eme 13. Si X ,→ U(Ja, bK) alors E(X) =

a+b (b − a + 1)2 − 1 n2 − 1 et V (X) = = . 2 12 12

Exercice : une urne contient n boules numérotées de 1 à n. On tire une à une des boules (sans remise) jusqu’à obtenir la boule n. On note X la variable aléatoire qui donne le numéro de ce tirage. Montrer que X suit une loi uniforme.

V.3. V.3.1.

Loi de Bernoulli définition

d´ efinition 10. Soit p ∈ [0, 1]. On dit que la variable aléatoire X suit la loi B(p) de Bernoulli de paramètre p, noté X ,→ B(p), lorsque : P {X = 1} = p et P {X = 0} = 1 − p Th´ eor` eme 14. Si X ,→ B(p) alors E(X) = p et V (X) = p(1 − p). 2 2 2 2 E(X) = p ∗ 1 + (1 − p) ∗ 0 = p et V (X) = p ∗ (1 − p) + (1 − p) ∗ (0 − p) = p ∗ (1 − p) + (1 − p) ∗ p = p ∗ (1 − p) ∗ (1 − p + p) = p(1 − p)

ou calcul de la variance par la formule de Huygens.

Interprétation : succès d’une expérience aléatoire. Cette variable aléatoire permet d’étudier une expérience aléatoire qui a deux issues possibles : – 1 (appelé succès) de probabilité p ; – 0 (appelé échec) de probabilité q = 1 − p. Exercice : dans une urne contenant n boules rouges et m vertes, on tire une boule. Le succès est obtenu par une boule n rouge. Définir une variable aléatoire qui décrit cette expérience et trouver sa loi : loi de Bernoulli d’indice . n+m

5

V.3.2.

fonction indicatrice

Soit A un sous-ensemble (événement) de Ω. On considère la fonction notée χA ou 1A , appelé indicatrice de A, définie sur Ω à valeurs dans R par : ∀ω ∈ Ω, 1A (ω) = 1 si ω ∈ A, 1A (ω) = 0 si ω ∈ /A – – – –

Son image est incluse dans {0, 1} (égale pour A 6= ∅ et A 6= Ω). 1A = 1 − 1A 1A∩B = 1A 1B 1A∪B = 1A + 1B − 1A 1B en passant par 1 − 1A∪B = (1 − 1A )(1 − 1B )

V.3.3.

variable de Bernoulli et indicatrice

Une variable aléatoire qui suit une loi de Bernoulli est appelée variable de Bernoulli. Proposition 15. Les variables aléatoires qui suivent une loi de Bernoulli sont les indicatrices d’un événement de Ω. Soit A un sous-ensemble (événement) de Ω. On note p = P (A). On considère la variable aléatoire 1A . 1A est une variable aléatoire de support {0, 1}, de loi P {1A = 1} = P (A) = p et P {1A = 0} = P (A) = 1 − p : 1A ,→ B(p). −1 – Réciproquement, soit X un variable aléatoire telle que X ,→ B(p). On note A = X ({1}) = {X = 1} : on a X = 1A . –

Exercice : en utilisant les indicatrices, montrer que si X et Y sont deux variables aléatoires de Bernoulli alors XY et 1 − X aussi. Calculer leur paramètre. Et pour leur somme ? Leur différence ? (en général, non)

V.4.

Loi binomiale

V.4.1.

lemme

    n n−1 On a, pour 1 ≤ k ≤ n et 1 ≤ n : k =n . k k−1 n n! –



. = k!(n − k)! k Par dénombrement : dans une population de n individus, on sélectionne une équipe de 11 joueurs pour la coupe du monde, dont un capitaine, non, c’est pas ça de k joueurs dont un capitaine. Il y a deux manières : – on sélectionne un capitaine (n possibilités) puis k − 1 joueurs simples (k − 1 parmi n − 1 possibilités) ; – on sélectionne k joueurs (k possibilités) puis dans cette équipe de k, un capitaine (k possibilités). Par calcul avec

V.4.2.

définition

d´ efinition 11. Soit n ∈ N∗ et p ∈ [0, 1]. On dit que la variable aléatoire X suit la loi binomiale B(n, p), noté X ,→ B(n, p), lorsque :   n k ∀k ∈ J0, nK, P {X = k} = p (1 − p)n−k k Th´ eor` eme 16. Si X ,→ B(n, p) alors E(X) = np et V (X) = np(1 − p). n n − 1 Comme k

pour k ≥ 1, on a

= n

k−1

k

E(X)

=

n X

n k



k n−k p (1 − p) =

n X

k

np



n X

k n−k p (1 − p) = n

k=1

n X

n − 1

n−1



k n−k p (1 − p)

k−1

k

k=0

=

n k

k=1

k−1 n−1−(k−1) p (1 − p) = np

n−1 X

n−1



k−1

k n−1−k n−1 p (1 − p) = np(p + 1 − p) = np

k

k=1

k=0

2 2 2 On calcule la variance par V (X) = E(X ) − E(X) : on écrit k = k(k − 1) + k, donc

2 E(X ) =

n X

k

2

n



k n−k p (1 − p) =

n X

k(k − 1)

k

Or, comme k(k − 1)

k



k n−k p (1 − p) +

n − 1

= n(n − 1)

k−1

2 E(X ) − E(X)

n



k

k n−k p (1 − p) =

k(k − 1)

n



k n−k p (1 − p) + E(X)

k

k=0 n − 2

n X

k

k=0

= n(k − 1)

n X

k

k=0 n

n

k=0

pour k ≥ 2, et que les termes pour k = 0 et k = 1 sont nuls, on a :

k−2

=

n(n − 1)

n X

n−2



k n−k 2 p (1 − p) = n(n − 1)p

n X

k−2

k−2

k=2

=

n(n − 1)p

2

n−2 X

k=2 n − 2

k n−2−k p (1 − p)

k k=0 =

n−2

2 n−2 2 n(n − 1)p (p + 1 − p) = n(n − 1)p

2 2 2 2 2 soit V (X) = n(n − 1)p + E(X) − E(X) = n(n − 1)p + np − n p = np(1 − p). Voir plus bas pour une autre méthode.

6



p

k−2

n−k (1 − p)

V.4.3.

utilisation

Cette loi intervient lors de la répétition de n expériences aléatoires indépendantes (voir plus tard), qui suivent toutes la loi de Bernoulli de paramètre p. Th´ eor` eme 17. Si X1 , . . . , Xn sont mutuellement indépendantes et suivent chacune la loi B(p), alors X1 + · · · + Xn suit la loi B(n, p). La variable aléatoire X = X1 + · · · + Xn est d’image J0, nK. L’événement {X = k} pour k ∈ J0, nK est obtenu par : – k des Xi valent 1 et les autres valent 0 ; – il y a k parmi n manières de choisir les variables aléatoires Xi qui valent 1 (ce qui choisit aussi celles qui valent 0) ; – et la probabilité que ces k là valent 1 et les autres 0 est le produit des probabilités que les premières vaillent 1 et les autres 0 (car les variables aléatoires sont k n−k indépendantes), soit p (1 − p) ; n k n−k – d’où P {X = k} = p (1 − p) . k



– Jeu de pile ou face : on réalise n fois le jeu suivant : on tire à pile ou face, pile sortant avec la probabilité p. On note X la variable aléatoire qui compte le nombre de fois où pile est sorti, et on note Y la variable aléatoire définie sur l’univers {pile, f ace} telle que Y (pile) = 1 etY (f  ace) = 0 et pour tout k, Xk = Y . n k On a X = Y + Y + · · · + Y , et P {X = k} = p (1 − p)n−k pour 0 ≤ k ≤ n, donc X ,→ B(n, p). k a et – Tirage avec remise : on considère une urne remplie de a boules blanches et b boules noires. On note p = a+b n = a + b. On réalise n tirages d’une boule avec remise, et on appelle X la variable aléatoire qui compte le nombre de boules blanches tirées, et Y la variable aléatoire définie sur l’univers {blanc, noir} telle que Y (blanc) = 1 et Y (noir) = 0 et pour tout k, Xk = Y . On a X = Y + Y + · · · + Y qui suit une loi B(n, p). – Calcul de l’espérance d’une variable aléatoire binomiale : par linéarité, E(X) = E(X1 + · · · + Xn ) = E(X1 ) + · · · + E(Xn ) = np Calcul de la variance d’une variable aléatoire binomiale : la variance d’une somme de variables aléatoires mutuellement indépendantes est la somme des variances, et donc V (X) = V (X1 + · · · + Xn ) = V (X1 ) + · · · + V (Xn ) = np(1 − p)

V.5.

Une preuve de la formule du binôme de Newton

On considère une urne remplie de a boules blanches et b boules noires. Soit n = a+b, qui sont tous des entiers naturels. On réalise le tirage de n boules avec remise. X la variable  aléatoire qui compte le nombre de boules blanches.   On note  bn−k n ak bn−k n ak = , et comme X(Ω) = J0, nK et que les On a, pour 0 ≤ k ≤ n, P {X = k} = k (a + b)n k (a + b)k (a + b)n−k événements {X = k} forment un système complet d’événments de Ω, 1 = P (Ω) =

n X k=0

VI.

n   X n k n−k a b P {X = k} et donc (a + b) = k n

k=0

Inégalité de Bienaymé-Tchebychev

Th´ eor` eme 18. Soit X une variable aléatoire (de loi quelconque) d’espérance m et de variance V . On a, pour tout ε>0: V P {|X − m| ≥ ε} ≤ 2 ε 2 2 On note Ωε l’ensemble des ω ∈ Ω tels que |X(ω) − m| ≥ ε i.e. (X(ω) − m) ≥ ε . On calcule la variance de X. Par positivité, on a

V =

X

2 (X(ω) − m) P {ω} ≥

ω∈Ω

et par définition

X

X

2 (X(ω) − m) P {ω} ≥

ω∈Ωε

X ω∈Ωε

2 2 ε P {ω} ≥ ε

X

P {ω}

ω∈Ωε

P {ω} = P (Ωε ) = P {|X − m| ≥ ε}.

ω∈Ωε

Ce théorème ne dépend pas de la loi suivie par X. Néanmoins, en pratique, il donne une majoration assez large. n fois la face 6. Quelle Exercice : on jette un dé équilibré un grand nombre n de fois. On s’attend à trouver environ 6 est la dispersion des résultats autour de cette attente ? Quel n prendre pour que la probabilité d’avoir un nombre de 6 compris entre 0 et n/3 soit supérieure à 0, 5 ? On note Yn le nombre de 6 après n tirages. Comme Yn suit une loi binomiale B(n, 1/6), E(Yn ) = n/6 et V (Yn ) = 5n/36 donc 5n P {|Yn − n/6| > ε} ≤ 36ε2 5n 5 Avec ε = n/6, on trouve = , et donc il suffit de prendre n ≥ 10. Une étude directe (puisque la loi est connue) 2 36ε n donne en fait n = 1. 7

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF