Chapitre 14 : Variables aléatoires finies

January 16, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Chapitre 14 : Variables aléatoires finies...

Description

ECS3 Carnot

Chapitre 14

2013/2014

Chapitre 14 : Variables aléatoires finies Dans tout ce chapitre, (Ω, P(Ω)) est un espace probabilisable fini.

1

Motivation

Prenons un exemple : on considère l’expérience aléatoire obtenue par le jet de deux dés (de couleur différente). On modélise cette expérience par Ω = [[ 1 ; 6 ]]2 , A = P(Ω). Supposons que le résultat qui nous intéresse soit la somme des deux chiffres obtenus et que l’on s’intéresse plus particulièrement à l’évènement A : « la somme obtenue est 7 ». On décompose en évènements élémentaires : A = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)} On préfère considérer une fonctions (ici la fonction S : Ω → somme des chiffres obtenus) et dire que l’évènement A est

R

qui à ω ∈ Ω associe la

A = [S = 7] = {ω ∈ Ω, S(ω) = 7} qui est plus facile à manipuler. Pour les sceptiques, signalons que si on refuse d’utiliser les variables aléatoires, la situation devient vite intenable lorsque l’expérience considérée a de nombreux résultat : l’univers (même fini) peut être très gros et difficile à décrire. Pour se convaincre, on peut essayer de décrire l’univers de l’expérience suivante : ondistribue complètement un jeu de 52 cartes à 4 joueurs (on remarquera que Card Ω = 52 13 = 635013559600). L’utilisation de variables aléatoires permet de faire abstraction du modèle.

2

Définitions

2.1

Variable aléatoire réelle discrète

Définition 2.1.1 Soit (Ω, A) est un espace probabilisable fini. On appelle variable aléatoire réelle sur (Ω, A) toute application  Ω −→ R X: ω 7−→ X(ω) On dit que l’ensemble X(Ω) = {X(ω), ω ∈ Ω} est l’univers-image de X. Définition 2.1.2

Soit X une variable aléatoire réelle sur Ω et x ∈ R. On note [X = x] = X −1 (x) = {ω ∈ Ω, X(ω) = x} [X 6 x] = X −1 (] − ∞, x]) = {ω ∈ Ω, X(ω) 6 x} [X > x] = X −1 (]x, +∞[) = {ω ∈ Ω, X(ω) > x}

On a en particulier [X 6 x] = [X > x] et [a 6 X 6 b] = X −1 ([a, b]) = [X > a]∩[X 6 b]. J. Gärtner.

1

ECS3 Carnot

Plus généralement, si I ⊂ parties sont des événements.

Chapitre 14

R on note [X

2013/2014

∈ I] = {ω ∈ Ω, X(ω) ∈ I}. Toutes ces

Lorsqu’on étudie une variable aléatoire il est bon d’essayer de préciser son image X(Ω). Exemple. On joue à Pile ou Face n fois. L’univers est Ω = {0, 1}n où 1 symbolise le Pile et A = P(Ω). Soit X la variable aléatoire qui donne le nombre de Piles obtenus. On a X(Ω) = {0, 1, 2, 3, . . . , n}. L’évènement [X = 0] est {(0, . . . , 0)}, l’évenement [X = 1] = {(ε1 , . . . , εn ), ∃! i ∈ [[ 1 ; n ]] , εi = 1}. On a par exemple [X > n − 1] = {(1, . . . , 1)}. n L’évènement « obtenir plus de pile que de face » est l’évènement (X > [ ]) = (X > 2 n [ ] + 1). 2 Exercice. On s’intéresse à l’expérience aléatoire qui consiste ne le jet de deux dés de couleur différente. Pour chaque jet, on considère la somme des deux chiffres obtenus. Donner un espace probabilisable qui modélise cette expérience. Définir une variable aléatoire réelle X qui traduit le résultat de cette expérience. Vérifier que c’est bien une variable aléatoire réelle. Décrire X(Ω). Donner sous forme explicite les évènements (X = 1), 26 69 (X = 4), (X > 5), ( 6 X < ). 10 11 Exercice. On dispose d’une urne contenant N boules numérotées de 1 à N . On tire sans remise successivement n boules. Décrire Ω. On note X l’application qui à ω ∈ Ω associe le plus grand nombre tiré. Décrire X(Ω). Montrer que X est une variable aléatoire réelle finie. Que valent les évènements (X 6 n − 1) et (X 6 N + 1) ? Quel est le cardinal de (X 6 n) ?

2.2

Exemples de variables aléatoires

1. Une application constante est une variable aléatoire, on l’appelle variable aléatoire certaine. 2. Une variable aléatoire X telle que Card X(Ω) = 2 est appelée variable aléatoire de Bernoulli. 3. Si on s’interesse à un schéma binomial, répétition de n épreuves de Bernoulli indépendantes, la variable Xi qui vaut 1 si la iieme étape est un succès et 0 sinon est une variable de Bernoulli. La variable donnant le nombre de succès au cours du schéma est une variable aléatoire, d’univers image [[ 0 ; n ]], appelée variable de loi binomiale. 4. On jette simultanément deux dés équilibrés. On note X la somme des résultats obtenus. Alors X(Ω) = [[ 2 ; 12 ]]. On a par exemple [X = 6] = [X > 5] ∩ [X > 6] et [X < 3, 2] = [X = 2] ∪ [X = 3].

2.3

Système complet d’événements associé à une variable aléatoire

Proposition 2.3.1 Soit (Ω, A) un espace probabilisable fini. Pour toute variable aléatoire réelle finie X sur (Ω, A), l’ensemble {[X = x], x ∈ X(Ω)} est un système complet d’évènements. On l’appelle le système complet d’évènements associés à X.

J. Gärtner.

2

ECS3 Carnot

Chapitre 14

2013/2014

Démonstration : On sait que (X = x) ∈ A par définition d’une variable aléatoire réelle. Si x 6= y ∈ X(Ω), il est clair que (X = S x) ∩ (X = y) = ∅ : les évènements (X = x) et (X = y) sont incompatibles. De plus x∈X(Ω) (X = x) = (X ∈ X(Ω)) = Ω. Ce qui montre le résultat attendu.

Remarque. Les événements du système complet d’événements associé à X sont en quelque sorte les événements les « plus petits » que l’on puisse considérer à l’aide de X. C’est la quintessence de l’information apportée par X. Tout événements que l’on décrit à partir de ce système complet ne tient compte uniquement de ce que l’on sait de l’expérience aléatoire considérée par la connaissance de X. Exemple. On joue deux fois à Pile ou Face. On a Ω = {0, 1}2 et A = P(Ω). Soit X la variable aléatoire qui donne le nombre de Pile obtenus. On a X(Ω) = {0, 1, 2} et (X = 0) = {(F, F )}, (X = 1) = {(P, F ), (F, P )}, (X = 2) = {(P, P )} est un système complet d’évènements. Exercice. Dans l’expérience consistant au jet consécutif de deux dés, soit X la variable aléatoire réelle finie qui donne la somme des chiffres obtenus. Décrire le système complet d’évènements associé à X.

2.4

Lois de probabilité d’une variable aléatoire

Soit (Ω, A, P ) un espace probabilisé fini et X une variables aléatoire réelle sur (Ω, A). Vu les remarques faites sur le système complet associé à X, la définition suivante est naturelle. Définition 2.4.1 Soit (Ω, A, P ) un espace probabilisé fini et X une variables aléatoire réelle sur (Ω, A). La donnée de la loi de probabilité est équivalente à la donnée de lunivers image X(Ω) et de l’ensemble des probabilités {P (X = x), x ∈ X(Ω)} Remarque. Il est possible que deux variables aléatoires X et Y de même image aient même loi. On note dans ce cas X ֒→ Y . Exemple. 1. Soit X : ω 7→ a une variable aléatoire certaine. Sa loi est alors {P (X = a) = 1}. 2. Soit X : Ω → {0, 1} une variable aléatoire de Bernoulli. Sa loi est {P (X = 1) = p, P (X = 0) = 1 − p}.

3. On jette un dé équilibré, on note X le numéro obtenu. Alors X est une variable 1 aléatoire et sa loi est donnée par X(Ω) = [[ 1 ; 6 ]] et ∀k ∈ [[ 1 ; 6 ]] , P (X = k) = . 6 Proposition 2.4.1 Soit (Ω, A, P ) un espace probabilisé fini et X une variable aléatoire réelle finie. alors X P (X = x) = 1 x∈X(Ω)

et si on numérote les éléments de X(Ω), c’est-à-dire que l’on pose X(Ω) = {xi , i ∈ [[ 1 ; n ] } on a J. Gärtner.

3

ECS3 Carnot

Chapitre 14

n X

2013/2014

P (X = xi ) = 1

i=1

Il faut toujours vérifier ce point lorsque l’on donne une loi de probabilité. Démonstration : Ceci découle du fait que {(X = x), x ∈ X(Ω)} est un système complet d’évènements (on utilise les deux propriétés : d’abord que Ω est l’union de tous les événements du système, puis que ces événements sont deux à deux incompatibles). On a donc P P S (X = x). 1 = P (Ω) = P ( x∈X(Ω) [X = x]) = x∈X(Ω)

Exercice. On dispose d’une urne contenant N boules numérotées de 1 à N . On tire sans remise successivement n boules. Préciser l’espace probabilisé de travail. Soit X la variable aléatoire réelle finie égale au plus grand numéro des n boules prélevées. Que vaut X(Ω) ? N P k−1 N Donner la loi de X. En déduire que n−1 = n . k=n

2.5

Fonction de répartition

Définition 2.5.1 Soit (Ω, A, P ) un espace probabilisé fini et X une variable aléatoire réelle finie. L’application  R −→ R FX : x 7−→ P (X 6 x) est appelée Fonction de répartition de X. Exemple. DESSINS : remarquer que la loi de chaque variable se lit dans les sauts de FX . 1. Variable aléatoire certaine. Si x < a FX (x) = 0 et si x > a FX (x) = 1. 2. Variable aléatoire de Bernoulli. (Rappel : P (X = 0) = 1 − p et P (X = 1) = p). Si x < 0 FX (x) = 0 si x ∈ [0, 1[ FX (x) = 1 − p et si x > 1, FX (x) = 1.

3. Variables aléatoires uniformes. X(Ω) = {x1 , . . . , xn } avec x1 < · · · < xn . Si x < x1 , i FX (x) = 0. Si x ∈ [xi , xi+1 [ avec i ∈ [[ 1 ; n − 1 ]] Fx (x) = et si x > xn , FX (x) = 1. n On remarque que la loi de X se lit dans les sauts de FX . Nous allons étudier maintenant les propriétés des fonctions de répartitions de variables aléatoires réelles finies. Nous utilisons les notions de limite et de continuité, qui seront rappelées dans un chapitre ultérieur. Attention : le point 4. du théorème ci-dessous dépend de manière cruciale de l’hypothèse « X finie » ! Théorème 2.5.1 La fonction de répartition FX d’une variable aléatoire réelle finie X est 1. Croissante sur R. 2. ∀x ∈ R, 0 6 FX (x) 6 1 et lim FX (x) = 0, lim FX (x) = 1. x→−∞

x→+∞

3. FX est continue à droite : ∀x ∈ R, lim FX (t) = FX (x). t→x t>x

J. Gärtner.

4

ECS3 Carnot

Chapitre 14

2013/2014

4. FX prend un nombre fini de valeurs, elle n’a qu’un nombre fini de discontinuités. Elle est continue en tout point de R r X(Ω). 5. ∀x ∈ R, lim FX (t) = FX (x) − P (X = x) = P (X < x) t→x t xn on a (X 6 xn ) ⊂ (X 6 x). Mais Sx→+∞ n (X 6 xn ) = k=1 (X = xk ) = (X ∈ X(Ω)) = Ω. Ainsi 1 = P (X 6 xn ) 6 P (X 6 x) 6 1 et FX (x) = 1. FX est la fonction constante à 1 sue ]xn , +∞[, sa limite est 1. 3. Si t < x1 ou t > xn on a vu que FX était constante donc continueSà droite. De même, si i ∈ [[ 1 ; n − 1 ]] et t ∈ [xi , xi+1 [, FX (t) = P (X 6 t) = P ( k=1 iP (X = i P P (X = xk ) est contante. Ainsi pour tout x ∈ [x1 , xn [ il existe un unique xk )) = k=1

i ∈ [[ 1 ; n − 1 ]] tel que x ∈ [xi , xi+1 [. Alors lim FX (t) = FX (x) = FX (xi ). t→x t>x

4. C’est une conséquence de la preuve de 3. : si ∀i, x 6= xi , FX est constante sur un intervalle ouvert centré en x. 5. Si x ∈ / X(Ω), on vient de voir au point 4. que FX est continue en x. Comme P (X = x) = 0 (puisque x n’est pas une valeur de X !), on a bien lim FX (t) = FX (x) − P (X = t→x t 0 et si E(X) = 0, X est presque-sûrement nulle (i.e. P (X = 0) = 1). Démonstration : Par définition E(X) =

n P

xi P (X = xi ). C’est une somme de termes positifs

i=1

par hypothèse. Si cette somme est nulle, pour tout i, xi P (X = xi ) = 0 puisque c’est une somme de termes positifs. Si P (X = xi ) > 0, alors xi = 0 d’où le résultat.

J. Gärtner.

8

ECS3 Carnot

Chapitre 14

2013/2014

Proposition 3.1.3 (Linéarité de l’espérance cas facile)

Soient a, b ∈ R et X une variable aléatoire réelle finie. Alors E(aX + b) = aE(X) + b.

Démonstration : Posons Y = aX + b et X(Ω) = {x1 , . . . , xn }. Si a = 0, Y est la variable aléatoire certaine b qui est bien d’espérance b. Sinon, on a vu que Y (Ω) = {axi + b, i ∈ [[ 1 ; n ]]} et que P (Y = axi + b) = P (X = xi ). Donc E(Y ) =

n X

(axi + b)P (X = xi ) = aE(X) + b

i=1

Remarque. C’est un cas particulier du théorème de transfert que l’on verra ci-dessous. Définition 3.1.2 Soit X une variable aléatoire réelle finie. Si E(X) = 0 on dit que X est centrée. Dans le cas où X n’est pas d’espérance nulle, on peut considérer la variable aléatoire centrée associée à X ; c’est X − E(X). Démonstration : En effet, E(X −E(X)) = E(X)−E(X) = 0 d’après la proposition ci-dessus.

Proposition 3.1.4 (Additivité de l’espérance) Soit X, Y deux variables aléatoires réelles finies définies sur un même espace probabilisé. Alors E(X + Y ) = E(X) + E(Y ) Démonstration : La démonstration est simple lorsque A = P(Ω) car dans ce cas E(X + Y ) = P (X(ω) + Y (ω))P (ω) et on utilise la linéarité de la somme. ω∈Ω

On a donc Proposition 3.1.5 (Linéarité de l’espérance) Soit X, Y deux variables aléatoires réelles finies définies sur un même espace probabilisé. Alors si a, b ∈ R, E(aX + bY ) = aE(X) + bE(Y ) Démonstration : Exercice

Proposition 3.1.6 (Croissance) Si X et Y sont deux variables aléatoires finies définie sur un même espace probabilisé telles que ∀ω ∈ Ω, X(ω) 6 Y (ω), alors E(X) 6 E(Y ). Démonstration : On a Y −X donc par positivité de l’espérance E(Y −X) > 0 et par linéarité E(Y − X) = E(Y ) − E(X) donc E(Y ) > E(X).

3.1.3

Théorème de transfert

Le théorème de transfert permet de calculer l’espérance du transfert d’une variable aléatoire uniquement à l’aide de la loi de cette variable. Théorème 3.1.1 (Théorème de transfert ) Soit X une variable aléatoire réelle finie et X(Ω) = {x1 , . . . , xn }. Soit g une application J. Gärtner.

9

ECS3 Carnot

Chapitre 14

2013/2014

de X(Ω) dans R. Alors E(g(X)) =

n X

g(xi )P (X = xi ) =

i=1

X

g(x)P (X = x)

x∈X(Ω)

Démonstration : Rappelons que E(X) =

P

X(ω)P (ω). On a donc (en se rappelant que

ω∈Ω

[X = x] = {ω ∈ Ω, X(ω) = x} et que ces ensembles constituent un système complet d’événements) E(g(X)) =

X

g(X(ω))P (ω)

ω∈Ω

=

X

X

g(X(ω))P (ω)

x∈X(Ω) ω∈[X=x]

=

g(x)

X

g(x)P (

X

g(x)P (X = x)

[

ω)

ω∈[X=x]

x∈X(Ω)

=

P (ω)

ω∈[X=x]

x∈X(Ω)

=

X

X

x∈X(Ω)

Exemple. On considère l’expérience du jet successif de deux dés. X est la variable aléatoire qui donne la différence du premier et du deuxième jet, et Y = |X|. Nous pouvons calculer E(Y ) à l’aide uniquement de la loi de X. E(Y ) = 5(P (X = −5)+P (X = 5))+4(P (X = −4)+P (X = 4))+· · ·+P (X = −1)+P (X = 1) Il n’est pas nécessaire de calculer explicitement la loi de Y . Exercice. Soit X une variable aléatoire réelle finie telle que X(Ω) = [[ 0 ; n ] et ∀k ∈ [[ 0 ; n ]] , P (X = k) = nk pk (1 − p)n−k . Posons Y = X(X − 1). C’est une variable aléatoire réelle finie. Calculer E(Y ) (on remarquera qu’il n’est pas nécessaire de préciser Y (Ω)).

3.2

Variance

Définition 3.2.1 Soit X une variable aléatoire réelle finie. La variance de X est le nombre réel V (X) = E((X − E(X))2 ) D’après le théorème de transfert, on a, en notant µ = E(X) X V (X) = (x − µ)2 P (X = x) x∈X(Ω)

La variance mesure en quelque sorte l’écart de X par rapport à son espérance E(X). En pratique on utilise rarement la définition de V (X) pour calculer la variance. On lui préfère la formule suivante, qui simplifie un peu les calculs. J. Gärtner.

10

ECS3 Carnot

Chapitre 14

2013/2014

Proposition 3.2.1 (Formule de Kœnig-Huygens) Soit X une variable aléatoire réelle finie. Alors V (X) = E(X 2 ) − (E(X))2 Démonstration : En effet en utilisant la linéarité de l’espérance V (X) = E((X − E(X))2 ) = E(X 2 − 2XE(X) + (E(X)2 )) = E(X 2 ) − 2E(X)E(X) + E(X)2 = E(X 2 ) − (E(X))2 .

Exemple. On joue 2 fois à Pile ou Face avec une pièce biaisée qui tombe sur Pile (symbolisé par 1) avec probabilité p ∈]0, 1[. La mise est de 1 euros. Si la pièce tombe sur pile, on gagne 3 euros. Sinon la mise est perdue. On a vu plus haut que l’univers est Ω = {0, 1}2 , on prend A = P(Ω). On note X la variable aléatoire qui donne le gain (algébrique) du joueur. X est une variable aléatoire car l’algèbre choisie est l’algèbre discrète. On a X(Ω) = {−2, 1, 4}. La loi de X est : P (X = −2) = P ((0, 0)) = (1−p)2 P (X = 1) = P ((0, 1)∪(1, 0)) = 2p(1−p) et P (X = 4) = P (1, 1) = p2 . En moyenne le joueur gagne E(X) = −2 × (1 − p)2 + 1 × (2p(1 − p)) + 4 × p2 . Si on souhaite calculer la variance, on peut utiliser la formule de Kœnig-Huygens, pour cela on commence par calculer E(X 2 ) à l’aide du théorème de transfert : X E(X 2 ) = k2 P (X = k) = 4P (X = −2)+P (X = 1)+16P (X = 4) = 4(1−p)2 +2p(1−p)+16p2 k∈X(Ω)

On connaît aussi E(X)2 = (−2 × (1 − p)2 + 1 × (2p(1 − p)) + 4 × p2 )2 . On a donc tout pour calculer V (X) = E(X 2 ) − E(X)2 2 P Ou bien on utilise2la définition (et le théorème de transfert) : V (X) = E((X−E(X)) ) = k∈X(Ω) (k − E(X)) P (X = k) En général le calcul à l’aide de la formule de Kœnig-Huygens est plus rapide.

Exercice. Dans une urne en contenant N boules numérotées de 1 à N , on tire simultanément n boules. Soit X la variable aléatoire donnant le plus grand des numéros tirés. Calculer E(X) et V (X). Proposition 3.2.2

Soit X une variable aléatoire réelle finie et a, b ∈ R. Alors 1. V (X) > 0.

2. V (X) = 0 ⇔ X = E(X) presque sûrement, i.e. X est une variable aléatoire certaine. 3. V (aX + b) = a2 V (X) Démonstration :

1. En effet (X − E(X))2 > 0 donc E(X − E(X))2 ) > 0.

2. Si X est une v.a. certaine, alors X = E(X) presque sûrement et P (X−E(X) = 0) = 1. La variable (X − E(X))2 est nulle presque sûrement et son espérance est nulle. Réciproquement si V (X) = 0 alors la v.a. positive (X − E(X))2 est d’espérance nulle, donc nulle presque sûrement. P (X = E(X)) = 1. J. Gärtner.

11

ECS3 Carnot

Chapitre 14

2013/2014

3. On a (aX + b − E(aX + b))2 = (aX + b − aE(X) − b)2 = (aX − aE(X))2 = a2 (X − E(X))2 . Le résultat suit par linéarité de l’espérance.

Exercice. Soit X une variable aléatoire finie d’image {x1 , . . . , xn }. Montrer que V (X) =

X

(xi − xj )2 P (X = xi )P (X = xj ) =

16i n − r et on peut tirer au plus la totalité des boules blanches disponibles (si on tire plus de boules qu’il n’y a de boules blanches). Tirer exactement k boules blanches revient à tirer k boules blanches et n − k boules rouges. Ainsi ∀k ∈ X(Ω), P (X = k) =

b r  k n−k  N n

X est la somme de n variables de Bernoulli : X =

=

n P

N p N (1−p) k n−k  N n

Xk où Xk est la variable aléatoire

k=1

indicatrice de l’évènement « le k-ième tirage est une boule blanche ». 3 2. On peut considérer que X(Ω) = [[ 0 ; n ]] quitte à ajouter des événements négligeables, voir impossibles ! 3. Au contraire de la loi binomiale, ces variables de Bernoulli sont dépendantes : leur paramètre dépend du nombre de boules blanches déjà tirées. Ce résultat sera précisé ultérieurement.

J. Gärtner.

17

ECS3 Carnot

Chapitre 14

2013/2014

Définition 4.5.1

Soit N ∈ N et p ∈]0, 1[ tel que N p ∈ N. Soit X une variable aléatoire telle que X(Ω) = [[ max(0, n − N (1 − p)) ; min(n, N p) ]] et ∀k ∈ [[ max(0, n − N (1 − p)) ; min(n, N p) ]] , P (X = k) =

N p N (1−p) k n−k  N n

Alors on dit que X suit la loi hypergéométrique de paramètres (N, n, p). On note X ֒→ H(N, n, p). Exemple. Un lac contient r poissons dont r1 sont malades. On effectue un prélèvement de n poissons. Quelle est la probabilité d’obtenir exactement k1 poissons malades ? Proposition 4.5.1 (Formule de Vandermonde) Soit X ֒→ H(N, n, p). Alors puisque {[X = k], k ∈ [[ max(0, n − N (1 − p)) ; min(n, N p) ]]} est un système complet d’évènements, on a min(n,N p)

X

k=max(0,n−N (1−p))



Np k

n k

Ou encore, en utilisant la convention

    N (1 − p) N = n−k n

= 0 si k ∈ / [[ 0 ; n ]] :

  n  X N p N (1 − p) k=0

k

n−k

=

  N n

Proposition 4.5.2 (Espérance) Soit X ֒→ H(N, n, p). Alors

E(X) = np

Démonstration : On a, à l’aide de la formule de Vandermonde et en se rappelant que k E(X) =

n X

k=0

k

Np k



N (1−p) n−k  N n



=

Np k



= Np

    n  N p X N p − 1 N (1 − p) Np N − 1   = np = N N k−1 n−1 n−k n n k=1

Remarque. Il n’est pas exigé de connaitre la variance d’une loi hypergéométrique : si N −n X ֒→ H(N, n, p), alors V (X) = np(1 − p) . N −1 Démonstration : Pour calculer V (X), calculons E(X 2 ) à l’aide du théorème de transfert et de la formule déjà utilisée pour la loi binomiale (k 2 = k(k − 1) + k) :

J. Gärtner.

18

N p−1 k−1



:

ECS3 Carnot

Chapitre 14

2

E(X ) = =

n X

k=0 n X

k=0

k

2

Np k



N (1−p) n−k  N n

(k(k − 1) + k)

2013/2014

 Np k



N (1−p) n−k  N n



  n  N p(N p − 1) X N p − 2 N (1 − p)  + E(X) N k−2 n−k n k=2   N p(N p − 1) N − 2 =  + np N n−2 n =

N p(N p − 1)(N − 2)!n!(N − n)! + np N !(n − 2)!(N − 2 − (n − 2))! Np − 1 + np = n(n − 1)p N −1

=

Donc V (X) = n(n − 1)p

J. Gärtner.

N −n Np − 1 + np − (np)2 = np(1 − p) . N −1 N −1

19

ECS3 Carnot

4.6

Chapitre 14

2013/2014

Résumé sur les lois classiques

1. Loi certaine : X : ω 7→ a. E(X) = a et V (X) = 0.

2. Loi uniforme sur [[ 1 ; n ]] : équiprobabilité des résultats. Si X ֒→ U([[ 1 ; n ]]) alors – X(Ω) = – ∀k ∈ – E(X) = – V (X) = – Loi uniforme sur [[ a ; b ]] : Y (Ω) = [[ a ; b ]] et ∀k ∈ [[ a ; b ]] , P (Y = k) = – Les variables Y et X − a + 1 ont – On sait donc retrouver espérance et variance. 3. Loi de Bernoulli de paramètre p ∈]0, 1[ : loi du succès dans une expérience qui n’a que deux issues. Si X ֒→ B(1, p) alors – X(Ω) = – ∀k ∈ – E(X) = – V (X) = 4. Loi de binomiale de paramètre (n, p) : loi du nombre de succès dans une répétition indépendante d’épreuves de Bernoulli, ou loi des tirages avec remise (n est le nombre de répétitions, p la probabilité de succès). Si X ֒→ B(n, p) alors – X(Ω) = – ∀k ∈ – E(X) = – V (X) =

J. Gärtner.

20

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF