Ch4-Var. aléa. réelles discrètes

January 14, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Ch4-Var. aléa. réelles discrètes...

Description

ELEMENTS DE STATISTIQUE (Statenstock) Chapitre 4 - Notions sur les variables aléatoires réelles discrètes. I. Généralités La notion de variable aléatoire formalise la notion de grandeur variant selon le résultat dû au hasard d’une expérience aléatoire (encore appelée épreuve). Quand la grandeur est mesurable ou repérable, c' est-à-dire quantitative, on parle de variable aléatoire réelle (VAR). On a besoin de définir au préalable quelques notions de base. 1. Epreuve aléatoire, résultat et univers En probabilité, on est amené à utiliser la notion d’épreuve : c’est une expérience aléatoire, c’està-dire dont le résultat, unique à chaque expérience, dépend du hasard. On note souvent : ω le résultat d’une épreuve (ω est aussi appelé “événement élémentaire”) Ω l' ensemble fini ou infini de tous ces résultats, appelé univers, référentiel ou ensemble fondamental. Exemple 1 On lance une pièce de monnaie. On admet qu' elle ne peut pas restée sur la tranche. Il y a alors 2 résultats possibles : Ω = {pile; face}; ω = “pile” ou ω = “face”. Exemple 2 On lance un dé cubique dont les faces sont numérotées de 1 à 6. On relève comme résultat est le nombre figurant sur la face supérieure. Il y a 6 résultats possibles : Ω = {1; 2; 3; 4; 5; 6} ; ω = 1 ou ω = 2 ou … ω = 6. Exemple 3 On lance deux dés, un rouge et un vert dont les faces sont numérotées de 1 à 6. On relève comme résultat est le couple (a; b) où a est le nombre figurant sur la face supérieure du dé rouge et b le nombre figurant sur la face supérieure du dé vert. (On aurait pu faire le contraire)) L’univers est alors formé de 36 résultats : Ω = {(1,1) ; (1,2) ; … ; (5,6) ; (6,6)}. ω = (1,1) ou ω = (1,2) ou …ω = (6,6). Exemple 4 On tire une carte dans un jeu de 32 cartes. On regarde la carte. L’univers Ω est alors formé de 32 résultats : Ω = {AT; ACa; ACo; AP; …; 7T; 7Ca; 7Co; 7P} ω = “AT” = “As de Trèfle,” ou ω = “ACo” = “As de Coeur,”…ou … ω = “7P” = “7 de Pique”. Exemple 5 On interroge 1 000 personnes au hasard (dont Antoine, Myriam, …) parmi les 50 millions d' adultes vivant en France. L’univers Ω est alors formé des 1000 personnes interrogées. ω = “Antoine” ou ω = “Myriam” ou …etc.

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

1/23

Exemple 6 Sur un standard téléphonique, on relève les appels passés au cours d’une journée. On ne connaît pas le nombre maximum d’appels que l’on peut passer. On considérera que l’ensemble Ω des appels est infini mais dénombrable (à valeurs séparées). ω désigne l’un des appels. 2. Notion de variable aléatoire Notion intuitive (donc approximative) : “une variable aléatoire réelle est un nombre qui varie en fonction du résultat d' une épreuve aléatoire”. Plus précisément, pour nous, on donnera la définition suivante : Une variable aléatoire est une application (souvent désignée par une lettre majuscule X, Y, Z, T, …) d’un univers Ω muni d’une probabilité dans . Cette définition est mathématiquement insuffisante mais elle nous conviendra à notre niveau. A tout résultat ω de Ω, la variable aléatoire X associe un réel X(ω). X : ω → X(ω) de Ω dans X(ω) est une valeur prise par la variable : elle peut aussi être notée aussi x ou k si c’est un entier. X(Ω) désigne l’ensemble de toutes les valeurs prises par la variable X sur Ω. Sur un univers associé à une épreuve donnée, on peut définir une infinité de variables aléatoires. Reprenons les exemples précédents. Exemple 1 Si l' on code le résultat en posant X = 1 si on obtient “pile” et X = 0 si l' on obtient “face”, X est alors une variable aléatoire réelle et X(Ω = {0; 1}. A ω = “pile”, X associe le réel 1. A ω = “face”, X associe le réel 0. On parle dans ce cas là de variable de Bernoulli (voir § infra) Exemple 2 On note Y le nombre figurant sur la face supérieure. Dans ce cas exceptionnel Ω et Y(Ω) sont confondus : Y(Ω) = {1; 2; 3; 4; 5; 6}. Exemple 3 On peut définir plusieurs variables aléatoires. Un résultat ω est un couple (a; b). Si on pose : S(a; b) = a + b, on définit une variable S. La somme S des points lus sur les faces supérieures est une variable aléatoire réelle. Au résultat ω = (3,2), S associe 3 + 2. On peut noter : S(3,2) = 5. Au résultat ω = (a,b), S associe a + b. On peut noter : S(a,b) = a + b. A un résultat ω = (a; b), S associe un réel qui est un naturel compris entre 2 et 12. S est une application de Ω dans {2 ; 3 ; … ; 12}. On note : S(Ω) = {2 ; 3 ; … ; 12}. Mais, on peut aussi poser : D(a; b) = a – b ou X(a; b) = 2a – 3b. On peut ainsi, toujours sur ce même univers en définir une infinité. Exemple 4 On tire une carte dans un jeu de 32 cartes après avoir miser 3 €. Pour un as tiré, on gagne 10 € ; pour un roi, une dame ou un valet, on gagne 2 € ; pour une autre carte, on ne gagne rien. Le gain algébrique G est le gain moins la mise. C’est une variable aléatoire réelle qui prend comme valeurs – 3, – 1 et 7 : G(Ω) = {– 3 ; – 1 ; 7}. Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

2/23

Exemple 5 On interroge 1 000 personnes au hasard parmi les 50 millions d' adultes vivant en France. On demande à chacune si elle utilise les transports en commun pour se rendre au travail. On note Z le nombre de personnes ayant répondu oui. Z est une variable aléatoire réelle qui peut prendre toutes les valeurs entières de 0 à 1000. Z(Ω) = {0; 1; 2; …; 1000}= [[0; 1000]] Z , Fn est une autre variable aléatoire réelle qui peut prendre des valeurs Si l' on pose Fn = 1 000 décimales entre 0 et 1 et qui est la fréquence des personnes ayant répondu “oui”. Fn(Ω) ⊂ [0 ; 1] ou plus précisément : Fn(Ω) = {k/1000; k ∈ [[0; 1000]]}. Exemple 6 Sur le standard téléphonique, on note H le nombre d' appels téléphoniques reçus et K le nombre et K(Ω) = . d' appels téléphonique passés au cours d' une journée. H(Ω) = Exemple 7 : sur une ligne d’autobus où la fréquence des véhicules est régulière (disons, un toutes les 15 minutes), le temps d’attente ∆ en minutes d’un client qui arrive au hasard à l’arrêt est une variable aléatoire qui prend toutes les valeurs de l’intervalle [0 ; 15[ : ∆(Ω) = [0 ; 15[. Une variable aléatoire peut prendre : • un nombre fini de valeurs, comme S et G ci-dessus : ces variables sont dites discrètes (ou discontinues) finies. Exemples : X, Y, S, D, G, Z ci-dessus. • un nombre infini de valeurs mais dénombrable (valeurs “isolées”) : ces variables sont discrètes infinies. Exemples : H et K. • toute valeur d’un intervalle I de , cette variable est dite continue ou encore, variable à densité (sous certaines conditions que nous préciserons plus tard). Exemple : ∆. 3. Evénement; événement lié à une variable aléatoire a) Un événement A est une partie de Ω, c’est-à-dire un ensemble A de résultats. Il est réalisé quand l' un des résultats est réalisé. Exemples dans le cas n°3 A = {(1,1) ; (2,2) ; (3,3) ; (4,4) ; (5,5) ; (6,6)} B = {(1,1) ; (1,2) ; (1,3) ; (1,4) ; (1,5) ; (1,6)} C = {(5,3) ; (1,2); (4,6)} On peut parfois “résumer” un événement à l’aide d’une phrase : A : “obtenir le même nombre sur les deux dé” B : “obtenir 1 sur le dé rouge (et n’importe quoi sur le vert)” C n’est pas facile à “résumer” mais il n’en constitue pas moins un événement. b) On peut définir aussi des événements dits “liés” à une variable. Pour une variable discrète, on peut utiliser des événements du type (X = x) : (X = x) est un événement formé de tous les résultats ω tels que X(ω) = x. On peut écrire : (X = x) = {ω ∈ Ω, X(ω) = x}.

Exemple 3 S est égale à 5 pour plusieurs résultats. On note : [S = 5] = {(1,4) ; (2,3) ; (3,2) ; (4,1)}. C’est un événement lié à S. c) Pour une variable quelconque, on utilise aussi d’autres événements liés à la variable : Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

3/23

(X ≤ x) est un événement formé de tous les résultats ω tels que X(ω) ≤ x. On peut écrire : (X ≤ x) = {ω ∈ Ω, X(ω) ≤ x}. Ou encore : (X > x) qui est l' événement contraire de (X ≤ x), (x < X ≤ y) qui est la conjonction (ou l' intersection) des événements (X ≤ y) et (X > x).

Reprise de l’exemple 3 S est inférieure (ou égale) à 4 pour plusieurs résultats. On note : [S ≤ 4] = {(1,1) ; (1,2) ; (2,1) ; (1,3) ; (2,2) ; (3,1)}. C’est un événement lié à S. S est compris entre 9 et 11 (au sens large) pour plusieurs résultats. On note : [9 ≤ S ≤ 11] = {(3,6) ; (4,5) ; (5,4) ; (6,3) ; (4,6) ; (5,5) ; (6,4) ; (5,6) ; (6,5) ; (6,6) }. C’est un événement lié à S. On retiendra que les événements peuvent se noter - avec une seule lettre A, B, C, … - ou à l’aide d’une variable aléatoire : [S = x] ; [S ≤ x] ; [S > x] ; [x < S ≤ y], … etc. 4. Notion de probabilité Cas d’un univers Ω fini qui contient N résultats. On appelle système de probabilités élémentaires sur Ω toute suite p1, p2, …pN de N réels, tous compris entre 0 et 1 et dont la somme vaut 1 où chaque pi est associé à un résultat ωi. Autrement dit, un système de probabilités élémentaires sur Ω est une application de Ω dans l’intervalle [0; 1] dont l’ensemble des images a pour somme 1. pi s’appelle la probabilité du résultat (ou événement élémentaire) ωi. Exemples : On jette un dé cubique dont les 6 faces sont numérotées de 1 à 6. On relève le nombre apparaissant sur la face supérieure. Système 1 Le tableau ci-dessous définit un système de probabilités élémentaires sur Ω :

Ω pi

1

2

3

4

5

6

0,14 0,17 0,18 0,17 0,15 0,19

Avec un tel dé, la probabilité d’obtenir, par exemple, la valeur 3 est 0,18. Système 2 Le tableau ci-dessous définit un autre système de probabilités élémentaires sur Ω :

Ω pi

1

2

3

4

5

6

1/6

1/6

1/6

1/6

1/6

1/6

Avec un tel dé, la probabilité d’obtenir, par exemple, la valeur 3 est 1/6. Ce dernier cas ne constitue qu’un cas particulier, celui d’un dé qua l’on pourrait qualifier de “parfait” : tous les résultats ont la même probabilité. Quand toutes les valeurs pi sont les mêmes, on parle d’équiprobabilité des résultats. Cette situation ne constitue qu’un cas particulier de système de probabilités. 1 En cas d’équiprobabilité des résultats, toutes les probabilités élémentaires sont égales à si N N est le nombre de résultats dans l’univers.

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

4/23

On peut aussi définir la probabilité P(A) d’un événement A : c’est la somme des probabilités pi de tous les résultats contenus dans A. Reprise de l’exemple ci-dessus du dé. Soit A = {1; 3; 5} Avec le système 1 : P(A) = 0,14 + 0,18 + 0,15 = 0,47. Avec le système 2 : P(A) = 1/6 + 1/6 +1/6 = 1/2. La probabilité d’obtenir un nombre impair n’est pas la même dans les deux cas. Cas d’un univers Ω infini. On admettra que l’on peut encore définir ces notions-là sur un univers infini dénombrable (en utilisant la notion de série, c’est-à-dire la notion de limite d’une somme partielle) mais aussi sur un univers infini non dénombrable en utilisant la notion d’intégrale. Admis.

5. Loi d’une variable aléatoire discrète X Pour une variable discrète finie ou non, l’application PX de X(Ω) dans [0 ; 1] qui à tout élément x de X(Ω) associe le réel P(X = x) est appelée la loi de la variable X. On définira dans le chapitre suivant (chapitre 5) la loi d’une variable non discrète. Cela revient à définir, pour tout x de X(Ω) la valeur de P(X = x) soit sous forme de formule générale (si c’est possible) soit forme de tableau résumant tous les cas.

P ( X = x) =

On a, bien sûr :

x ∈ X ( Ω)

PX ( x) = 1.

x ∈ X (Ω)

Pour démontrer qu’un tableau de distribution représente une loi de probabilité d'une variable X discrète finie, il suffit de vérifier les deux conditions (comme pour un système de probabilités élémentaires) : • les probabilités sont comprises entre 0 et 1, • la somme vaut 1. Le tableau de distribution ou la loi de X forme ce que l’on appelle un modèle aléatoire défini par X. Pour une variable discrète infinie, la sommation porte sur une infinité de termes et s' exprime en utilisant la notion de limite de somme partielle. Exemple 3 : On suppose que les 36 résultats sont équiprobables (cas de deux dés parfaits, non truqués) et chacun d’eux a alors pour probabilité 1 . 36 On montrera facilement que le modèle aléatoire défini par S (loi de S ou tableau de distribution) est le suivant : S(Ω)

2

3

4

5

6

7

8

9

10

11

12

PS(x)

1/36

2/36

3/36

4/36

5/36

6/36

5/36

4/36

3/36

2/36

1/36

Les 11 réels sur la seconde ligne sont tous compris entre 0 et 1 et de somme égale à 1. Ce tableau constitue un modèle aléatoire qui définit la loi d' une variable S discrète finie. Justification partielle : P[S = 5] = P{(1, 4) ; (2, 3) ; (3, 2) ; (4,1)} = 1/36 + 1/36 + 1/36 + 1/36 = 4/36 = 1/9.

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

5/23

Exemple 4 On suppose que les 32 résultats sont équiprobables (cas d’un jeu de carte parfait sans carte biseautée) et chacun d’eux a alors pour probabilité1/32. On montrera facilement que le modèle aléatoire défini par G (loi de S ou tableau de distribution) est le suivant : G(Ω)

–3

–1

7

PG(x)

16/32

12/32

4/32

Justification partielle : P[G = 7] = P{AT; ACa; ACo; AP} = 1/32 + 1/32 + 1/32 + 1/32 = 4/32 = 1/8.

6. Fonction de répartition d’une variable aléatoire X ; modèle aléatoire. Pour toute variable aléatoire X, discrète (finie ou infinie) ou continue, on définit la fonction de répartition de X : c' est la fonction F : x P(X ≤ x) définie de dans [0 ; 1]. Tout événement lié à X a une probabilité qui peut s' exprimer avec F. En statistique, elle correspond aux fréquences cumulées croissantes. Toute fonction de répartition définit ce que l' on appelle un modèle aléatoire : le modèle est défini par les valeurs que peut prendre la variable et par la répartition des probabilités qui y est associée.

Propriétés d'une fonction de répartition (admis) : 1. F est une fonction de dans [0 ; 1] ; 2. lim F(x) = 0 et lim F(x) = 1; x→−∞

x → +∞

3. La fonction F est croissante sur ; 4. La fonction F est continue à droite en tout point de . On peut démontrer que toute fonction qui vérifie ces conditions est une fonction de répartition d' une variable réelle autrement dit qu' elle définit un modèle aléatoire.

Cas particulier : La fonction de répartition d'une variable aléatoire discrète est une fonction en escalier. On reprend l' exemple 4 de la variable G. G(Ω)

–3

–1

7

PG(x)

16/32

12/32

4/32

FG(x)

16/32

28/32

32/32

La courbe de la fonction de répartition est donnée ci-après.

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

6/23

Fonction de répartition du gain G 1,00

0,75

0,50

0,25

0,00 -6

-4

-2

0

2

4

6

8

10

7. Variables aléatoires indépendantes Définition Deux variables aléatoires X et Y définies sur le même univers Ω sont indépendantes si, pour tous réels x et y, on a : P(X ≤ x et Y ≤ y) = P(X ≤ x)×P(Y ≤ y). On remplace souvent “et” par le symbole ∩. Si les deux variables sont discrètes, il suffit de vérifier que pour tous réels x de X(Ω) et y de Y(Ω), on a : P(X = x et Y = y) = P(X = x)×P(Y = y).

Dans la pratique : soit le contexte permet de dire que les variables sont indépendantes sans effectuer toutes les vérifications, soit l’énoncé le précise. Exemple 4 On joue deux fois de suite en remettant la carte après le premier jeu. Les gains G1 et G2 successifs sont des variables aléatoires indépendantes. Si on ne remet pas la carte, les variables ne sont pas indépendantes.

II. Moments (espérance et variance) d' une variable aléatoire réelle discrète 1. Espérance d’une variable aléatoire discrète finie X Rappel : pour une variable statistique, on définit sa moyenne arithmétique : x est la moyenne pondérée des valeurs xi avec comme coefficients de pondération les fréquences d’apparition fi : x = f i xi . i

Définition En probabilité, la notion correspondante pour une variable aléatoire X est appelée espérance de la variable et est notée E(X) : c’est la moyenne des valeurs a prises par la variable (les éléments de X(Ω)) avec comme coefficients de pondération les probabilités d’apparition de ces valeurs). E(X) représente ce que l’on espère obtenir “en moyenne” avec la variable X. On peut noter : E(X) =

x .P( X = x ) = x ∈ X (Ω)

Statenstock

x .PX ( x ) .

x ∈ X( )

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

7/23

Pour une variable discrète infinie, la sommation porte sur une infinité de termes et se calcule en utilisant la notion de limite de somme finie. (Résultats souvent admis) Exemple 4 G(Ω) PG(x)

–3 16/32

–1 12/32

x.PG(x) – 48/32 – 12/32

7 4/32

Totaux 1

28/32

–1

x.P(G = x) = – 1.

Dans cet exemple, E(G) =

Interprétation : si on joue une infinité de fois, le gain algébrique que l’on peut espérer en moyenne est égale à – 1, soit une perte de 1 euro. On retiendra aussi la notion de jeu équitable : Un jeu est équitable si l’espérance du gain algébrique du joueur est nulle. Le jeu ici est inéquitable : comme E(G) < 0, le joueur est désavantagé.

2. Variance et écart type d’une variable aléatoire discrète finie X Rappel : une variable statistique x a pour variance : S2(x) =

2

f i ( xi − x) 2 = i

f i xi2 – x . i

Définition en probabilité En probabilité, la notion correspondante pour une variable aléatoire X porte le même nom de variance qu’en statistique mais est notée V(X) ou σ2(X). Elle mesure la dispersion des valeurs de la variable autour de son espérance. C’est la moyenne pondérée des carrés des écarts (a – E(X)) entre les valeurs prises par la variable (les éléments de X(Ω)) et l’espérance, avec comme coefficients de pondération les probabilités d’apparition de ces valeurs. On peut donc écrire les deux formules : V(X) =

x∈ X(

( x - E( X )) 2 .P(X = x ) = )

x∈ X(

x 2 P( X = x ) – (E(X))2.

)

On utilisera de préférence la seconde formule dite de Huygens qui, sauf exception, est plus simple dans la pratique. Remarque :

x 2 .PX ( x) représente la “moyenne” des carrés des valeurs de la V.A., c’est

x∈ X ( )

l’espérance de X2 et se note E(X2). On a alors : V(X) = E(X2) – (E(X))2. (Attention à la place des carrés)

Pour une variable discrète infinie, la sommation porte sur une infinité de termes et s' exprime en utilisant la notion de limite de somme finie. Comme en statistique, la variance de X est donc toujours positive. On peut alors définir sa racine carrée positive : σ(X) =

V(X ) :

σ(X) est l’écart quadratique moyen ou écart type. On a donc : (σ(X))2 = V(X). Comme en statistique, σ(X) a la même unité que X contrairement à V(X).

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

8/23

Interprétation Comme en statistique, V(X) et σ(X) sont des paramètres qui mesurent la dispersion de la variable X autour de E(X) : plus ils sont grands, plus la variable est dispersée, plus ils sont faibles, plus la variable est regroupée autour de E(X). Exemple 4 G(Ω) PG(x)

D’où :

–3 16/32

–1 12/32

7 4/32

Totaux 1

x.PG(x)

– 48/32 – 12/32

28/32

–1

x2.PG(x)

144/32

196/32

11

12/32

x. 2 P (G = x) = 11 et dans cet exemple, V(G) = 11 – (–1)2 = 10 et σ(G) = 10 ≈ 3,16.

3. Propriétés de E(X) et V(X) On admettra que l’on peut étendre ces notions d’espérance et de variance aux variables discrètes infinies et aux variables non discrètes et qu’elles jouissent des mêmes propriétés. Soient α et β sont des réels quelconques, X et Y des variables aléatoires, discrètes ou non.

Propriétés vraies sans conditions : E(X + Y) = E(X) + E(Y) et E(X – Y) = E(X) – E(Y). E(αX) = αE(X) ; E(αX + β) = αE(X) + β. E(αX + βY) = α.E(X) + β.E(Y). V(α X + β) = α² V(X) ; en particulier : V(α.X) = α².V(X). V(αX + βY) = V(Z) = α².V(X) + β².V(Y) + 2α.β.cov(X,Y).

Propriétés seulement vraies pour des variables X et Y indépendantes : E(XY) = E(X).E(Y). V(X + Y) = V(X) + V(Y) et V(X – Y) = V(X) + V(Y). On remarquera que X + Y et X – Y ont la même variance dans ce cas et le même écart type. V(αX + βY) = V(Z) = α².V(X) + β².V(Y). Cov(X,Y) = 0 La réciproque est fausse. V(X.Y) = V(X).V(Y) + V(X).(E(Y))2 + V(Y).(E(X))2.

III. Variable de Bernoulli Bernoulli : nom d' une famille de mathématiciens et physiciens suisses du XVIIe et XVIIIe siècles (Les principaux se prénomment Jacques, Jean et Daniel) 1. Epreuve de Bernoulli. On appelle épreuve de Bernoulli toute épreuve aléatoire conduisant à deux issues seulement, l’une appelée “succès” et l’autre “échec” (la somme de leurs probabilités est égale à 1).

Exemple 1 On lance un dé cubique non truqué. On peut définir, par exemple : Le succès est l’obtention d’un 5 ou d' un 6, l' échec est l' obtention de 1, 2, 3 ou 4.

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

9/23

Exemple 2 On admet qu' en France, 15% des individus possèdent une bicyclette. On interroge un individu au hasard. On peut définir une épreuve de Bernoulli, en posant, par exemple : Si l' individu a une bicyclette, c' est le succès, s' il n' en a pas, c' est l' échec. 2. Variable de Bernoulli On définit alors une variable aléatoire qui ne peut prendre que deux valeurs 0 et 1. C’est la variable aléatoire numérique la plus simple (… excepté la variable qui est constante !). Le résultat de l’épreuve que l’on code 1 est le succès, celui que l’on code 0 est l' échec. Cette variable X s' appelle une variable aléatoire de Bernoulli. L’ensemble des valeurs prises par X est : X(Ω Ω) = {0 ; 1}. p représente la probabilité d’un succès au cours d’une épreuve, q = 1 – p celle d’un échec. La loi de X est très simple et est définie par : P(X = 1) = p et P(X = 0) = 1 – p.

On note :

X(Ω)

0

1

PX(x)

1–p

p

(X) = e(p) ; p est le paramètre de cette loi (0 < p < 1).

Exemple 1 (dé) On note X la variable qui vaut 1 si l' on obtient "5 ou 6", qui vaut 0 sinon. 2 1 X est une variable de Bernoulli de paramètre p = 2/6 : (X) = e( ) = e( ) . 6 3 La loi et la fonction de répartition sont données par : Ensemble des valeurs de X : X(Ω)

0

1

Loi : PX(x)

2/3

1/3

Fonction de répartition : FX(x)

2/3

1

Représentation graphique de la fonction de répartion : Fonction de répartition de X qui suit la loi de Bernoulli (1/3) 1 2/3 1/3 -0 -1

0

1

2

- 1/3 - 2/3 -1

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

10/23

Exemple 2 (bicyclette) On note X la variable qui vaut 1 si l' individu possède une bicyclette, qui vaut 0 sinon. X est une variable de Bernoulli de paramètre p = 0,15 : (X) = e(0,15). 3. Espérance et variance d'une variable de Bernoulli Si X suit une loi de Bernoulli p, i.e. (X) = e(p) : • son espérance mathématique est E(X) = p,

• sa variance est V(X) = p(1 – p) et son écart type est (X) =

p(1 − p) .

Ces résultats sont faciles à établir et sont à mémoriser.

Exemple : Avec l’exemple 1 : E(X) = 1/3 ; V(X) = 1/3×2/3 = 2/9 et σ(X) = 2 / 3 . En jouant une infinité de fois, la moyenne des valeurs obtenues par X est 1/3. La dispersion des valeurs de X par rapport à 1/3 est en moyenne quadratique

2 / 3 ≈ 0,471.

IV. Schéma binomial et variable binomiale 1. Définition d’un schéma binomial On appelle schéma binomial de paramètres n et p toute expérience aléatoire consistant à répéter n fois de façon indépendante une épreuve de Bernoulli de paramètre p. n est la longueur du schéma binomial (n ∈ *) p est la probabilité d’un succès au cours d’une des épreuves de Bernoulli.

2. Définition d’une variable binomiale Sur un schéma binomial de longueur n, soit X est le nombre de succès en n épreuves. X est un entier naturel compris entre 0 et n qui dépend des résultats aléatoires des n épreuves : c’est une variable aléatoire discrète. X s’appelle une variable aléatoire binomiale ou encore on dit que X suit une loi binomiale de paramètres (n, p). On note : (X) = (n ; p). L’ensemble des valeurs prises par X est alors : X(Ω Ω) = {0 ; 1 ; 2 ; …, n}. n k La loi de X est définie par : pour tout naturel k de X(Ω Ω), P(X = k) = p (1 − p ) n − k . k

C’est bien une distribution de probabilité car on peut établir : - toutes les probabilités sont bien positives, - la somme des probabilités est égale 1. (Admis)

Interprétation des facteurs dans cette formule : •

n k n k

qui est encore noté C nk représente la place des k succès parmi les n épreuves. = C nk =

n(n − 1)(n − 2)...(n − k + 1) . k (k − 1)(k − 2)... × 3 × 2 × 1

Les numérateurs et dénominateurs du quotient ci-dessus ont chacun k facteurs.

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

11/23

n

On a aussi :

k

= C nk =

n! avec : n ! = n×(n – 1)× …× 3×2×1. k !×(n − k )!

n ! se lit “factorielle n” et cette fonction se trouve sur les calculatrices. (Exemple : 6 ! = 120) • pk est la probabilité de réaliser effectivement les k succès. • (1 – p)n – k est la probabilité de réaliser effectivement les (n – k) échecs.

3. Remarques 3.1. Remarque 1 X peut-être considérée comme la somme de n variables Xi de Bernoulli, aléatoires, indépendantes et de même paramètre p : la variable Xi est la variable de Bernoulli associée à l’épreuve numéro i.

3.2. Remarque 2 Y, le nombre d’échecs dans un schéma de Bernoulli de longueur n, suit une loi binomiale de paramètres n et q = 1 – p : (Y) = (n ; 1 – p).

3.3. Remarque 3 Une variable de Bernoulli est une variable binomiale dans le cas particulier où on ne réalise qu’une seule épreuve de Bernoulli (n = 1).

4. Exemple simple On suppose que X suit une loi binomiale (5 ; 0,4). n = 5 : c’est le nombre d’épreuves de Bernoulli de même type que l’on a réalisées; p = 0,4 : c’est la probabilité d’avoir un succès en une de ces épreuves de Bernoulli. Ces deux valeurs sont les paramètres de la loi. X est le nombre (aléatoire) de succès obtenu au cours des 5 épreuves. X peut varier de 0 à 5. Donner la loi de X, c’est donner P(X = k) pour k variant de 0 à 5. P(X = k) =

5

×0,4k×0,6(n – k) est la formule que l’on utilise 6 fois et dont on donne les valeurs

k arrondies dans le tableau ci-dessous : P(X = k) se note aussi PX(k). k PX(k) FDR

0 0,0778 0,0778

1 0,2592 0,3370

2 0,3456 0,6826

3 0,2304 0,9130

4 0,0768 0,9898

5 0,0102 1,0000

La dernière ligne du tableau indique les valeurs de la fonction de répartition (probabilités cumulées) dont on trouvera ci-dessous la représentation graphique. Représentation graphique de la loi :

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

12/23

Représentation graphique de la loi binomiale

(5 ; 0,4)

0,4

0,3

0,2

0,1

0,0 -1

0

1

2

3

4

5

6

Représentation graphique de la fonction de répartition : Fonction de répartition de la binomiale

(5 ; 0,4)

1,00

0,80

0,60

0,40

0,20

0,00 -2

-1

0

1

2

3

4

5

6

7

5. Reconnaître une loi binomiale. Pour démonter qu’une variable aléatoire X suit une loi binomiale, on procèdera de la manière suivante : a) On commence par définir une épreuve qui doit être répétée un certain nombre de fois (n). b) Chaque épreuve doit conduire à deux résultats seulement (succès-échec): On notera : p la probabilité d' un succès en une épreuve, q = 1 – p la probabilité d' un échec en une épreuve. c) On vérifiera l’indépendance des épreuves qui doivent être effectuées avec remise. n Cependant, si les épreuves sont effectuées sans remise avec un taux de sondage inférieur N à 0,1, on admet que les n épreuves peuvent être assimilées à des épreuves indépendantes. d) On note X le nombre de succès réalisés parmi ces n épreuves : X suit alors une loi Binomiale de paramètre n et p : (n, p).

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

13/23

6. Deux exemples Dans une urne de N objets à deux catégories, soit p la proportion des objets de catégorie 1. On prélève un échantillon de taille n : ce tirage s’effectuant un par un et en remettant chaque objet après chaque tirage, on dit qu’il est effectué avec remise. Une épreuve consiste à tirer UN objet. Cette épreuve est répétée n fois. Ces n épreuves sont indépendantes à cause de la remise. L’échantillon est donc indépendant car les tirages le sont. On travaille donc sur un schéma de Bernoulli de longueur n. Si X est le nombre d’objets de catégorie 1 contenus dans cet échantillon, X est le nombre de succès en n épreuves sur ce schéma. Cette situation se rencontre approximativement dans beaucoup d' études statistiques.

Exemple 1 (Candidat) Un candidat à un concours doit remplir un QCM (questionnaire à choix multiple) comportant 10 questions. Le candidat obtient 1 point à la question si la réponse est bonne, 0 point dans tous les autres cas. On admet qu’à chaque question, il a 80% de chances de répondre correctement. On suppose que les questions (donc les réponses) sont indépendantes. On note X le total des points obtenus. a) Déterminer la loi de X. Justifier avec soin. Donner l’espérance de X. b) Quelle est la probabilité que le candidat obtienne 8 ? c) Quelle est la probabilité que le candidat obtienne au moins 8 ? Corrigé exemple 1 a) On commence par définir une épreuve : le candidat répond à une question. Cette épreuve est répétée 10 fois (n = 10). Chaque épreuve conduit à 2 résultats : succès : la réponse est bonne ; échec : elle est fausse. un succès en une épreuve. On note : p = 0,8 la probabilité d' q = 1 – p = 0,2 la probabilité d' un échec en une épreuve. Les questions étant indépendantes, les épreuves le sont. On note X le nombre total de points, c' est donc le nombre de bonnes réponses : X est alors le nombre de succès réalisés parmi ces 10 épreuves. X suit alors une loi Binomiale de paramètre n = 10 et p = 0,8: (X) = (10 ; 0,8). b) On utilise la formule P(X = k) = P(X = 8) =

10 8

n k

p k (1 − p ) n − k avec n = 10, p = 0,8 et k = 8.

0,88 (1 − 0,8) 2 = 45×0,88×0,22 ≈ 0,3020.

c) On cherche enfin P(X ≥ 8) qui s' exprime par : P(X ≥ 8) = P(X = 8) + P(X = 9) + P(X = 10). On a de même que précédemment : P(X = 9) ≈ 0,2684 et P(X = 10) ≈ 0,1074. On conclut : P(X ≥ 8) ≈ 0,6778.

Exemple 2 (Mercabio) Le supermarché MERCABIO vend au public de l’alimentation biologique. On admet que la probabilité qu’un client qui entre dans le magasin achète du lait de chèvre est égale à 0,1. On admet que les clients achètent indépendamment les uns des autres. Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

14/23

a) Cinquante clients se présentent dans la matinée. On note X le nombre de clients qui achètent du lait de chèvre pendant la matinée. Quelle est la loi de la variable X ? b) Calculer la probabilité que 5 clients au plus achètent du pain biologique pendant la matinée.

Corrigé exemple 2 a) On commence par définir une épreuve : un client entre dans le magasin dans la matinée. Cette épreuve est répétée 50 fois (n = 50). Chaque épreuve conduit à deux résultats : succès : le client achète du lait de chèvre ; échec : le client n' achète pas du lait de chèvre. On note : p = 0,1 la probabilité d' un succès en une épreuve, q = 1 – p = 0,9 la probabilité d' un échec en une épreuve. Les clients achètent indépendamment les uns des autres : les épreuves sont indépendantes. On note X le nombre de clients qui achètent du lait de chèvre dans la matinée. X est alors le nombre de succès réalisés parmi ces n épreuves. X suit alors une loi binomiale de paramètres n = 50 et p = 0,1: (X) = (50 ; 0,1). b) On cherche P(X ≤ 5). On peut dire : P(X ≤ 5) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) + P(X = 4) + P(X = 5). On utilise 6 fois la formule P(X = k) = Par exemple : P(X = 2) =

50 2

n k

p k (1 − p ) n − k avec n = 50, p = 0,1 et k = 0 à k = 5.

0,12 (1 − 0,1) 50 − 2 = 1225×0,12×0,948 ≈ 0,0779.

On obtient finalement, tous calculs effectués, P(X ≤ 5) ≈ 0,6161.

7. Espérance et variance d'une variable binomiale Si X suit une loi binomiale de paramètre (n,p), i.e. • son espérance mathématique est E(X) = np,

(X) =

(n ; p) :

• sa variance est V(X) = np(1 – p) et son écart type est (X) =

np(1 − p) .

Ces résultats, plutôt faciles à démontrer, seront admis et seront mémorisés.

Exemple : Avec l’exemple simple du paragraphe D.2., E(X) = 5×0,4 = 2 et V(X) = 5×0,4×0,6 = 1,2. 8. Somme de variables aléatoires binomiales indépendantes Si X1 et X2 sont deux variables aléatoires indépendantes qui suivent toutes deux des lois binomiales de même paramètre p, (n1 ; p) et (n2 ; p) sur le même univers, alors X1 + X2 suit une loi binomiale (n1 + n2 ; p). On peut généraliser à plusieurs variables. On parle de stabilité pour la somme.

Exemple : si X1 et X2 sont indépendantes et suivent respectivement variable X1 + X2 suit (40 ; 0,3).

Statenstock

(15 ; 0,3) et

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

(25 ; 0,3), alors, la

15/23

V. Variable de Poisson Poisson, Denis, mathématicien français (1781-1840). 1. Présentation. La loi de Poisson est une des plus importantes parmi les lois discrètes. Il n’est possible de donner un modèle probabiliste exact d’une loi de Poisson. Elle constitue ce que l’on appelle une loi limite. Dans la pratique la loi de Poisson est utilisée pour approcher ou décrire toute catégorie de phénomènes dont quelques exemples sont donnés ci-après.

Exemples : • Nombre de véhicules franchissant un poste de péage pendant une période de durée D fixée. • Nombre d’appels reçus par un standard téléphonique pendant une période de durée D fixée. • Nombre de fautes de frappes par page dans un livre. • Nombre d’accidents sur une portion d' autoroute par semaine. • Nombre de naissances dans une petite commune par année. • Nombre de décès par suicide. • Le nombre d' atomes désintégrés par unité de temps. 2. Définition d’une variable de Poisson Une variable aléatoire X prend comme valeur tout entier positif ou nul i.e. X(Ω) = mk sorte que sa loi soit définie par : P(X = k) = e – m . pour tout k entier , k ≥ 0. k!

, de telle

Rappel : e est un nombre dit transcendant qui vaut environ : e ≈ 2,71828. Le nombre e figure sur toutes les calculatrices. m (ou λ) est le paramètre de cette loi : m est un réel quelconque strictement positif. On remarque qu’une telle variable aléatoire est réelle discrète mais non finie (c’est-à-dire que les valeurs qu’elle peut prendre ne sont pas limitées supérieurement). On la qualifie de variable discrète infinie dénombrable. C’est bien une distribution de probabilité car on peut établir : - toutes les probabilités sont bien positives. - la somme des probabilités est égale 1. La loi de Poisson ne dépend que d’un seul paramètre (noté m ou λ ).

Remarque : Pour calculer les probabilités d’une loi de Poisson de paramètre m, on peut utiliser la formule cidessus ou utiliser une table de la loi de Poisson si l’on en dispose !… On trouvera en annexe des tables de Poisson. Exemple simple : On suppose que X suit une loi de Poisson (2). m = 2 : c’est le paramètre de cette loi. Il représente l’espérance de X. X est une variable aléatoire qui peut varier de 0 à l’infini. Donner la loi de X, c’est donner P(X = k) pour k entier naturel quelconque : P(X = k) = e – 2.

2k . k!

On peut calculer les probabilités avec cette formule ou bien en utilisant les tableaux donnés en annexe en fin de chapitre pour les principales valeurs de m. Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

16/23

Le tableau ci-dessous indique les premières valeurs de ces probabilités (de k = 0 à k =7), les suivantes étant faibles, toutes plus petites que 0,001. On ne peut pas décrire complètement la loi par un tableau à cause de l’infinité des valeurs prises. k PX(k) FDR

0 1 2 3 4 5 6 7 0,1353 0,2707 0,2707 0,1804 0,0902 0,0361 0,012 0,0034 0,1353 0,4060 0,6767 0,8571 0,9473 0,9834 0,9954 0,9988

… … …

La dernière ligne du tableau indique les valeurs de la fonction de répartition (probabilités cumulées) dont on trouvera ci-dessous la représentation graphique. La dernière valeur de la FDR n’est pas égale à 1 car on n’a pas calculé toutes les probabilités. Représentation graphique (partielle) de la loi :

Représentation graphique de la loi de Poisson

(2)

0,3 0,3 0,2 0,2 0,1 0,1 0,0 -1

0

1

2

3

4

5

6

7

8

On peut remarquer que cette variable admet 2 valeurs modales 1 et 2. Représentation graphique (partielle) de la fonction de répartition :

Fonction de répartition de la loi de Poisson

(2)

1,0

0,8

0,6

0,4

0,2

0,0 -1

Statenstock

0

1

2

3

4

5

6

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

7

17/23

Autres exemples de représentations graphiques (partielles) de la loi de Poisson : à comparer avec celle de Poisson (2) ci-dessus. Loi d'une variable qui suit

(1)

0,4

0,3

0,2

0,1

0 0

1

2

3

Loi d'une variable qui suit

4

(5)

0,2 0,16 0,12 0,08 0,04 0 0

1

2

3

4

5

6

7

8

9

10

11

12

3. Exemple dans un contexte Le nombre de décès sur la route en France pour une durée de 24 heures est une variable aléatoire suivant une loi de Poisson de paramètre m = 12. Déterminer en utilisant la formule puis en utilisant la table : • P(X = 5) ≈ 0,0127 ; P(X = 20) ≈ 0,0097. • P(7 ≤ X ≤ 12) ≈ 0,5301 ; P(9 < X < 16) ≈ 0,6020.

• P(X > 20) = 1 – P(X ≤ 20) = 1 – P(X < 21) ≈ 1 – 0,9884 ≈ 0,0116. 4. Espérance et variance d'une variable de Poisson Si X suit une loi de Poisson de paramètre m, i.e. son espérance mathématique est E(X) = m,

(X) =

(m):

sa variance est V(X) = m et son écart type est (X) =

m.

Ces résultats seront admis et seront mémorisés.

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

18/23

Exemple : Avec l’exemple simple du paragraphe E.2. ci-dessus : E(X) = 2, V(X) = 2 et σ(X) =

2.

Remarque 1 : Si la variable suit une loi de Poisson on retiendra que son espérance mathématique et sa variance sont égales entre elles et égales au paramètre de la loi m.

Remarque 2 : Pour tout k entier, k ≥ 2,

P( X = k ) m k.P( X = k ) = et ainsi, = m. P( X = k − 1) k P( X = k − 1)

Pour une variable de Poisson de paramètre m, le quotient

k.P( X = k ) est constant égal à m. P( X = k − 1)

5. Situation pour reconnaître une loi approchée par une loi de Poisson Comment reconnaître qu’une variable statistique discrète suit approximativement une loi de Poisson ? On peut envisager une loi de Poisson comme modèle représentatif d' une série statistique si la variable ne prend que des valeurs entières, positives ou nulles et si :

Critère 1 : la moyenne de l’échantillon et sa variance sont sensiblement égales. Ce critère est basé sur la remarque 1 ci-dessus. Sur l’échantillon, on calcule la moyenne x et la variance S² de la distribution statistique. Si l' on trouve que la valeur de la moyenne est sensiblement égale à celle de la variance, alors on peut conjecturer que la variable suit une loi de Poisson de paramètre m que l' on prendra égal, en échantillon. général, à la moyenne x calculée avec l' On peut aussi prendre parfois pour m une valeur voisine de x . On sera amené à confirmer cette hypothèse par un test plus puissant (voir ci-dessous).

Critère 2 : le quotient

k. f k k .n k (ou le quotient ) est sensiblement constant. fk −1 nk − 1

Ce critère est basé sur la remarque 2 ci-dessus. La constante représente le paramètre de la loi de Poisson. Critère 3 : test de Khi 2 dans le cas d’une variable discrète.

C’est le plus puissant des 3 critères. Voir Chapitre 7. 6. Somme de variables aléatoires indépendantes de Poisson

La somme de deux variables aléatoires indépendantes suivant chacune une loi de Poisson suit une loi de Poisson (stabilité) : si (X1) = (m1) et (X2) = (m2) alors (X1 + X2) = (m1 + m2) .

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

19/23

VI. Approximation d’une loi binomiale par une loi de Poisson. Une loi binomiale de paramètre n et p peut être approximée par une loi de Poisson de paramètre m = n.p si l’un au moins des deux critères suivants est vérifié : Critère 1 : n est assez grand (à partir de 50), p ≤ 0,1 et np < 15.

Ou bien : Critère 2 : n ≥ 50, n.p < 15 et npq < 18

On écrit :

(n; p) ≈ (np).

Ainsi, lorsqu’un événement a une faible probabilité (p < 0,1) d’apparition lors d’une épreuve élémentaire, si l’on répète celle-ci un grand nombre de fois, le nombre total de réalisations de l’événement considéré suit à peu près une loi de Poisson de paramètre m = n.p. La loi de Poisson est parfois appelée loi des événements rares ou des petits nombres. Exemple 1 (Mercabio) (suite) Cinquante clients se présentent dans la matinée. On a vu précédemment que le nombre X de clients qui achètent du lait de chèvre pendant la matinée suit une loi binomiale (50 ; 0,1). a) Par quelle loi peut-on approcher la loi de X ? b) Calculer avec cette loi approchée la probabilité que 5 clients au plus achètent du pain biologique pendant la matinée. c) Comparer avec le résultat trouvé avec la loi binomiale. Corrigé a) Comme n = 50, on a n > 30 et que p = 0,1, on a aussi p ≤ 0,1, alors X suit approximativement une loi de Poisson de paramètre m = np = 5 : (X) ≈ (5). b) On cherche P(X ≤ 5). On peut dire : P(X ≤ 5) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) + P(X = 4) + P(X = 5).

mk On utilise 6 fois la formule P(X = k) = e . avec m = 5 et k = 0 à k = 5. k! On peut utiliser la table de la loi (5) donnée en annexe. –m

Par exemple : P(X = 2) = e – 5 .

52 ≈ 0,842 que l' on peut lire aussi sur la table. 2!

On obtient finalement, tous calculs effectués : P(X ≤ 5) ≈ 0,6159 (avec la formule) ou P(X ≤ 5) ≈ 0,6160 avec la table. c) Dans les deux cas, on constate que le résultat obtenu diffère peu de celui trouvé avec la loi binomiale.

------------------------------

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

20/23

Annexe : tables de Poisson (Extraits)

Table de Poisson pour m variant de 0,05 à 0,90 avec un pas de 0,05 X↓

m → 0,05 0,10 0,15 0,20 0,25 0,30 0 0,9512 0,9048 0,8607 0,8187 0,7788 0,7408 1 0,0476 0,0905 0,1291 0,1637 0,1947 0,2222 2 0,0012 0,0045 0,0097 0,0164 0,0243 0,0333 3 0,0000 0,0002 0,0005 0,0011 0,0020 0,0033 4 0,0000 0,0000 0,0000 0,0001 0,0001 0,0003 5 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000

0,35 0,7047 0,2466 0,0432 0,0050 0,0004 0,0000

0,40 0,6703 0,2681 0,0536 0,0072 0,0007 0,0001

0,45 0,6376 0,2869 0,0646 0,0097 0,0011 0,0001

X↓

m → 0,50 0,55 0,60 0,65 0,70 0,75 0,80 0 0,6065 0,5769 0,5488 0,5220 0,4966 0,4724 0,4493 1 0,3033 0,3173 0,3293 0,3393 0,3476 0,3543 0,3595 2 0,0758 0,0873 0,0988 0,1103 0,1217 0,1329 0,1438 3 0,0126 0,0160 0,0198 0,0239 0,0284 0,0332 0,0383 4 0,0016 0,0022 0,0030 0,0039 0,0050 0,0062 0,0077 5 0,0002 0,0002 0,0004 0,0005 0,0007 0,0009 0,0012 6 0,0000 0,0000 0,0000 0,0001 0,0001 0,0001 0,0002

0,85 0,4274 0,3633 0,1544 0,0437 0,0093 0,0016 0,0002

0,90 0,4066 0,3659 0,1647 0,0494 0,0111 0,0020 0,0003

Table de Poisson pour m variant de 1,0 à 5,0 avec un pas de 0,5 X↓

Statenstock

m→ 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 0 0,3679 0,2231 0,1353 0,0821 0,0498 0,0302 0,0183 0,0111 0,0067 1 0,3679 0,3347 0,2707 0,2052 0,1494 0,1057 0,0733 0,0500 0,0337 2 0,1839 0,2510 0,2707 0,2565 0,2240 0,1850 0,1465 0,1125 0,0842 3 0,0613 0,1255 0,1804 0,2138 0,2240 0,2158 0,1954 0,1687 0,1404 4 0,0153 0,0471 0,0902 0,1336 0,1680 0,1888 0,1954 0,1898 0,1755 5 0,0031 0,0141 0,0361 0,0668 0,1008 0,1322 0,1563 0,1708 0,1755 6 0,0005 0,0035 0,0120 0,0278 0,0504 0,0771 0,1042 0,1281 0,1462 7 0,0001 0,0008 0,0034 0,0099 0,0216 0,0385 0,0595 0,0824 0,1044 8 0,0000 0,0001 0,0009 0,0031 0,0081 0,0169 0,0298 0,0463 0,0653 9 0,0000 0,0000 0,0002 0,0009 0,0027 0,0066 0,0132 0,0232 0,0363 10 0,0000 0,0000 0,0000 0,0002 0,0008 0,0023 0,0053 0,0104 0,0181 11 0,0000 0,0000 0,0000 0,0000 0,0002 0,0007 0,0019 0,0043 0,0082 12 0,0000 0,0000 0,0000 0,0000 0,0001 0,0002 0,0006 0,0016 0,0034 13 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0002 0,0006 0,0013 14 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0002 0,0005 15 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0002

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

21/23

Table de Poisson pour m variant de 5,5 à 9,5 avec un pas de 0,5 X↓ m→ 5,5 6,0 6,5 7,0 7,5 8,0 8,5 9,0 9,5 0 0,0041 0,0025 0,0015 0,0009 0,0006 0,0003 0,0002 0,0001 0,0001 1 0,0225 0,0149 0,0098 0,0064 0,0041 0,0027 0,0017 0,0011 0,0007 2 0,0618 0,0446 0,0318 0,0223 0,0156 0,0107 0,0074 0,0050 0,0034 3 0,1133 0,0892 0,0688 0,0521 0,0389 0,0286 0,0208 0,0150 0,0107 4 0,1558 0,1339 0,1118 0,0912 0,0729 0,0573 0,0443 0,0337 0,0254 5 0,1714 0,1606 0,1454 0,1277 0,1094 0,0916 0,0752 0,0607 0,0483 6 0,1571 0,1606 0,1575 0,1490 0,1367 0,1221 0,1066 0,0911 0,0764 7 0,1234 0,1377 0,1462 0,1490 0,1465 0,1396 0,1294 0,1171 0,1037 8 0,0849 0,1033 0,1188 0,1304 0,1373 0,1396 0,1375 0,1318 0,1232 9 0,0519 0,0688 0,0858 0,1014 0,1144 0,1241 0,1299 0,1318 0,1300 10 0,0285 0,0413 0,0558 0,0710 0,0858 0,0993 0,1104 0,1186 0,1235 11 0,0143 0,0225 0,0330 0,0452 0,0585 0,0722 0,0853 0,0970 0,1067 12 0,0065 0,0113 0,0179 0,0263 0,0366 0,0481 0,0604 0,0728 0,0844 13 0,0028 0,0052 0,0089 0,0142 0,0211 0,0296 0,0395 0,0504 0,0617 14 0,0011 0,0022 0,0041 0,0071 0,0113 0,0169 0,0240 0,0324 0,0419 15 0,0004 0,0009 0,0018 0,0033 0,0057 0,0090 0,0136 0,0194 0,0265 16 0,0001 0,0003 0,0007 0,0014 0,0026 0,0045 0,0072 0,0109 0,0157 17 0,0000 0,0001 0,0003 0,0006 0,0012 0,0021 0,0036 0,0058 0,0088 18 0,0000 0,0000 0,0001 0,0002 0,0005 0,0009 0,0017 0,0029 0,0046 19 0,0000 0,0000 0,0000 0,0001 0,0002 0,0004 0,0008 0,0014 0,0023 20 0,0000 0,0000 0,0000 0,0000 0,0001 0,0002 0,0003 0,0006 0,0011 21 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0001 0,0003 0,0005 22 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0001 0,0002 23 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

22/23

Table de Poisson pour m variant de 10 à 18 avec un pas de 1 X↓ m→ 10 11 12 13 14 15 16 17 18 0 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 1 0,0005 0,0002 0,0001 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 2 0,0023 0,0010 0,0004 0,0002 0,0001 0,0000 0,0000 0,0000 0,0000 3 0,0076 0,0037 0,0018 0,0008 0,0004 0,0002 0,0001 0,0000 0,0000 4 0,0189 0,0102 0,0053 0,0027 0,0013 0,0006 0,0003 0,0001 0,0001 5 0,0378 0,0224 0,0127 0,0070 0,0037 0,0019 0,0010 0,0005 0,0002 6 0,0631 0,0411 0,0255 0,0152 0,0087 0,0048 0,0026 0,0014 0,0007 7 0,0901 0,0646 0,0437 0,0281 0,0174 0,0104 0,0060 0,0034 0,0019 8 0,1126 0,0888 0,0655 0,0457 0,0304 0,0194 0,0120 0,0072 0,0042 9 0,1251 0,1085 0,0874 0,0661 0,0473 0,0324 0,0213 0,0135 0,0083 10 0,1251 0,1194 0,1048 0,0859 0,0663 0,0486 0,0341 0,0230 0,0150 11 0,1137 0,1194 0,1144 0,1015 0,0844 0,0663 0,0496 0,0355 0,0245 12 0,0948 0,1094 0,1144 0,1099 0,0984 0,0829 0,0661 0,0504 0,0368 13 0,0729 0,0926 0,1056 0,1099 0,1060 0,0956 0,0814 0,0658 0,0509 14 0,0521 0,0728 0,0905 0,1021 0,1060 0,1024 0,0930 0,0800 0,0655 15 0,0347 0,0534 0,0724 0,0885 0,0989 0,1024 0,0992 0,0906 0,0786 16 0,0217 0,0367 0,0543 0,0719 0,0866 0,0960 0,0992 0,0963 0,0884 17 0,0128 0,0237 0,0383 0,0550 0,0713 0,0847 0,0934 0,0963 0,0936 18 0,0071 0,0145 0,0255 0,0397 0,0554 0,0706 0,0830 0,0909 0,0936 19 0,0037 0,0084 0,0161 0,0272 0,0409 0,0557 0,0699 0,0814 0,0887 20 0,0019 0,0046 0,0097 0,0177 0,0286 0,0418 0,0559 0,0692 0,0798 21 0,0009 0,0024 0,0055 0,0109 0,0191 0,0299 0,0426 0,0560 0,0684 22 0,0004 0,0012 0,0030 0,0065 0,0121 0,0204 0,0310 0,0433 0,0560 23 0,0002 0,0006 0,0016 0,0037 0,0074 0,0133 0,0216 0,0320 0,0438 24 0,0001 0,0003 0,0008 0,0020 0,0043 0,0083 0,0144 0,0226 0,0328 25 0,0000 0,0001 0,0004 0,0010 0,0024 0,0050 0,0092 0,0154 0,0237 26 0,0000 0,0000 0,0002 0,0005 0,0013 0,0029 0,0057 0,0101 0,0164 27 0,0000 0,0000 0,0001 0,0002 0,0007 0,0016 0,0034 0,0063 0,0109 28 0,0000 0,0000 0,0000 0,0001 0,0003 0,0009 0,0019 0,0038 0,0070 29 0,0000 0,0000 0,0000 0,0001 0,0002 0,0004 0,0011 0,0023 0,0044 30 0,0000 0,0000 0,0000 0,0000 0,0001 0,0002 0,0006 0,0013 0,0026 31 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0003 0,0007 0,0015 32 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0001 0,0004 0,0009 33 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0002 0,0005 34 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0002 35 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 36 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001

Statenstock

Eléments de Statistique / Ch 4- Variables aléatoires réelles discrètes

23/23

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF