THEORIE ELEMENTAIRE DES PROBABILITES

January 15, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download THEORIE ELEMENTAIRE DES PROBABILITES...

Description

La loi binomiale et la loi de Poisson

LOI BINOMIALE Formulation Soit une épreuve donnant lieu à un événement A suivant la probabilité P(A) = p, ou à la non réalisation de l'événement A suivant la probabilité complémentaire P(non A) = 1 - p = q. On définit alors la loi binomiale comme une loi discrète dont l'expression est donnée par :

P(K = k ) = Pk = C kn ⋅ p k ⋅ (1 − p) ( n −k ) où n est le nombre d'expériences aléatoires identiques et stochastiquement indépendantes et k est le nombre de fois où l'événement A est réalisé. La loi binomiale donne alors la probabilité d'observer k fois la réalisation d'un événement A au cours de n épreuves indépendantes ( 0 ≤ k ≤ n ).

Cette loi est alors caractérisée par l'unique paramètre p. Les valeurs successives du terme C kn ⋅ p k ⋅ (q ) ( n −k ) pour k variant de 0 à n, correspondent aux termes du développement du binôme (p + q ) n et puisque (p + q) = 1, on a bien : +∞



k =0

Pk =

n

∑ Pk = 1

k =0

D'où l'appellation de loi binomiale. On peut également retrouver la loi binomiale en considérant la variable aléatoire K comme une somme de n variables alternatives (ou variable de Bernoulli) indépendantes de même paramètre p. La loi binomiale est alors aussi appelée loi d'alternatives répétée.

Domaine d'applications Tirage dans une population infinie où une proportion p d'individus possède le caractère auquel on s'intéresse. Exemple : le nombre de jour de pluvieux dans un mois. Si la population est finie, il faut remettre les individus tirés après chaque tirage pour appliquer la loi binomiale.

Représentation de la loi En faisant le rapport de deux probabilités successives, on obtient : Pk ( n − k + 1)p = Pk −1 k( 1 − p) 1

La loi binomiale et la loi de Poisson

on obtient ainsi une expression pour calculer les probabilités par récurrence : ( n − k + 1)p ⋅ Pk −1 Pk = k( 1 − p) et il en résulte que

0.35

Pk > Pk − 1

si

k < p ⋅ (n + 1)

Pk = Pk −1

si

k = p ⋅ (n + 1)

Pk < Pk −1

si

k > p ⋅ (n + 1)

p = 0,2

Pk

n = 10

0.3

0.3

p = 0,5

Pk

n = 10

0.25

0.15

0.2

0.15

0.1

0.05

k

k 0

1



0.15

0.1

0 2

3

4

5

6

7

8

9 10

n = 10

0.3

0.2

0.1

p = 0,9

0.35

0.2

0.05

Pk

0.4

0.25

0.25

0.45

0.05 0

1

2

3

4

5

6

7

8

9 10

k 1 2 3 4 5 6 7 8 9 10

Donc si pour la plus forte valeur possible de k (c'est à dire k = n), on a encore k = n < p ⋅ (n + 1) , alors la distribution est constamment croissante. Ça se produit lorsque

p ≥ n /( n + 1) . •

Inversement, si pour la première valeur de k (c'est à dire pour k=1), on a déjà

k = 1 > p ⋅ (n + 1) , alors la distribution est constamment décroissante. Ça se produit lorsque p ≤ 1 /( n + 1) . •

Dans tous les autres cas, on a une distribution en cloche, admettant un maximum.

On peut montrer que si n tend vers l'infini, la fréquence modale (valeur de k/n maximale) tend vers la probabilité d'apparition de l'événement au cours d'une épreuve individuelle : p.

Moments de la loi En rappelant que la variable de la loi binomiale est la somme de n variables de Bernoulli indépendantes on en déduit la moyenne, la variance et d'autres moments.

E(K ) = np

: moyenne

2 σK = npq

: variance

on a aussi μ 3 = npq (q − p)

2

La loi binomiale et la loi de Poisson

μ 4 = npq (1 - 6pq + 3npq) On en déduit γ1 =

γ2 =

μ3

= (q − p ) / npq

μ 23 / 2

μ4 μ 22

= (1 − 6pq + 3npq ) / npq

Les distributions binomiales sont donc symétriques lorsque p = q = 1/2. Il apparaît que toute distribution binomiale est entièrement caractérisée par sa moyenne et sa variance.

La fonction génératrice des moments s'écrit :

(

m k (t) = p e t + q

)n

Loi binomiale généralisée ou loi polynomiale

La loi binomiale peut être étendue au cas de h événements complémentaires A1, ..., Ah de probabilités P1, ..., Ph telles que :

h

∑ Pi = 1 i =1

Soit K1, ..., Kh les h variables aléatoires représentant les nombres de réalisations de A1, ..., Ah au cours de n expériences indépendantes identiques. Ces variables sont telles que

h

∑Ki = n . i =1

Alors on peut établir que la probabilité d'observer k1 fois A1 et ... et kh fois Ah est : n! k k P( K 1 = k 1 et ... et K h = k h ) = P1 1 ....Ph h k 1 !...k h ! Il s'agit en fait d'une distribution à h – 1 dimensions, car la dernière variable aléatoire est déduite de la relation

h

∑Ki = n . i =1

3

La loi binomiale et la loi de Poisson

LOI DE POISSON

Formulation Pour définir la loi de Poisson, on part d'une loi binomiale dont on fait varier les paramètres p et n de la façon suivante : n→∞

p→0 np → m (une constante positive)

k n −k Dans ces condition on peut montrer que le terme C K tend vers np q

m k −m e k!

Cette propriété appelée "théorème de poisson", montre que la loi et les distributions binomiales se transforment, à la limite, en une loi et un ensemble de distributions dites de Poisson exprimées par : P ( K = k ) = Pk = e − m

mk k!

et caractérisée par un seul paramètre m.

Domaine d'utilisation En pratique, lorsque n est suffisamment grand et lorsque p est suffisamment petit, toute distribution binomiale peut être remplacée sans erreur importante par une loi de Poisson de paramètre m = np. L'emploi de ces distributions nécessite en effet moins de calculs. Habituellement, l'approximation de la loi binomiale par la loi de Poisson est utilisée lorsque n > 50 et lorsque le produit m = np < 5. Cette loi est très utilisée pour décrire l'apparition d'événements en fonction du temps, et en l'utilisation en liaison avec la loi exponentielle.

Représentation de la loi En faisant le rapport Pk sur Pk − 1 on trouve la formule de récurrence :

Pk = Pk −1 ⋅

m k

4

La loi binomiale et la loi de Poisson

0.5

0.5

0.5

0.45

0.45

0.45

m = 0,7

0.4

m = 2,1

0.4

0.35

0.35

0.3

0.3

0.3

0.25

0.25

0.25

0.2

0.2

0.2

0.15

0.15

0.15

0.1

0.1

0.1

0.05

0.05

0.05

0

0 0

1

2

3

4

5

6

7

8

9 10

m = 4,5

0.4

0.35

0 0

1

2

3

4

5

6

7

8

9 10

0

1

2

3

4

5

6

7

8

9 10

Moments et propriétés La loi de Poisson décrit une loi binomiale en prenant np = m, or dans une loi binomiale le produit np est égal à la moyenne de la variable. On en déduit que pour la loi de Poisson, le paramètre m est la moyenne de la variable. µ= E(K ) = m on montre d'autre part que 2 σK =m

Si une variable aléatoire suit une loi de Poisson, alors la distribution de Poisson est caractérisé par le paramètre m qui est égal à la fois à la moyenne et à la variable de la variable aléatoire. On a aussi μ3 = m

μ 4 = 3m 2 + m

et

d'où γ1 = 1/ m

La fonction génératrice des moments s'écrit :

et

γ 2 = 1 /m + 3

m k ( t ) = e − m e me

t

Propriétés d'additivité La somme de n variables indépendantes suivant des lois de Poisson de paramètres m1, ..., mn suit aussi une loi de Poisson de paramètre m = m1 + ... + mn.

5

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF