Probabilités

January 17, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Probabilités...

Description

Chapitre 2

Probabilités Objectifs du chapitre 1. Introduire la notion de modèle probabiliste. 2. Faire le parallèle entre le langage ensembliste et le langage probabiliste. 3. Propriétés élémentaires des probabilités. Formule de Poincaré. 4. Probabilité conditionnelle, formule des probabiliés totales, formule de Bayes. 5. Indépendance de deux événements. 6. Lemmes de Borel-Cantelli.

2.1

Probabilité, modèle probabiliste

2.1.1

Modèle probabiliste : idée intuitive

Dans de nombreuses situations de la vie courante on ne peut prédire avec certitude le résultat d’une expérience à cause de fluctuations aléatoires que l’on ne maîtrise pas. Pensons par exemple aux jets de dés, au tirage du Loto, aux tirages de boules dans des urnes. Afin de palier à cela on associe à la situation un modèle probabiliste. L’étude du modèle permet alors de faire des prédictions que l’on confronte par exemple à des simulations numériques ou encore à des expériences. Intuitivement, un modèle probabiliste se compose de • l’ensemble des éventualités ou résultats possibles de l’expérience aléatoire considérée. Cet ensemble usuellement noté Ω est souvent appelé univers. Par exemple pour l’expérience aléatoire “on lance une pièce deux fois”, le résultat d’une expérience sera (P, P), ou (P, F) ou (F, P) ou (F, F). L’univers considéré est donc Ω = {(P, P), (P, F), (F, P), (F, F)}. • un ensemble A de parties de Ω que l’on appellera ensemble des événements. Un événement est un fait attaché à l’expérience aléatoire et susceptible ou non de se produire. Dans le cas précédent on peut par exemple considérer l’événement A : “lancé 1 différent de lancé 2”, qui correspond à la partie A = {(P, F), (F, P)} de Ω. Si ω est une éventualité on dit que l’événement A est réalisé à travers l’éventualité ω si et seulement si ω appatient à A.

1

Si on obtient (P, P) l’événement A ne s’est pas réalisé. Si on on obtient (P, F) l’événement A s’est réalisé. Pour que le modèle soit cohérent avec l’intuition, l’ensemble des événements A contient Ω (“quelque chose va se produire” qui sera de probabilité 1) et l’ensemble vide (“rien ne va se produire” qui sera de probabilité 0) et il doit être stable par les opérations ensemblistes usuelles : réunion (dénombrable), intersection (dénombrable) et passage au complémentaire. • une fonction de probabilité P qui associe à chaque événement un nombre réel compris entre 0 et 1 afin de quantifier la chance qu’un tel événement se produise. Pour construire cette fonction on fait l’hypothèse fondamentale : “ L’expérience peut être répétée un grand nombre de fois et les répétitions sont indépendantes les unes des autres.” Intuitivement, on peut alors associer une probabilité à un événement A de la manière suivante Nb(A, N) N→∞ N

P(A) = lim

où Nb(A, N) est le nombre de fois où l’événement A se produit au cours de N tentatives. La loi des grands nombres permettra de donner une justification et un sens précis à cette limite. Cette fonction P a naturellement les deux propriétés fondamentales suivantes : 1. P(Ω) = 1 car pour tout N, Nb(Ω, N) = N. / alors 2. Si on considère deux événements incompatibles A et B, c’est à dire A ∩ B = 0, P(A ∪ B) = P(A) + P(B). En effet, P(A ∪ B) = limN→∞ Nb(A∪B,N) N = limN→∞ Nb(A,N) + Nb(B,N) (par incompatibilité) N N = limN→∞ Nb(A,N) + limN→∞ Nb(B,N) N N = P(A) + P(B). De nombreuses conséquences découlent immédiatement de cette formule : / = 0, (a) P(0) (b) P(A) + P(Ω \ A) = 1, (c) P(A ∪ B) = P(A) + P(B) − P(A ∩ B), (d) P(A) ≤ P(B) si A ⊂ B. (e) Si l’ensemble Ω est fini alors la probabilité P est connue dès que l’on connaît les probabilités des événements élémentaires {ω} pour tout ω ∈ Ω. En effet grâce à la formule précédente on peut poser P(A) =

∑ P({ω}). ω∈A

2

2.1.2

Définition

Définition 2.1.1 (Modèle probabiliste, Kolmogorov 1 (1933)). Un modèle probabiliste ou espace probablisé est la donnée d’un triplet (Ω, A , P) où 1. Ω est un ensemble. 2. A est un ensemble de parties de Ω vérifiant les propriétés suivantes : (a) Ω ∈ A . (b) ∀A ∈ A , Ω \ A ∈ A . (c) La réunion de toute famille finie ou dénombrable d’éléments de A appartient à A . Les éléments de A sont appelés événements. Le couple (Ω, A ) est appelé espace probabilisable. (d) Soit ω une éventualité. Un événement A est alors dit “réalisé” si ω appartient à A et ne l’est pas si ω n’appartient pas à A. 3. P est une fonction P : A → [0, 1] vérifiant (a) P(Ω) = 1 (b) ∀A, B ∈ A , A ∩ B = 0/ ⇒ P(A ∪ B) = P(A) + P(B). (c) Lorsque Ω est infini, pour toute famille dénombrable (Ai )i∈I d’événements disjoints deux à deux, on a ! P

[

= ∑ P(Ai ) ∈ [0, 1].

Ai

i∈I

i∈I

Usuellement, • Ω est appellé univers ou ensemble des éventualités ou ensemble des résultats. • A est l’ensemble des événements. On dit que A est une tribu. • P est appellé mesure de probabilité. On a alors une correspondance entre le langage ordinaire et le langage ensembliste : un résultat possible = une éventualité un événement A l’événement A est réalisé via ω l’événement A n’est pas réalisé via ω les événements A et B sont réalisés via ω l’événement A ou l’événement B est réalisé les événements A et B sont incompatibles la réalisation de A entraîne celle de B l’un au moins des événements Ai est réalisé aucun des événements Ai n’est réalisé tous les événements Ai sont réalisés via ω A est un événement quasi-impossible Ω est toujours réalisé. 0/ n’est jamais réalisé.

↔ ↔ ↔ ↔ ↔ ↔ ↔ ↔ ↔ ↔ ↔ ↔ → →

ω∈Ω A⊂Ω ω∈A ω∈ / A c’est à dire ω ∈ Ω \ A ω ∈ A∩B ω ∈ A∪B A ∩ B = 0/ A⊂B ω ∈ ∪i Ai ω ∈ Ω \ ∪i Ai = ∩i (Ω \ Ai ) ω ∈ ∩i Ai P(A)=0 P(Ω) = 1 / =0 P(0)

Remarque 2.1.2. Soit A un événement, si P(A) = 1 cela n’implique pas que A = Ω mais seulement que P(Ω \ A) = 0.

1. Kolmogorov, mathématicien russe, (1903-1987)

3

Il y a trois situations à considérer : Ω est fini, Ω est infini mais dénombrable et Ω est infini non dénombrable.

2.1.3

Modèle probabiliste : Ω est fini

Dans ce cas là, on considère (en règle générale) toute partie de Ω comme événement autrement dit

A = P (Ω). On vérifie immédiatement que l’ensemble des parties de Ω est une tribu et on définit la probabilité P par P : A → [0, 1] A 7→ P(A) = ∑ω∈A p(ω) où p est une fonction de Ω dans [0, 1] vérifiant ∑ω∈Ω p(ω) = 1. On vérifie immédiatement que la fonction P vérifie les axiomes d’une probabilité. Si l’on est dans une situation où toutes les éventualités semblent avoir la même probabilité, par exemple lorsque l’on jette un dé non pipé, ou lorsque l’on lance une pièce bien équilibrée, on choisit alors la fonction p constante et nécessairement 1 égale à Card Ω . En ce cas Card A P(A) = Card Ω que l’on résume usuellement par l’expression “nombre de cas favorables divisé par le nombre de cas possibles”. Exemple 2.1.3 (Problème des anniversaires). Soit N individus pris au hasard, en supposant que l’année a 365 jours, quelle est la probabilité que l’on en trouve au moins deux ayant leur anniversaire le même jour ? → On suppose que l’année a 365 jours. On prend comme éventualité toutes les dates de naissance possibles des N individus. Par conséquent Ω = {(a1 , ..., aN ) | ∀i ∈ {1, ..., N}, ai ∈ {1, .., 365}}. Comme décrit ci-dessus on considère

A = P (Ω). Il est naturel de considérer que toutes les éventualités sont équiprobables, on considère donc la probabilité du modèle P : A → [0, 1] A 7→ P(A) = ∑ω∈A p(ω) où p est la fonction de Ω dans [0, 1] définie par p(ω) =

1 1 = . Card Ω 365N

Le problème posé consiste donc à mesurer la probabilité de l’événement A = {(a1 , ..., aN ) ∈ Ω | ∃ i, j ∈ {1, ..., N}, i 6= j et ai = a j }. Il est plus aisé de considérer l’événement contraire Ω \ A = {(a1 , ..., aN ) ∈ Ω | ∀ i, j ∈ {1, ..., N}, i 6= j ⇒ ai 6= a j }. Nous avons donc Card (Ω \ A) = 365 × 364 × ... × (365 − N + 1). On conclut donc que P(A) = 1 − P(Ω \ A) = 1 −

365 × 364 × ... × (365 − N + 1) 365! = 1− . N 365 (365 − N)!365N

Par exemple sur une classe de 30 élèves la probabilité que deux élèves soient nés le même jour est de 0.7. Si on l’on considère un effectif de 60 personnes la probabilité est de 0.99 ! 4

2.1.4

Modèle probabiliste : Ω est infini mais dénombrable

Là encore on prend en général A = P (Ω) et on l’on souhaite définir la probabilité P par P : A → [0, 1] A 7→ P(A) = ∑ω∈A p(ω) où p est une fonction de Ω dans [0, 1] vérifiant ∑ω∈Ω p(ω) = 1. On vérifie immédiatement que la fonction P vérifie les axiomes d’une probabilité.  Attention, les sommations ci-dessus sont infinies ! En particulier on ne peut plus prendre la fonction p constante pour rendre compte de l’équiprobabilité, sinon la série ci-dessus est divergente ! De plus la question de savoir comment l’on somme se pose. Pour cela on procède comme suit. L’univers Ω est dénombrable, il existe donc une bijection de N sur Ω, n 7→ ωn . On peut donc définir ∞

P(A) =

∑ p(ωn ).

n=0

Cette série est à termes positifs. Elle est donc commutativement convergente. Le résultat ne dépend donc pas de l’indexation des éléments de Ω. Et l’on peut noter abusivement P(A) = ∑ω∈A p(ω). Exemple 2.1.4. Quelle est la probabilité qu’en lançant un dé jusqu’à l’apparition d’un 6 on obtienne jamais de 1 ? (→) On considère le modèle suivant. Les éventualités sont des suites finies de la forme (a1 , .., an ) avec an = 6 et pour tout i compris entre 1 et n − 1, ai est différent de 6, c’est donc un nombre compris entre 1 et 5. L’ensemble Ω est l’ensemble de telles suites. Cet ensemble est infini mais dénombrable, par exemple comme réunion dénombrable d’ensembles dénombrables. On considère toute partie de Ω comme événement, autrement dit A = P (Ω). On définit la probabilité P comme suit : P : A → [0, 1] A 7→ P(A) = ∑ω∈A p(ω) où p est une fonction de Ω dans [0, 1] définie par P(a1 , ..., an ) =

1 . 6n

Il est naturel de prendre une telle définition car la situation est équiprobable. Néanmoins, il faut vérifier la condition ∑ω∈Ω p(ω) = 1. En effet, pour n fixé, il y a 5n−1 éléments (a1 , ..., an−1 , 6). Par conséquent : +∞



p(ω) =

ω∈Ω

5n−1 1 1 = . = 1. n 6 1 − 65 n=1 6



Pour justifier totalement l’égalité qui précède notons que la famille p(ω) est une famille dénombrable à termes positifs. Dans ce cas si pour un certain ordre des termes la série induite est convergente, alors quelque soit l’ordre des termes choisi la série induite restera convergente avec la même limite et de plus on peut effectuer des sommations par paquets. On dit que 5n−1 la famille est sommable et commutativement convergente. Ainsi la convergence de la série ∑+∞ n=1 6n entraîne l’égalité. Le problème que l’on considère correspond à la mesure de l’événement A = {(a1 , ..., an ) | n ∈ N, an = 6, et ∀i ∈ {1, .., n − 1}, ai ∈ {2, 3, 4, 5}} La probabilité de A est donc +∞

P(A) =

∑ ω∈Ω

p(ω) =

4n−1 1 1 1 = = . 4 n 6 1− 6 2 n=1 6



5

2.1.5

Modèle probabiliste : Ω est infini mais non dénombrable

Les mesures discrètes On considère A = P (Ω) et des probabilités dites discrètes définies de la manière suivante. On considère une famille dénombrable d’éventualités (ωn )n∈N et une famille de poids (p(ωn ))n∈N à valeurs dans [0, 1] et vérifiant ∑n∈N p(ωn ) = 1. Pour un événement A on pose alors P(A) = ∑ p(ωn )1A (ωn ) n∈N

où 1A est la fonction indicatrice de A. Exemple 2.1.5 (Loi de Poisson). On peut considérer par exemple Ω = R, A = P (R), fixer un réel λ strictement positif et considérer la probabilité P : A → [0, 1] e−λ λn A 7→ P(A) = ∑∞ n=0 n! 1A (n) −λ n

e λ car nous avons ∑∞ n=0 n! = 1. Cette mesure de probabilité est appelée loi de Poisson. On dit qu’elle est supportée par N.

La tribu des boréliens et la mesure de Lebesgue Le fait d’avoir une tribu qui admette une mesure impose des restrictions. Ainsi, les mesures précédentes sont d’un type très particulier. Pour avoir plus de richesse il est nécessaire de raffiner l’ensemble des événements. Nous expliquons dans cette sous partie l’exemple fondamental (R, BR , µ) où BR est la tribu des Boréliens et µ est la mesure de Lebesgue. Nous ne donnerons ici que les idées directrices de la construction qu’il est nécessaire d’avoir en tête. • Pour construire la tribu des boréliens on considère I l’ensemble des parties de R qui sont union finie d’intervalles de R. Cet ensemble I contient l’ensemble vide, R, et il est stable par intersections finies, réunions finies et passage au complémentaire. On dit qu’il forme une algèbre de Boole. La tribu des boréliens est par définition l’intersection de toutes les tribus de R qui contiennent l’algèbre I. On dit que la tribu des boréliens est engendrée par l’algèbre I. • Les étapes de la construction de la mesure de Lebesgue sont les suivantes : 1. La mesure d’un intervalle est tout simplement sa longueur sans se soucier des extrémités :  b − a si a et b sont finis µ([a, b]) = µ([a, b[) = µ(]a, b]) = µ(]a, b[) = . ∞ sinon Pour une réunion finie d’intervalles (Ik )k∈{1,..,n} disjoints deux à deux on pose µ

n [ k=1

! Ik

n

=

∑ µ(Ik ). k=1

2. On étend alors la mesure à la tribu des Boréliens : pour tout borélien B la mesure de B est   µ(B) = inf ∑ µ(An ) | ∀ n, An ∈ I et B ⊂ ∪n An . n

On montre que µ est bien une mesure et de plus que ce prolongement est unique c’est le théorème d’extension de Carathéodory. Remarque 2.1.6. Bien entendu le triplet (R, BR , µ) n’est pas un espace probabilisé car par définition µ(R) = ∞. Exemple 2.1.7. (Loi uniforme sur [a, b]). Pour tout intervalle [a, b], avec b > a l’ensemble

B[a,b] = {B ∩ [a, b] | B ∈ BR } 6

est une tribu et ([a, b], B[a,b] , P) est un espace probabilisé avec pour tout borélien B, P(B) =

µ(B) µ(B) = . µ([a, b]) b − a

Cette mesure de probabilité est appelée loi uniforme sur [a, b]. Remarque 2.1.8. La construction précèdente se généralise à Rn en remplaçant les intervalles par des “pavés” ∏ni=1 [ai , bi ] et en posant !  n ∏ni=1 (bi − ai ) si toutes les extrémités sont finies µ ∏[ai , bi ] = ∞ sinon. i=1 On étend alors la mesure à la tribu des Boréliens : pour tout borélien B la mesure de B est   µ(B) = inf ∑ µ(An ) | ∀ n, An ∈ I et B ⊂ ∪n An .

(2.1)

n

où les An sont des pavés. On obtient alors un triplet (Rn , BRn , µRn ) où BRn est la tribu des boréliens sur Rn et µRn est la mesure de Lebesgue sur µRn . Exemple 2.1.9. Revenons à la mesure d’un borélien dans le plan. Par exemple pensez à un disque dessiné sur une feuille. Vous considérez un premier quadrillage. Votre disque est contenu dans un nombre fini de rectangles et l’aire du disque est inférieur à la somme des aires de ces rectangles. Si vous prenez un quadrillage plus fin, vous obtiendrez une meilleure approximation de l’aire du disque. Montrer que les polygones du plan sont des boréliens. Montrer alors que le disque est un borélien et retrouver son aire par la formule 2.1 Exemple 2.1.10 (Loi uniforme sur B borélien de Rn ). Soit Ω un borélien de Rn et de mesure finie. L’ensemble

BΩ = {B ∩ Ω | B ∈ BRn } est une tribu et (Ω, BΩ , P) est un espace probabilisé avec pour tout borélien B de BΩ , P(B) =

µ(B) . µ(Ω)

Cette mesure de probabilité est appelée loi uniforme sur B. Exemple 2.1.11. Ce procédé de construction peut être utilisé dans les cas discrets. Considérons par exemple l’expérience suivante “faire une infinité de lancés successifs d’une pièce”. Il est naturel de considérer comme univers l’ensemble Ω des mots infinis formés des lettres P et F : Ω = {(cn )n∈N | cn ∈ {0, 1}}, où {0} correspond à “face” et {1} correspond à “pile”. On considère comme dans le cas continu, une algèbre simple sur laquelle on puisse définir une mesure puis on étend la mesure à la tribu engendrée par l’algèbre par le théorème de Carathéodory. L’algèbre considérée est formée des parties de la forme k Ain11,...,i ,...,nk = {(cn )n∈N | cn1 = i1 , ..., cnk = ik }. On suppose par exemple que la pièce est bien équilibrée et on pose donc k P(Ain11,...,i ,...,nk ) =

7

1 . 2k

2.1.6

Propriétés des probabilités

Proposition 2.1.12. Soit (Ω, A , P) un espace probabilisé. La mesure de probabilité P vérifie les propriétés suivantes : 1. monotonie : si A et B sont deux événements de A avec A ⊂ B alors P(A) ≤ P(B). 2. sous additivité : si (An )n∈N est une famille d’événements de A alors ! [

P



An

∑ P(An ). n∈N

n∈N

3. continuité croissante : si (An )n∈N est une famille d’événements de A telle que pour tout entier n, An ⊂ An+1 alors ! P

[

= lim P(An ) = sup P(An ).

An

n→+∞

n∈N

n∈N

4. continuité décroissante : si (An )n∈N est une famille d’événements de A telle que pour tout entier n, An+1 ⊂ An alors ! P

\

= lim P(An ) = inf P(An ).

An

n→+∞

n∈N

n∈N

Démonstration. Soit (Ω, A , P) un espace probabilisé. 1. Monotonie : Si A et B sont deux événements avec A ⊂ B. En ce cas par additivité de la mesure nous avons P(B) = P(A) + P(B \ A) ≥ P(A). 2. Sous additivité : Soit (An )n∈N une famille d’événements de A . Afin de prouver l’inégalité, l’idée est de se ramener aux ensembles disjoints puis d’appliquer l’additivité de la mesure. Considérons la suite de parties (Bn ) définie par récurrence :  B0 = A0 S . Bn+1 = An+1 \ nk=0 Bk , pour tout n ≥ 0 Par construction : • Pour tout entier n, Bn est inclus dans An , donc P(Bn ) ≤ P(An ). • Les ensembles Bi sont deux à deux disjoints. • Pour tout entier n nous avons l’egalité d’ensembles n [

n [

Bk =

k=0

∞ [

Ak et

k=0

∞ [

Bk =

k=0

Ak .

k=0

On en déduit donc les inégalités 0≤P

n [

! =P

Ak

k=0

!

n [

n

n

k=0

k=0

k=0

Par additivité de la mesure sur la famille (Bn ) nous avons ! P

∞ [

Ak

=P

k=0

∞ [

! Bk



=

∑ P(Bk ), k=0

k=0

ce qui induit l’inégalité cherchée : ! P

[

An



∑ P(An ). n∈N

n∈N

8



∑ P(Bk ) ≤ ∑ P(Ak ) ≤ ∑ P(Ak ).

=

Bk

k=0

3. Continuité croissante. Soit (An )n∈N une famille croissante d’événements de A . Notons tout d’abord que la suite (P(An ))n∈N est une suite croissante par la propriété de monotonie précédente. Cette suite de réels est majorée par la probabilité de l’espace total, autrement dit 1. Par l’axiome de la borne supérieure cette suite converge et sa limite est sa borne supérieure. Pour montrer l’égalité ! [

P

An

= lim P(An ). n→+∞

n∈N

On considère la suite définie par récurrence :  B0 = A0 . Bn+1 = An+1 \ An , pour tout n ≥ 0 Par construction : • Pour tout entier n, Bn est inclus dans An , donc P(Bn ) ≤ P(An ). • Les ensembles Bi sont deux à deux disjoints. • Pour tout entier n nous avons l’egalité d’ensembles n [

n [

Bk =

k=0

Ak = An .

k=0

De ces remarques et de l’additivité de la mesure on déduit donc les égalités ! ! P(An ) = P

n [

=P

Ak

k=0

n [

n

Bk

=

∑ P(Bk ). k=0

k=0

Par additivité de la mesure sur la famille (Bn ) nous obtenons l’égalité cherchée en faisant tendre n vers l’infini ! ! ∞

sup P(An ) = lim P(An ) = n∈N

n→∞

∑ P(Bk ) = P k=0

∞ [

Bk

=P

k=0

∞ [

Ak .

k=0

4. Continuité décroissante. Soit (An )n∈N une famille d’événements de A telle que pour tout entier n, An+1 ⊂ An . La suite d’égalités ! P

\

An

= lim P(An ) = inf P(An ).

n∈N

n→+∞

n∈N

découle du point précédent appliqué à la suite croissante d’événements Bn = Ω \ An et de la formule 1 = P(Ω) = P(M) + P(Ω \ M) pour tout événement M.

Proposition 2.1.13 (Formule de Poincaré). Soit (Ω, A , P) un espace probabilisé et A1 ,..,An des événements. La probabilité de l’union de ces événements est donnée par la formule n

P(∪nk=1 Ak ) =

∑ (−1)k−1 k=1



P(Ai1 ∩ ... ∩ Aik ).

1≤i1 ≤...≤ik ≤n

Par exemple, pour deux événements A et B on a la formule P(A ∪ B) = P(A) + P(B) − P(A ∩ B). Remarque 2.1.14. Cette formule est analogue à la formule du crible, en particulier dans le cas où Ω est un ensemble fini, elle en découle immédiatement. 9

Démonstration. Cette formule se prouve par récurrence sur n. — Pour n = 2, il suffit d’écrire A ∪ B = (A \ (A ∩ B)) t (A ∩ B) t (B \ (A ∩ B)) puis d’appliquer la mesure : P(A ∪ B) = P((A \ (A ∩ B))) + P(A ∩ B) + P(B \ (A ∩ B)) = (P(A) − P(A ∩ B)) + P(A ∩ B) + (P(B) − P(A ∩ B)) = P(A) + P(B) − P(A ∩ B) — Supposons le résultat vrai au rang n. Prouvons le rang n + 1. Par le cas précédent nous pouvons écrire P(A1 ∪ .. ∪ An ∪ An+1 ) = P(A1 ∪ .. ∪ An ) + P(An+1 ) − P((A1 ∩ An+1 ) ∪ .. ∪ (An ∩ An+1 )). On applique alors l’hypothèse de récurrence P(A1 ∪ .. ∪ An ∪ An+1 ) = !

n k−1

P(An+1 ) + ∑ (−1) k=1



P(Ai1 ∩ ... ∩ Aik ) −

1≤i1 ≤...≤ik ≤n



P(Ai1 ∩ ... ∩ Aik ∩ An+1 )

1≤i1 ≤...≤ik ≤n

qui est bien de la forme voulue. — On conclut par le théorème de récurrence.

2.2 2.2.1

Probabilités conditionnelles et indépendance Probabilités conditionnelles

On considère un espace probabilisé (Ω, A , P) et deux événements A et B. Comment la connaissance de “B réalisé” influence t’elle la probabilité de A ? Intuitivement on peut effectuer N expériences et on note les résultats dans un tableau : A 0 1 0 0 1 .. .

B 0 0 0 1 1 .. .

où 1 signifie que l’événement a eu lieu et 0 sinon. On définit alors la fréquence conditionnelle de la réussite de l’événement A sachant la réussite de l’événement B par fN (A | B) =

nombre de lignes où on a 1,1 nombre de lignes où on a .,1

=

nombre de lignes où on a 1,1 nombre de lignes où on a .,1 / N N

=

fN (A∩B) fN (B) .

En faisant tendre N vers l’infini il est alors naturel de poser P(A | B) =

P(A ∩ B) . P(B)

10

Définition 2.2.1 (Probabilité conditionnelle). Soit (Ω, A , P) un espace probabilisé. Soit A et B deux événements. On suppose que B est un événement non quasi-impossible c’est à dire P(B) > 0. La probabilité que l’événement A se produise sachant que l’événement B s’est produit est P(A ∩ B) P(A | B) = . P(B) Par conséquent P(A ∩ B) = P(B)P(A | B). Exemple 2.2.2. On lance deux fois un dé. Quelle est la probabilité d’obtenir un 6 au premier lancé sachant que la somme obtenue vaut 8 ? → L’univers considéré est Ω = {1, .., 6} ×{1, .., 6}. L’ensemble des événements est P (Ω). Le dé n’étant pas pipé, la situation est équiprobable et on considère la probabilité uniforme. On considère l’événement A “le résultat du premier dé est 6” : A = {6} × {1, .., 6}. La probabilité de A est Card A 6 1 P(A) = = = . Card Ω 36 6 On considère l’événement B “la somme des résultats vaut 8” : B = {(6, 2), (2, 6), (5, 3), (3, 5), (4, 4)}. On a alors P(A ∩ B) 1 P(A | B) = = . P(B) 5 On vérifie bien que la probabilité d’obtenir un 6 au premier lancé sachant que la somme des dés vaut 12 est égale à 1. Remarque 2.2.3. Soit B un événement, l’application PB : A → [0, 1] A 7→ PB (A) = P(A | B) est une probabilité. En effet, si on considère une famille (An )n∈N d’événements disjoints deux à deux nous avons P(∪n∈N An | B) =

P(An ∩ B) P((∪n∈N An ) ∩ B) P(∪n∈N (An ∩ B)) = =∑ = ∑ P(An | B). P(B) P(B) P(B) n∈N n∈N

Notons de plus que PB (B) = P(B | B) = 1. → Intuitivement, conditionner par B revient à réduire l’ensemble des événements. Proposition 2.2.4 (Probabilité conditionnelle en cascade). On considère un espace probabilisé (Ω, A , P) et une famille de n événements A1 ,...,An telle que P(∩ni=1 Ai ) > 0. La probabilité de l’intersection ∩ni=1 Ai est P(∩ni=1 Ai ) = P(A1 )P(A2 | A1 )P(A3 | A1 ∩ A2 )...P(An | A1 ∩ ... ∩ An−1 ). Démonstration. Toutes les probabilités conditionnelles sont bien définies car pour tout J ⊂ {1, .., n} on a P(∩ j∈J A j ) ≥ P(∩ni=1 Ai ) > 0. La preuve se démontre alors par récurrence sur n. Le cas n = 2 résulte de la définition. Si l’on suppose le résultat au rang n alors on a n n P(∩n+1 i=1 Ai ) = P(∩i=1 Ai )P(An+1 | ∩i=1 Ai ) qui donne la bonne formule via l’hypothèse de récurrence. On conclut par le théorème de récurrence. Exemple 2.2.5. On tire 4 cartes d’un jeu de 52 cartes. Quelle est la probabilité que l’on ait tiré les 4 as ? → On considère Ω comme l’ensemble des résultats possibles. Les événements sont les parties de Ω et on suppose que l’on a équiprobabilité. On note Ai l’événement “la i-ème carte tirée est un as”. On cherche donc à calculer la probabilité de A1 ∩ A2 ∩ A3 ∩ A4 . On a P(A1 ) = 4/52, P(A2 | A1 ) = 3/51, P(A3 | A2 ∩ A1 ) = 2/50, et P(A4 | A1 ∩ A2 ∩ A3 ) = 1/49. Le résultat cherché est donc P(A1 ∩ A2 ∩ A3 ∩ A4 ) =

4.3.2.1 = 0.00000369. 52.51.50.49 11

2.2.2

Formule des probabilités totales et formule de Bayes

Définition 2.2.6 (Système complet d’événements). Soit (Ω, A , P) un espace probabilisé. Une famille (Si )i∈I d’événements est un système complet si elle partitionne de Ω : les Si sont deux à deux disjoints et leur union est Ω. Proposition 2.2.7 (Formule des probabilités totales et formule de Bayes). Soit (Ω, A , P) un espace probabilisé. Soit (Si )i∈I un système complet d’événements, (S j ) j∈J ceux qui ne sont pas quasi-impossibles et A un événement. On a P(A) = ∑ P(A ∩ Si ) = ∑ P(S j )P(A | S j ). j∈J

i∈I

Si A n’est pas quasi-impossible alors pour tout k ∈ J on a P(Sk | A) =

P(A ∩ Sk ) P(Sk )P(A | Sk ) = . P(A ∩ S ) ∑i∈I ∑ j∈J P(S j )P(A | S j ) i

Lorsque le système complet d’événements est réduit à (B, B) on a P(B | A) =

P(B)P(A | B) . P(B)P(A | B) + P(B)P(A | B)

Démonstration. La famille (Si )i∈I est une partition de Ω, par conséquent la famille (A ∩ Si )i∈I est une partition de A et par additivité de la mesure on a l’égalité P(A) = ∑ P(A ∩ Si ). i∈I

Si Si est de mesure nulle alors il en est de même de A ∩ Si par monotonie. La formule P(A) = ∑ P(A ∩ Si ) = ∑ P(S j )P(A | S j ), i∈I

j∈J

découle donc de la définition des probabilités conditionnelles. Les autres formules découlent sont alors immédiates. Exemple 2.2.8. On considère deux urnes U1 et U2 contenant b1 , b2 boules blanches et n1 , n2 boules noires. On choisit au hasard une urne et on tire ensuite une boule dans cette urne. 1. Quelle est la probabilité de tirer une boule noire ? 2. Quelle la probabilité d’avoir tiré dans l’urne Ui sachant qu’une boule noire a été tirée ? → On ne s’étendra pas sur la construction d’un modèle (Ω, A , P). Disons simplement que pour que la probabilité soit pertinante on doit avoir 1 ni P(Ui ) = et P(N | Ui ) = , 2 ni + bi où Ui est l’événement “le tirage à lieu dans l’urne Ui ” et N est l’événement “on tire une boule noire”. Les événements U1 et U2 forment un système complet par conséquent 1 P(N) = P(N | U1 )P(U1 ) + P(N | U2 )P(U2 ) = 2



n1 n2 + n1 + b1 n2 + b2



Pour répondre à la deuxième question on applique la formule de Bayes : P(Ui )P(N | Ui ) P(Ui | N) = = P(U1 )P(N | U1 ) + P(U2 )P(N | U2 ) 12

ni ni +bi n1 n1 +b1

2 + n2n+b 2

.

.

2.2.3

Evènements indépendants

Considérons deux jets successifs d’un même dé. L’univers associé à cette expérience est bien entendu l’ensemble des résultats Ω = Ω1 × Ω2 avec Ω1 = Ω2 = {1, .., 6}. On considère comme ensemble d’événements l’ensemble des parties de Ω. On choisit la probabilité uniforme. Un événement A ne tenant compte que du premier jet est de la forme A1 × Ω2 et un événement B ne tenant compte que du deuxième jet est de la forme Ω1 × B2 . Intuitivement, ces événements ne dépendent pas l’un de l’autre. On a A ∩ B = A1 × B2 . On a P(A1 × B2 ) =



({ω} × B2 ) =

ω1 ∈A1

|B2 | |A1 | |B2 | = . |Ω1 | |Ω2 | ω1 ∈A1 |Ω1 | |Ω2 |



En particulier on a P(A1 × Ω2 ) =

|A2 | |A1 | et P(Ω1 × B2 ) = . |Ω1 | |Ω2 |

On a alors P(A ∩ B) = P(A)P(B). On pose alors naturellement la définition Définition 2.2.9 (Evènements indépendants). Soit (Ω, A , P) un espace probabilisé. Deux événements A et B sont indépendants lorsque P(A ∩ B) = P(A)P(B). Les événements A1 , ..., An sont mutuellement indépendants si et seulement si toute intersection d’un nombre quelconque de ces événements a pour probabilité le produit des probabilités de ceux-ci.  On prendra garde à ne pas confondre événements indépendants et événements incompatibles ! Rappelons que deux / événements A et B sont incompatibles si et seulement si A ∩ B = 0. Remarque 2.2.10. On peut considérer deux points de vue sur l’indépendance. • Indépendance probabiliste. On s’est donné un espace probabilisé et on cherche à montrer que deux événements A et B sont indépendants. • Indépendance physique. On construit un modèle probabiliste. On suppose que l’on a indépendance physique entre deux événements A et B et de manière pertinante on définit P(A ∩ B) par P(A)P(B). → Par exemple, pour 3 lancés successifs d’une pièce, la probabilité d’obtenir “PFP” est 21 12 12 = 18 .  Par construction du modèle, l’indépendance physique implique l’indépendance probabiliste. La réciproque est fausse.

2.2.4

Lemmes de Borel-Cantelli

Théorème 2.2.11 (Lemmes de Borel-Cantelli). On considère un espace probabilisé (Ω, A , P) et une famille dénombrable d’événements (An ). 1. Si la série ∑ P(An ) est convergente alors la probabilité qu’une infinité de An se réalisent est nulle. 2. Si les événements An sont indépendants et si la série ∑ P(An ) est divergente alors la probabilité qu’une infinité de An se réalisent est 1. On déduit alors le corollaire : Corollaire 2.2.12 (Loi de type 0 − 1 (Borel)). On considère un espace probabilisé (Ω, A , P) et une famille dénombrable d’événements indépendants (An ). La probabilité qu’une infinité d’entre eux se réalisent est soit 0 soit 1. 13

Avant de faire la preuve de ce résultat, il faut répondre à la question : en quoi “il existe une infinité de An qui se réalisent” est il un événement ? Pour répondre à cette question, nous introduisons les notions de limite supérieure et inférieure de parties. Définition 2.2.13 (Limites supérieure et inférieure d’une famille de parties d’un ensemble). Soit E un ensemble et (An )n∈N une famille dénombrable de parties. 1. On appelle limite supérieure de la famille (An ) la partie lim sup An :=

\ [

Am ⊂ E.

n∈N m≥n

La partie lim sup An est l’ensemble des éléments de E appartenant à une infinité de An . 2. On appelle limite inférieure de la famille (An ) la partie lim inf An :=

[ \

Am ⊂ E.

n∈N m≥n

La partie lim inf An est l’ensemble des éléments de E appartenant à tous les An à patir d’un certain rang ; le rang dépendant bien entendu de l’élément considéré. Remarque 2.2.14. Soit (Ω, A ) un espace probabilisable et (An )n∈N une famille dénombrable d’événements. Par les axiomes sur l’ensemble des événements et la définition précédente, 1. la limite supérieure des An est encore un événement précisément l’événement “une infinité des événements An est réalisée” 2. la limite inférieure des An est encore un événement précisément l’événement “il existe un rang tel que tous les événements An soient réalisés”. Démonstration. On considère un espace probabilisé (Ω, A , P) et une famille dénombrable d’événements (An ). Nous allons montrer les deux résultats suivants en utilisant la limite supérieure des An : 1. Si la série ∑ P(An ) est convergente alors P(lim sup An ) = 0. 2. Si les événements An sont indépendants et si la série ∑ P(An ) est divergente alors P(lim sup An ) = 1. Par la remarque précédente nous obtenons donc le théorème. 1. Nous avons par additivité de la mesure ∞

0 ≤ P(lim sup An ) = P(∩n ∪m≥n Am ) ⊂ P(∪m≥n Am ) ≤

→ 0 ∑ P(Am ) n→∞

m=n

En effet, par hypothèse la série ∑ P(An ) est convergente. Son reste ∑∞ m=n P(Am ) tend donc vers 0 quand n tend n vers l’infini. 2. Considérons le complémentaire de la limite supérieure des An : Ω \ lim sup An = Ω \ ∩n ∪m≥n Am = ∪n ∩m≥n (Ω \ Am ) = ∪nCn , avec Cn = ∩N≥n ∩Nm=n (Ω \ Am ). Par continuité décroissante et indépendance nous avons N

P(Cn ) = lim P(∩Nm=n Ω \ Am ) = lim

∏ P(Ω \ Am ). n→∞

n→∞

m=n

En utilisant l’inégalité de convexité ex ≥ x + 1 et la divergence de la série ∑ P(An ), nous obtenons N

N

lim ∏ e−P(A ∏ (1 − P(Am )) ≤ N→∞ N→∞

P(Cn ) = lim

m=n

m)

m=n

Ainsi, P(Ω \ lim sup An ) ≤ ∑ P(cn ) = 0, n

donc P(lim sup An ) = 1. 14

N

= e− ∑m=n P(Am ) = 0.

Exemple 2.2.15. On joue à pile ou face un nombre indéterminé de fois. On considère le modèle probabiliste (Ω, A , P) expliqué à l’exemple 2.1.11. Par équiprobabilité sur n tirages, la probabilité de l’événement An “pas de piles dans les n premiers lancers” est P(An ) = 21n . Notons que la série ∑ P(An ) est convergente, par application du lemme de Borel Cantelli, avec probabilité 1 seul un nombre fini des An est réalisé. Par conséquent avec probabilité 1 on obtiendra un pile. Exemple 2.2.16. Soit M un mot de longueur l fixé formé des lettres P et F. On considère Ak l’événement consistant en le fait que le mot se réalise dans les coups (k − 1)l + 1 et kl. Ces événements sont indépendants et ont tous la même probabilité, d’où ∑ P(An ) = ∞. Par le lemme de Borel-Cantelli, avec une probabilité égale à 1, une infinité d’événements Ak vont se produire. Autrement dit le mot M va apparaître une infinité de fois. Contre-exemple. Considérons comme espace probabilisé (Ω = [0, 1], B([0, 1]), µ) et comme famille d’événements les parties An = [0, 1n ]. Nous avons µ(An ) = 1n et ∑ µ(An ) = +∞. La limite supérieure est lim sup An = {0} qui est de mesure nulle. Le lemme de Borel Cantelli prédirait µ(lim sup An ) = 1 ce qui est faux. En effet, les An ne sont pas indépendants : pour n ≥ m ≥ 1, 1 P(An ∩ Am ) = n1 6= nm .

2.3 2.3.1

Lois de probabilités usuelles Lois discrètes

On considère (Ω, P (Ω), P) un modèle probabiliste avec Ω dénombrable. La probabilité P est totalement déterminée par ses valeurs sur les éventualités : P : A → [0, 1] A 7→ P(A) = ∑ω∈A P({ω}) avec ∑ω∈Ω P({ω}) = 1. Loi uniforme. L’univers Ω est fini et pour tout ω, P({ω}) = Usage : Modéliser l’équiprobabilité.

1 Card Ω .

Loi de Bernoulli B (1, p), 0 < p < 1. L’univers est Ω = {0, 1}. La probabilité est totalement définie par P({1}) = p et P({0}) = 1 − p. Usage : Modéliser une épreuve de Bernoulli c’est à dire une expérience aléatoire avec deux résultats possibles souvent appelés succès avec probabilité p et échec avec probabilité 1 − p. Exemple type : jeu de pile ou face avec une pièce truquée p 6= 1/2. Loi binomiale B (n, p), 0 < p < 1, n entier. On considère Ω = {0, ..., n}. La probabilité est totalement déterminée par ∀k ∈ Ω, P({k}) = Cnk pk (1 − p)n−k . On vérifie que l’on a bien ∑nk=0 P({k}) = 1 par la formule du binôme de Newton. Usage : On effectue n épreuves de Bernoulli indépendantes de paramètre p et on s’intéresse au nombre de succès. Exemple type : nombre de “pile” au cours de n tirages à “pile” ou “face”. 15

Loi hypergéométrique de paramètres entiers n, r, r1 . minée par

On considère Ω = {0, ..., r1 }. La probabilité est totalement déter-

∀k ∈ Ω, P({k}) =

n−k Crk1 Cr−r 1 . Crn

Usage : On considère une urne contenant r boules, dont r1 rouges et r − r1 blanches. On tire n boules et on s’intéresse au nombre de boules rouges obtenues. 1 Remarquons que ce contexte fournit un raisonnement combinatoire pour prouver l’égalité ∑rk=0 P({k}) = 1. En effet si n on considère l’ensemble des n boules possibles, cet ensemble à Cr éléments et de plus il est partitionné en classe du type k n−k boules rouges, n − k boules blanches dont le nombre est Crk1 Cr−r . On obtient donc l’égalité 1

n

Crn =

n−k . ∑ Crk Cr−r 1

1

k=0

Exemple type : Modélisation des sondages et contrôle de qualité. Loi de Poisson P(λ). L’ensemble Ω est ici un ensemble infini dénombrable, on le note Ω = (ωn )n∈N . La probabilité est totalement déterminée par λn ∀n ∈ N, P({ωn }) = e−λ . n! n

On vérifie que l’on a bien ∑n∈N λn! e−λ = 1. Usage : Cette loi intervient dans la modélisation de phénomènes de comptage. Exemple type : Le nombre de désintégrations atomiques dans un corps radioactif pendant un intervalle de temps, le nombre d’arrivées à un guichet, le nombre de gouttes de pluie sur une surface donnée peuvent être modélisés par une loi de Poisson. Loi géométrique sur N, GN (p), 0 < p < 1. L’ensemble Ω est ici N. La probabilité est totalement déterminée par ∀n ∈ N, P({n}) = p(1 − p)n . Par sommation de la série géométrique, on vérifie bien que l’on a ∑n∈N P({n}) = 1. Usage : Loi du nombre d’échecs rencontrés avant d’obtenir un succès dans la répétition d’épreuves de Bernoulli indépendantes de paramètre p.

2.3.2

Lois continues.

Précédemment nous avons esquissé les grandes lignes de la construction de la mesure de Lebesgue sur R. Cette mesure connue, on peut alors construire l’intégrale de Lebesgue. Nous n’aborderons pas cette théorie dans ce cours, mais nous nous contentons simplement de dire que dans tous les cas que nous considèrerons, l’intégrale de Lebesgue d’une fonction correspondra à son intégrale de Riemann. Soit f : R → R+ une fonction intégrable au sens de Riemann sur R et telle que sure de probabilité sur (R, BR ) telle que pour tout intervalle I,

R R

f (x)dx = 1. Il existe une unique me-

Z

P(I) =

f (x)dx. I

On prolonge cette mesure à l’algèbre formée des unions finies d’intervalles. On étend ensuite cette mesure à la tribu des boréliens par le théorème d’extension évoqué dans la construction de la mesure de Lebesgue. La fonction f porte le nom de densité de la mesure de probabilité P. 16

Loi uniforme sur [a, b]. Cette probabilité est notée U ([a, b]). La densité de f est définie par ∀x ∈ R, f (x) =

1 1 (x). b − a [a,b]

Deux sous intervalles de même longueur ont la même probabilité. Loi normale de Laplace-Gauss N (m, σ2 ), m est réel et σ2 > 0.

La densité de f est définie par   (x − m)2 1 . ∀x ∈ R, f (x) = √ exp − 2σ2 σ 2π

La loi normale appelée aussi loi des erreurs est souvent employée comme modèle pour approximer d’autre loi. Le théorème limite central que nous verrons dans le chapitre sur les théorèmes limites est la principale raison de l’intervention universelle de la loi normale dans les phénomènes naturels et autres. Loi de Cauchy. La densité de f est la fonction définie par ∀x ∈ R, f (x) =

1 1 . π 1 + x2

Loi exponentielle exp(p), p>0. La densité de f est la fonction définie par ∀x ∈ R, f (x) = 1R+ (x)pe−px . Cette probabilité donne une probabilité nulle à tout intervalle contenu dans R− . Elle intervient dans la modélisation des phénomènes d’attente et des durées de vie (atomes radioactifs).

2.4

Objectifs pédagogiques 1. Dans les cas faciles, savoir produire un modèle probabiliste. Savoir reconnaître les situations équiprobables. 2. Savoir reconnaître une situation de probabilité conditionnelle. 3. Savoir montrer que deux événements sont indépendants. 4. Savoir utiliser la formule de Poincaré, la formule des probabilités totales et la formule de Bayes. 5. Savoir utiliser les lemmes de Borel-Cantelli. 6. Connaître les lois usuelles et leurs applications.

17

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF