Chapitre 10 : Conditionnement et indépendance.
Short Description
Download Chapitre 10 : Conditionnement et indépendance....
Description
ECS3 Carnot
Chapitre 10
2013/2014
Chapitre 10 : Conditionnement et indépendance. Dans ce chapitre, nous allons donner un sens mathématique au mot « indépendance ». Nous pourrons alors modéliser les répétitions indépendantes d’expériences aléatoires, comme le jeu de pile ou face. Attention : nous ne reviendrons pas en détail sur ce chapitre lorsque nous traiterons les espaces probabilisés infinis. Les énoncés de ce chapitre sont donc, sauf mention contraire, valable lorsque l’univers Ω est quelconque.
1
Définitions
1.1
Probabilité conditionnelle
Théorème 1.1.1 Soit (Ω, A, P ) un espace probabilisé, et A ∈ A tel que P (A) > 0. L’application A −→ [0, 1] P (E ∩ A) PA : E 7−→ P (A)
est une probabilité sur (Ω, A, P ) appelée probabilité conditionnelle relative à A. Pour tout évènement B, PA (B) (ou P (B|A)) est la probabilité de B sachant A.
P (Ω ∩ A) = 1 et si (Ei )i∈I est une famille (finie) d’évèP (A) nements deux à deux incompatibles, alors (Ei ∩ A)i est une famille (finie) deux à deux P S P S PA (Ei ). P (Ei ∩ A). Ainsi PA ( i Ei ) = incompatibles et P ( i (Ei ∩ A)) =
Démonstration : On a PA (Ω) =
i∈I
i∈I
Remarque. Dans le cadre des espaces probabilisés infinis, le théorème est analogue, la preuve s’obtient en remplaçant les « finie » par « au plus dénombrable » et les sommes finies par des sommes de séries. Exercice. Supposons que l’on dispose de deux urnes U et V . L’urne U contient 7 boules blanches et deux boules noires. L’urne V contient 2 boules blanches, 1 rouge et 3 noires. On considère l’expérience suivante : on tire une boule de U et, sans la regarder, on la place dans l’urne V . On tire alors une boule de V . Représenter les résultats possibles sur un arbre. Identifier les probabilités de chaque branche. Proposition 1.1.1 Soit (Ω, P(Ω), P ) un espace probabilisé fini, où P est la probabilité uniforme. Pour tout Card (A ∩ B) . évènement A 6= ∅, on a PA (B) = Card (A) Démonstration : Exercice.
J. Gärtner.
1
ECS3 Carnot
Chapitre 10
2013/2014
Il est souvent plus facile de déterminer la probabilité conditionnelle que de déterminer la probabilité d’une intersection car on considère alors que l’univers réduit contenant les résultats de l’expérience conditionnée. Exemple. On distribue complètement 52 cartes à 4 joueurs. Notons Ω l’ensemble des mains possibles des 4 joueurs, et prenons A = P(Ω). La probabilité est la probabilité uniforme. Calculons la probabilité que le joueur A ait deux cœurs dans sa main en supposant que les joueurs 3 et 4 en possèdent 8 à eux deux (on connaît donc une information supplémentaire : par exemple la composition exacte des 26 cartes des joueurs 3 et 4). Le nombre de mains possibles pour le joueur 1, sachant que les joueurs 3 et 4 ont 26 8 cœurs est 13 . Le nombre de mains contenant au moins deux cœurs est 52 21 11 (on choisit 2 cœurs parmi les 5 restant, et 11 cartes parmi les 21 possibles). Ainsi la probabilité (conditionnelle) cherchée est
5 2
21 11 26 13
.
Exercice. Une entreprise organise un dîner pour les employés qui ont deux enfants dont au moins un garçon. Chaque employé est convié avec son aîné(e). Quelle est la probabilité que M. X. vienne au dîner accompagné de son fils sachant qu’il est invité ? Quelle est la probabilité qu’il ait deux fils sachant qu’il est invité ?
1.2
Résumé
Puisque PA est une probabilité, elle vérifie toutes les propriétés du chapitre précédent. En particulier : 1. PA (A) = 1. 2. Si A ⊂ B, PA (B) = 1. 3. PA (B ∪ C) = PA (B) + PA (C) − PA (B ∩ C)
2
Trois formules
2.1
Formule des probabilités composées
C’est la formule « générale » pour calculer la probabilité d’une intersection (utile lorsque les évènements ne sont pas indépendants). Théorème 2.1.1 (Formule des probabilités composées) Soit n > 2. Soit (A1 , . . . , An ) une famille d’évènements de l’espace probabilisé (Ω, A, P ), tels que P (A1 ∩ · · · ∩ An−1 ) 6= 0. Alors P (A1 ∩ · · · ∩ An ) = P (A1 )PA1 (A2 ) × · · · × PA1 ∩···∩An−1 (An ) Démonstration : Déjà, remarquons que puisque pour tout k ∈ [[ 1 ; n − 1 ]], A1 ∩ · · · ∩ An−1 ⊂ (A1 ∩ · · · ∩ Ak ), on a 0 < P (A1 ∩ · · · ∩ An−1 ) 6 P (A1 ∩ · · · ∩ Ak ) et les probabilités conditionnelles sont toutes définies. Montrons ce résultat par récurrence sur n. – Initialisation : par définition P (A1 ∩ A2 ) = P (A1 )PA1 (A2 ). – Hérédité : soit n > 2. Supposons que P (A1 ∩ · · · ∩ An ) = P (AT1 )PA1 (A2 ) × · · · × n PA1 ∩···∩An−1 (An ). Soit A1 , . . . , An+1 des évènements tels que P ( i=1 Ai ) 6= 0. Alors Tn+1 Tn d’après le cas n = 2, P ( i=1 Ai ) = P ( i=1 Ai )PTni=1 Ai (An+1 ). Mais par hypothèse Tn P ( i=1 Ai ) = P (A1 )PA1 (A2 ) × · · · × PA1 ∩···∩An−1 (An ), ce qui permet de conclure. J. Gärtner.
2
ECS3 Carnot
Chapitre 10
2013/2014
Exemple. Une urne contient n boules blanches ou rouges dont b blanches et r > 5 rouges, indiscernables. On tire successivement et sans remise 4 boules de cette urne. Calculons la probabilité que les quatre boules tirées soient rouges. Notons Ri l’évènement « la i-ème boule est rouge. On cherche à calculer P (R1 ∩ R2 ∩ R3 ∩ R4 ). Utilisons la formule des probabilités composées (qui est plus naturelle que la formule du crible ici...). On suppose que la probabilité est uniforme. r – Alors P (R1 ) = 6= 0. n r−1 – Il reste n − 1 boules, dont r − 1 rouges. Ainsi PR1 (R2 ) = et P (R1 ∩ R2 ) = n−1 r(r − 1) 6= 0. n(n − 1) – On peut donc calculer PR1 ∩R2 (R3 ) : il reste r − 2 boules rouges parmis les n − 2 r−2 et P (R1 ∩ R2 ∩ R3 ) 6= 0. boules de l’urne : PR1 ∩R2 (R3 ) = n−2 – On a donc justifié l’emplois de la formule des probabilités composées et PR1 ∩R2 ∩R3 (R4 ) = r−3 . n−3 r(r − 1)(r − 2)(r − 3) . Finalement P (R1 ∩ R2 ∩ R3 ∩ R4 ) = n(n − 1)(n − 2)(n − 3) Exercice. Dans l’exemple ci-dessus, calculer la probabilité qu’une boule rouge apparaisse pour la première fois au k-ième tirage. Exercice. On dispose de n poupées russes emboitées, numérotées de 1 à n (n est la plus grande). La poupée numéro k peut être coloriée de k couleurs différentes, choisies au hasard parmi les k +1 couleurs de la poupée k +1. On suppose que la poupée numéro n est coloriée de n couleurs, dont le vert, et qu’à chaque étape, le vert est choisi avec probabilité p. Quelle est la probabilité que la poupée numéro 1 soit verte ?
2.2
Formule des probabilités totales
Théorème 2.2.1 Soit (Ω, A, P ) un espace probabilisé et A un évènement de probabilité non nulle. ¯ ∀B ∈ A, P (B) = PA (B)P (A) + PA¯ (B)P (A) ¯ est un système complet d’évènements, donc P (B) = P (A ∩ B) + Démonstration : (A, A) P (A¯ ∩ B). La formule découle de la définition de PA (B).
Théorème 2.2.2 (Formule des probabilités totales, cas fini ) Soit (Ω, A, P ) un espace probabilisé et (A1 , . . . , An ) un système complet d’évènements tel que ∀i ∈ [[ 1 ; n ]] , P (Ai ) 6= 0. Alors ∀B ∈ A, P (B) =
n X
P (Ak ∩ B) =
k=1
J. Gärtner.
n X k=1
3
PAi (B)P (Ai )
ECS3 Carnot
Chapitre 10
Démonstration : Puisque (Ai ) est un système complet d’évènements, P (B) =
2013/2014
n P
P (B ∩ Ai ).
i=1
Le résultat découle de la définition de PA (B).
Dans le cas où l’espace probabilisé est infini, la formule reste valable (et la démonstration est analogue) P Remarque. Si (Ai )i∈I est un système complet d’événements, on a P (B) = i∈I P (Ai ∩ P B) = i∈I P (Ai )PAi (B). Cette formule permet de traiter les disjonctions de cas.
Exemple. On dispose de quatre urnes numérotées de 1 à 4. On répartit dans ces urnes des boules noires et des boules blanches. L’urne i contient ni boules noires. On suppose que toutes les urnes contiennent le même nombre B de boules. On choisit un urne ; l’urne i i est choisie avec probabilité . On prélève alors une boule de l’urne choisie. Quelle est la 10 probabilité que cette boule soit noire ? Notons Ui l’évènement « l’urne choisie est la numéro i », et N « la boule est noire ». (U1 , U2 , U3 , U4 ) est un système complet d’évènements de probabilité non nulle. D’après la formule des probabilités totales P (N ) = PU1 (N )P (U1 ) + PU2 (N )P (U2 ) + PU3 (N )P (U3 ) + PU4 (N )P (U4 ) n1 + 2n2 + 3n3 + 4n4 = 10B Exercice. Une compagnie d’assurance estime que la population se divise en deux catégories : une première catégorie d’individus enclins aux accidents représentant 40% de la population et une deuxième population d’individus ayant peu d’accidents. Un individu de la première catégorie a un accident en l’espace d’un an avec la probabilité 0, 5 et pour un individu de la deuxième catégorie cette probabilité est 0, 1. Quelle est la probabilité qu’un nouvel assuré soit victime d’un accident pendant sa première année de souscription ?
2.3
Formule de Bayes
La formule de Bayes exprime PA (B) en fonction de PB (A). Elle permet ainsi de « remonter le temps ». Si chronologiquement B survient avant A, on calcul a posteriori la probabilité de la cause sachant la conséquence 1 . Théorème 2.3.1 (« petite » formule de Bayes) Soit (Ω, A, P ) un espace probabilisé et A, B ∈ A tels que P (A)P (B) 6= 0. Alors PA (B) =
P (B)PB (A) P (A)
Démonstration : Exercice.
Exemple. On reprend l’exemple de la section précédente. Calculons la probabilité d’avoir tiré une boule dans l’urne 1 sachant qu’elle est noire. 1. D’où le nom de probabilité des causes parfois donné à la formule de Bayes.
J. Gärtner.
4
ECS3 Carnot
PN (U1 ) =
Chapitre 10
2013/2014
PU1 (N )P (U1 ) n1 /B n1 = = P (N ) (n1 + 2n2 + 3n3 + 4n4 )/10B n1 + 2n2 + 3n3 + 4n4
Exercice. Dans l’exercice de la section précédente, quelle est la probabilité qu’un individu soit de la catégorie à risque sachant qu’il n’a pas eu d’accident ? Pour exprimer la probabilité du dénominateur, on utilise souvent la formule des probabilités totales. Théorème 2.3.2 (Formule de Bayes) Soit (Ω, A, P ) un espace probabilisé et (Ei )i∈I un système complet d’évènements. Soit A ∈ A avec P (A) 6= 0. Alors puisque ∀i ∈ I, P (Ei ) 6= 0, on a PEj (A)P (Ej ) i∈I PEi (A)P (Ei )
∀j ∈ I, PA (Ej ) = P
En particulier, si B ∈ A est de probabilité non nulle : PA (B) =
PB (A)P (B) ¯ PB (A)P (B) + PB¯ (A)P (B)
Démonstration : Exercice.
Exemple. Un étudiant passe le bac et l’exercice 2 consiste en un QCM. m réponses sont possibles et une seule est correcte. Soit l’étudiant connaît la réponse (ce qui arrive avec probabilité p ∈]0, 1[) soit il choisit la réponse au hasard. Sachant que la réponse de l’étudiant est correcte, quelle est la probabilité qu’il ait répondu en connaissant la réponse ? Soit C l’évènement « ma réponse est connue de l’étudiant » et J l’évènement « la réponse PC (J)P (C) est juste ». On a PJ (C) = ¯ . Ainsi PC (J)P (C) + PC¯ (J)P (C) PJ (C) =
1×p pm = 1 (m − 1)p + 1 1 × p + (1 − p) m
Exercice. Dans une usine, deux ateliers A et B fabriquent des composants électroniques pour la construction de lecteurs Blue Ray. Ces composants arrivent ensuite sur la chaîne d’assemblage. Après une étude statistique, il est constaté que 5% des composants de l’atelier A sont défectueux et 1% des composants de l’atelier B le sont. 75% des composants arrivant sur la chaîne d’assemblage proviennent de l’atelier A. Un composant parfait arrivant sur 1 la chaîne d’assemblage peut être déterioré avec probabilité lors de l’assemblage. 48 Après assemblage, un lecteur Blue Ray est prélevé au hasard, et il ne fonctionne pas. On sait que seuls les composants fournis par A ou B sont en cause. Quelle est la probabilité que ce composant ait été déterioré lors de l’assemblage ? Quelle est la probabilité que ce composant soit sorti défectueux de l’atelier A ? De l’atelier B ?
J. Gärtner.
5
ECS3 Carnot
3
Chapitre 10
2013/2014
Indépendance d’évènements
3.1
Indépendance de deux évènements
Définition 3.1.1 Soit (Ω, A, P ) un espace probabilisé. Soit A, B ∈ A. On dit que A et B sont indépendants lorsque P (A ∩ B) = P (A) × P (B)
Remarque. Attention : l’incompatibilité est une notion ensembliste, elle est définie dans un espace probabilisable. La dépendance est une notion probabiliste, elle dépend d’un espace probabilisé. Remarque. De plus si un évènement est presque sûr (i.e. P (A) = 1) ou négligeable (P (A) = 0), il est indépendant de tous les autres. Exemple. Une pièce de monnaie est lancée deux fois. La pièce est biaisée : elle tombe sur Pile avec probabilité p ∈]0, 1[. Soit A l’évènement « les deux lancers donnent le même résultat » et B l’évènement « le deuxième lancé donne Face ». Ω = {(F, F ), (F, P ), (P, F ), (P, P )}. En général, on a P (A) = P (F, F )+P (P, P ) car ces deux évènements élémentaires sont incompatibles. Donc P (A) = p2 + (1 − p)2 . De même P (B) = p(1 − p) + (1 − p)2 = 1 − p, et P (A ∩ B) = P (F, F ) = (1 − p)2 . 1 On a donc P (A ∩ B) 6= P (A)P (B) sauf si p = (i.e. la pièce est équilibrée) car alors 2 1 1 1 1 1 P (A) = + = , P (B) = et P (A ∩ B) = . 4 4 2 2 4 Ainsi à moins que la pièce ne soit équilibrée, A et B ne sont pas indépendants. Remarque. On a supposé implicitement que les deux tirages de l’expérience ci-dessus étaient indépendants... Lorsque dans un énoncé on parle d’épreuves indépendantes, c’est cette notion qui est en jeu. Théorème 3.1.1 Soit (Ω, A, P ) un espace probabilisé. Soit A, B ∈ A de probabilité non nulle. Alors A et B sont indépendants si et seulement si PA (B) = P (B). Démonstration : Exercice.
Exercice. Soit (Ω, A, P ) un espace probabilisé. Soit A, B ∈ A deux évènements incompatibles et non négligeables. Montrer que A et B ne sont pas indépendants. Proposition 3.1.1 Soit (Ω, A, P ) un espace probabilisé. Soit A, B ∈ A deux évènements indépendants. Alors les couples ¯ B), (A, B), ¯ (A, ¯ B) ¯ (A, sont constitués d’évènements indépendants. ¯ sont indépendants (car la dépendance de Démonstration : Il suffit de montrer que A et B dépend pas de l’ordre des évènements choisis, et en appliquant deux fois le résultat que l’on ¯ sont indépendants). va montrer, on obtient que A¯ et B
J. Gärtner.
6
ECS3 Carnot
Chapitre 10
2013/2014
¯ Puisque (A ∩ B) et (A ∩ B) ¯ sont incompatibles, on a On a A = (A ∩ B) ∪ (A ∩ B). ¯ = P (A) − P (A ∩ B). Par indépendance : P (A ∩ B) ¯ = P (A) − P (A)P (B) = P (A)(1 − P (B)) = P (A)P (B) ¯ P (A ∩ B) D’où le résultat.
Remarque. Attention ! Si A et B sont indépendants d’une part et d’autre part A et C sont indépendants, on ne peut rien dire sur l’indépendance des évènements A et B ∩ C ou A et B ∪ C. Donnons des exemples : – Cas où les évènements sont dépendants : on dispose d’un dé rouge et d’un dé noir, tous les deux équilibrés. On lance ces deux dé et les numéros obtenus constituent l’univers Ω = [[ 1 ; 6 ]]2 . Soit A l’évènement « la somme des chiffres est 7 », B « le dé rouge a donné 2 » et C « le dé noir a donné 5 ». On suppose que l’on est en situation 1 1 . Donc d’équiprobabilité. P (A) = P (B) = P (C) = . P (A ∩ B) = P (A ∩ C) = 6 36 1 (A, B) et (A, C) sont deux couples d’évènements indépendants. On a P (B ∩ C) = 36 11 1 et P (B ∪ C) = , mais P (A ∩ B ∩ C) = 6= P (A)P (B ∩ C) et P (A ∩ (B ∪ C)) = 36 36 1 6= P (A)P (B ∪ C). Les couples (A, B ∪ C) et (A, B ∩ C) sont dépendants. 36 – Cas où les évènements sont indépendants : dans la même expérience, A « la somme des chiffres est 7 » B« le dé rouge donne 2 » et D « le dé rouge donne un chiffre 1 1 paire ». Alors P (D) = . P (A ∩ D) = donc A et D sont indépendants. 2 12 1 1 1 De plus P (B ∩ D) = , P (B ∪ D) = P (D) = . Alors P (A ∩ B ∩ D) = = 6 2 36 1 P (A)P (B ∩ D) et P (A ∩ (B ∪ D)) = P (A)P (B ∪ D) = . Les couples (A, B ∩ D) 12 et (A, B ∪ D) sont constitués d’évènements indépendants.
3.2
Famille d’évènements indépendants
Définition 3.2.1 Soit (Ω, A, P ) un espace probabilisé. (A1 , . . . An ) une famille d’évènements. Alors 1. Les (Ai ) sont dits deux à deux indépendants si ∀i 6= j ∈ [[ 1 ; n ]] , P (Ai ∩ Aj ) = P (Ai )P (Aj ) 2. Les (Ai ) sont dits mutuellement indépendants lorsque ! Y \ P (Ai ) Ai = ∀I ⊂ [[ 1 ; n ]] , P i∈I
i∈I
Proposition 3.2.1 Soit (Ω, A, P ) un espace probabilisé. (A1 , . . . An ) une famille d’évènements. Si les (Ai ) sont mutuellement indépendants, alors ils sont deux à deux indépendants Démonstration : Il suffit de prendre pour I les paires d’éléments de [[ 1 ; n ]] dans la définition.
J. Gärtner.
7
ECS3 Carnot
Chapitre 10
2013/2014
Remarque. La réciproque est fausse ! Si on lance un dé équilibré deux fois, les évènements A« la somme des chiffres vaut 7 » B« le premier chiffre est supérieur à 4 » et C « le deuxième chiffre est supérieur à 3 » sont deux à deux indépendants mais non mutuellement 1 1 2 3 4 indépendants : P (A) = , P (B) = , P (C) = , P (A ∩ B) = , P (A ∩ C) = , 6 2 3 36 36 1 12 mais P (A ∩ B ∩ C) = . P (B ∩ C) = 36 36 Proposition 3.2.2 Pour toute famille (A1 . . . An ) d’évènements, soit (B1 , . . . Bn ) une famille d’évènements telle que Bi = Ai ou Bi = A¯i . Alors si les Ai sont deux à deux indépendants, les Bi aussi et si les Ai sont mutuellement indépendants, les Bi aussi. Démonstration : Le cas deux à deux indépendants est clair d’après la section précédente. Pour le cas de l’indépendance mutuelle, il suffit (via la même astuce que pour la proposition analogue de la section précédente) de s’intéresser à Bk = A¯k et pour tout i 6= k Bi = Ai . Q T Soit I ⊂ [[ 1 ; n ] . Alors si k ∈ / I, on a P P (Bi ). i∈I Bi = T T T i∈I T T Si k ∈ I. Alors P i∈Ir{k} Ai ∪ i∈I Ai = i∈I Bi = P ( i∈Ir{k} Ai )−P ( i∈I Ai ) car T B et que ces évènements sont incompatibles. i i∈I Q T Q Alors par indépendance mutuelle P i∈I Bi = i∈Ir{k} P (Ai ) − i∈I P (Ai ) = (1 − Q Q P (Ak )) i∈Ir{k} P (Ai ) = P (A¯k ) i∈Ir{k} P (Ai ). Ce qui prouve l’indépendance mutuelle des Bi .
Proposition 3.2.3 Pour tout triplet (A, B, C) d’évènements mutuellement indépendants, A et B ∪ C sont indépendants. Exercice. Montrer la proposition ci-dessus. Remarque. Cette proposition est fausse dans le cas d’évènements deux à deux indépendants. Cet énoncé se généralise aux familles finies d’évènements mutuellement indépendants.
3.3
Epreuves indépendantes
Cette section est hors programme. Le but est d’expliquer comment on peut construire un modèle rigoureux permettant de modéliser des épreuves indépendantes. L’indépendance en probabilités apparaît naturellement dans la répétition d’expériences aléatoires dans des conditions identiques. Comment modéliser ces répétitions ? Nous allons donner un exemple pour les répétitions d’épreuves de Bernoulli. Définition 3.3.1 Une épreuve de Bernoulli est une expérience aléatoire qui ne possède que deux issues possibles : le succès (souvent noté 1) et l’échec (noté 0). La probabilité de succès est un nombre p ∈]0, 1[. On peut modéliser cette épreuve par Ω0 = {0, 1}, A0 = P(Ω0 ) et P0 (1) = p, P0 (0) = 1 − p. Exemple. On jette une pièce de monnaie. On considère que la pièce tombe sur Pile avec probabilité p et que l’on gagne le jeu dans ce cas. L’expérience est une épreuve de Bernoulli.
J. Gärtner.
8
ECS3 Carnot
Chapitre 10
2013/2014
On répète n > 2 fois et de manière indépendantes des épreuves de Bernoulli identiques. L’univers considéré est alors Ω = {0, 1}n . Prenons A = P(Ω). On définit la probabilité des évènements élémentaires ω = (ε1 , . . . , εn ) ∈ Ω par P (ω) = P0 (ε1 ) × · · · × P0 (εn ). On étend la définition de cette probabilité aux évènements quelconques à l’aide de la propriété d’additivité finie. L’espace probabilisé (Ω, A, P ) est construit pour traduire le sentiment que les expériences répétées dans des conditions identiques sont indépendantes. Soit k ∈ [[ 0 ; n ]]. Notons Ak l’évènement « les épreuves fournissent k succès puis exclusivement des échecs, dans cet ordre » Bk « les épreuves fournissent k succès » et Ck « les épreuves fournissent au moins k succès ». Donnons quelques probabilités classiques dans ce cas : 1. Probabilité de k ∈ [[ 0 ; n ] succès dans un ordre fixé : cette probabilité est la même quel que soit l’ordre fixé de ces succès. C’est donc par exemple P (Ak ) = P (1, 1, . . . , 1, 0, . . . , 0). Ainsi P (Ak ) = pk (1 − p)n−k 2. Probabilité de k succès : on choisi le numéro des expériences qui fournissent les succès (soit le choix de k expériences parmi les n répétées), que l’on multiplie par la probabilité d’exactement k succès dans un ordre déterminé. n k P (Bk ) = p (1 − p)n−k k 3. Obtenir au moins k succès, c’est obtenir exactement Sn l succès avec l ∈ [[ k ; n ]]. Ainsi Ck est union d’évènements incompatibles : Ck = l=k Bl . On a donc P (Ck ) =
n X n l=k
l
pl (1 − p)n−l
Munis de ces probabilités, soit Si l’évènement « l’épreuve numéro i est un succès ». La notion « naturelle » d’indépendance nous conduit à affirmer par exemple que Si et Sj sont deux évènements indépendants si i 6= j. Si est donné par Si = Ω0 × · · · × {1} × · · · × Ω0 Les évènements de cette union sont incompatibles. Ainsi P (Si ) = P0 (Ω0 ) × · · · × P0 (1) × . . . P0 (Ω0 ) D’où P (Si ) = P (Sj ) = p De même, Si ∩ Sj est donné par Ω0 × · · · × Ω0 × {1} × Ω0 × · · · × Ω0 × {1} × Ω0 × · · · × Ω0 Par définition de P , on a P (Si ∩ Sj ) = p2 Finalement, on a bien P (Si ∩ Sj ) = P (Si )P (Sj ). Les évènements Si et Sj sont indépendants : le modèle adopté est bien conforme à l’intuition. J. Gärtner.
9
ECS3 Carnot
Chapitre 10
2013/2014
En général, si on répète indépendamment n fois une expérience aléatoire modélisée par un espace probabilisé (Ω0 , P(Ω0 ), P0 ), où Ω0 est fini, on peut modéliser la répétition de n de ces expériences de manière indépendante par l’espace « produit cartésien » (Ωn0 , P(Ωn0 ), P ) où P est définie sur les évènements élémentaires (ω1 , . . . , ωn ) par n
P (ω1 , . . . , ωn ) =
J. Gärtner.
Π P0 (ωk ).
k=1
10
View more...
Comments