Probabilités. Probabilités conditionnelles et indépendance. I

January 14, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Probabilités. Probabilités conditionnelles et indépendance. I...

Description

Probabilités. Probabilités conditionnelles et indépendance. I

Probabilités

Soit Ω un ensemble représentant les versions possibles du hasard lors d’une expérience aléatoire. Une probabilité associe à un événement un nombre positif censé représenter les chances que cet événement se produise. C’est donc une fonction P : P(Ω) → IR+ . On va demander que soient satisfaites deux conditions : – Normalisation : l’événement certain Ω aura par convention une probabilité égale à 1 (cette normalisation vient de l’habitude d’estimer les chances en pourcentage : 100 % de chance est interprété comme la certitude) – Si un événement A est composé de deux événements B et C disjoints (c’est à dire A = B∪C et B∩C = ∅), les chances que A se produise sont la résultante de celles d’obtenir B et d’obtenir C. Autrement dit, P (A) = P (B) + P (C). D’où la définition, Définition 1 Une probabilité sur Ω est une fonction P : P(Ω) → IR+ telle que – P (Ω) = 1 – Si B et C sont deux événements tels que B ∩ C = ∅, alors P (B ∪ C) = P (B) + P (C). Le couple (Ω, P ) est dit un espace de probabilités. Quand A est un événement, l’événement contraire Ω − A est noté Ac . On a alors Proposition 1 – – – –

P (Ac ) = 1 − P (A). En particulier, P (∅) = 0. Si A ⊂ B, P (A) ≤ P (B) pour tout A ∈ P(Ω), 0 ≤ P (A) ≤ 1 Si A1 , A2 , . . . , An sont n événements disjoints deux à deux (c’est-à-dire que Ai ∩ Aj = ∅ pour tous i et j distincts), on a n n [ X P( Ak ) = P (Ak ) k=1

k=1

Cas particulier : quand Ω est un ensemble fini Ω = {ω1 , . . . , ωn } . Soit P une probabilité sur Ω. Posant pi = P ({ωi }), on a n nombres compris entre 0 et 1 tels que

n X

pi =

i=1

P (Ω) = 1. Réciproquement, soient p1 , . . . , pn , n nombres dans [0,1] tels que

n X

pi = P (Ω) = 1. Soit A ∈ P(Ω),

i=1

A = {ωi1 , . . . , ωip }. On définit une probabilité en posant pour A = {ωi1 , . . . , ωip }, Q(A) =

p X

pik .

k=1

On a donc : dans le cas où Ω = {ω1 , . . . , ωn } est fini, toute probabilité P est définie par la donnée des n X nombres positifs p1 , p2 , . . . , pn tels que pi = 1 où pi = P ({ωi }). i=1

Exemple important : p1 = p2 = . . . = pn =

1 n

=

1 |Ω| .

1

On a alors P (A) = |A| |Ω| et on parle de la probabilité uniforme sur Ω pour laquelle la probabilité d’un événement vaut le nombre de cas favorables divisé par le nombre de cas total. Cette probabilité est en général choisie en vertu du principe de raison insuffisante, si on n’a pas de raison spécifique de supposer qu’on a une dyssimétrie entre les différentes versions du hasard.

II

Probabilités conditionnelles et indépendance

Soient A et B deux événements. On cherche à mesurer l’influence que B a sur A. Si on suppose que B se produit, l’événement qui exprime que A se produit aussi est A ∩ B. Donc l’influence que B a sur A est reliée est P (A ∩ B). Par normalisation, on obtient la définition suivante : Définition 2 Si P (B) 6= 0, on définit la probabilité de A sachant (que) B (se produit) - ou probabilité conditionnelle de A sachant B - par P (A/B) =

P (A ∩ B) . P (B)

Proposition 2 A 7→ P (A/B) définit une probabilité sur Ω et en a donc toutes les propriétés. En particulier, exprimer que B n’a pas d’influence sur A se traduit par P (A/B) = P (A) c’est à dire P (A ∩ B) = P (A)P (B). Cette relation garde un sens même si P (B) = 0. D’où : Définition 3 On dit que A et B sont indépendants si P (A ∩ B) = P (A)P (B).

4 !4 !4 ! Il faut bien faire la distinction entre l’ indépendance et la disjonction. Deux événements disjoints sont en général dépendants puisque si A ∩ B = ∅, savoir que B se produit apporte une information capitale sur A qui ne peut pas alors se produire. Dans le cas où on a affaire à plusieurs événements A1 , A2 , . . . , An les choses sont un peu plus compliquées car il faut tenir compte du fait que supposer que certains événements arrivent simultanément apporte de l’information. On a alors la définition suivante, moche mais nécessaire Définition II.1 On dit que les événements A1 , A2 , . . . , An sont indépendants (dans leur ensemble) si quel que soit le choix des indices distincts 1 ≤ i1 , i2 , . . . , ik ≤ n, on a P(

k \

Air ) =

r=1

k Y r=1

2

P (Air ).

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF