Cours d` Anne-Marie Boussion (2009) - Partie 1

January 16, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Cours d` Anne-Marie Boussion (2009) - Partie 1...

Description

UNIVERSITE PARIS-DAUPHINE

Département MIDO

A.M.Boussion/Probabilités DU MI2E 2ème année (2008-2009)

Le programme de ce cours comprend :

- la notion générale d'espace de probabilité

- les variables aléatoires réelles définies sur un espace de probabilité, la notion de loi (en particulier les lois continues qui n'ont pas été vues en première année), moments, lois usuelles (en particulier les lois normales) ; -

les

couples

et

vecteurs

aléatoires

:

lois

conditionnelles et espérances conditionnelles.

marginales,

indépendance,

lois

Le chapitre 0 de ce polycopié rappelle les prérequis d'Analyse nécessaires :

- l’intégrale simple et les propriétés de l’intégrale fonction de la borne supérieure, (ces notions ont été étudiées en première année) ;

- les séries et l’intégrale généralisée, qui sont étudiées parallèlement en Analyse 3. Le chapitre 1 traite des espaces de probabilité : seule sera exposée en amphi la notion nouvelle de tribu, les définitions et propriétés vues en première année dans le cas des

espaces finis ou dénombrables étant simplement rappelées. C'est la raison pour

laquelle sont explicitées dans ce chapitre toutes les démonstrations utiles pour réviser ou se mettre à niveau.

A partir du chapitre 2, le polycopié ne contient plus les démonstrations ; celles-ci seront développées en cours ainsi que les exemples.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.1

TABLE DES MATIERES

Chapitre 0 :

Rappels d’Analyse

1 - Séries numériques 2 - Intégrales

Chapitre 1 :

3 3 4

Espace de probabilité

10

2 - Espace de probabilité

14

1 - Espace probabilisable 3 - Probabilité conditionnelle

4 - Evénements indépendants

5 - Ω non dénombrable : deux exemples pour réfléchir

6 - Espaces de probabilité liés aux différents modes de tirage

Chapitre 2 :

Variables aléatoires réelles

1 - Définition générale d'une variable aléatoire

2 - Loi et fonction de répartition d'une variable aléatoire 3 - Variable aléatoire discrète

4 - Variable aléatoire continue

5 - Moments d'une variable aléatoire

6 - Les lois normales ou de Laplace-Gauss 7 - Les lois usuelles

Table de la loi normale centrée réduite

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

11 19 23

26 29

31 31 34 35 38 43 49 52 57

p.2

Chapitre 0 : Rappels d’Analyse

1 - Séries numériques Définition 0.1.1 : Série convergente et absolument convergente : • La série de terme général u n

(∑ u ) i=1

i n

n

est dite convergente si la suite des sommes partielles

est convergente.

On note alors

+∞



i=1

u

i

=

n



lim

n→+∞

u

i

i=1

et on l’appelle somme de la série.

Dans le cas contraire, la série de terme général u

n

est dite divergente.

Propriété 0.1.2 : Condition nécessaire de convergence d’une série

Si une série converge, son terme général tend vers 0. Cette condition est nécessaire mais non suffisante. k Exemples : -

série géométrique : +∞



et pour x  < 1

-

-

-

i=0

série exponentielle : +∞



i=1

1

i(i+1)

+∞



x

i=0

x

i

i

x



x  < 1

1 - x i

i!

i=0

si

1

=

+∞

converge si et seulement

= e

x

pour tout réel x

= 1

série de Riemann :

En particulier

+∞



i=1

1 i

+∞



i=1

1

i

α

converge si et seulement si α > 1

est divergente.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.3

Propriété 0.1.3 : Convergence des séries à termes positifs

• Toute série positive majorée par une série convergente est convergente.

• Deux séries positives dont les termes généraux sont équivalents au voisinage de l’infini sont de même nature.

Définition 0.1.4 : Série absolument convergente : La série de terme général u général u

n

 converge.

n

est dite absolument

convergente si la série de terme

k Exemples : -

-

+∞



i=0

+∞



i=1

x

i

(-1) i

est absolument convergente pour i

x  < 1

est convergente, mais non absolument convergente (= semi-convergente)

Propriété 0.1.5 :

Toute série absolument convergente est convergente. * Attention !

Si on modifie l'ordre des termes d'une série absolument convergente, la somme de

la série est inchangée. Par contre si la série est semi-convergente, une modification de l'ordre de ses termes peut entraîner une modification de la valeur de la somme, et même transformer la série en une série divergente.

2 - Intégrales a) Intégrale d'une fonction continue sur un segment Définition et propriétés 0.2.1 :

• Soit f une fonction définie sur un intervalle I de R.

Une fonction F est une primitive de f sur I si ∀ x ∈ I

F'(x) = f(x)

F est définie et dérivable sur I et :

• Si une fonction f admet une primitive F sur I, elle en admet une infinité qui se déduisent de F par l'addition d'une constante.

• Toute fonction continue sur un intervalle I admet une primitive sur I. Définition 0.2.2 :

Soient a et b deux réels distincts, et f une fonction continue sur le segment [a, b] (ou [b, a] si b < a). Soit F une primitive de f sur [a, b].

On appelle intégrale de f sur [a, b] la différence F(b) - F(a) : cette différence ne dépend pas de la primitive F choisie. On note

F(b) - F(a) =

b

∫ f(t) dt

a

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.4

Interprétation géométrique en repère orthonormé :

si a < b, cette intégrale est égale

à l’aire algébrique limitée par le graphe de f, l’axe des abscisses et les droites verticales d’équations x = a et x = b. Propriétés 0.2.3 :

a

• Par convention, pour tout réel a :



Pour tous réels a et b :

a

∫ f(t) dt

b

∫ f(t) dt

a

=

=

0

b

-

∫ f(t) dt

a

Propriétés 0.2.4 :

Soient f et g deux fonctions continues sur [a, b] :

• Pour tous réels λ et µ,



Si

b

∫ [λ f(t) + µ g(t)] dt

a

a ≤ b et si f ≤ g sur [a, b] , alors

b

∫ f(t) dt

a

= λ



b

∫ f(t) dt

a

+ µ

b

∫ g(t) dt

a

b

∫ g(t) dt

a

On résume ces deux propriétés en disant que l’intégrale est une positive (ou croissante). • Relation de Chasles : Pour a < c < b :

b

∫ f(t) dt

a

=

c

forme

linéaire

b

∫ f(t) dt + ∫ f(t) dt

a

c

Cette formule reste vraie quelles que soient les positions relatives de a, b, c pourvu que f soit continue sur le plus grand des intervalles. • Formule d’intégration par parties : 1

Si f et g sont de classe C b

sur [ a, b ] :

∫ f(t) g’(t) dt = f(b) g(b) - f(a) g(a) -

a

b

∫ f’(t) g(t)dt

a

• Formule de changement de variable : Soit ϕ une bijection de classe C

1

continue sur le segment ϕ([a, b]).

définie sur le segment [a, b], et soit f une fonction

On pose α = ϕ(a) et β = ϕ(b). On a alors : β

∫ f(t) dt

α

=

b

∫ f[ϕ(x)] ϕ’(x) dx

a

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.5

b) Intégrale généralisée Définition 0.2.5 :

On suppose ici b réel ou b = +∞.

Soit f une fonction continue sur [a, b [ : pour tout réel x < b, x

segment [a, x] et on peut calculer

Si

lim

x→b

x0



= 1, la fonction à intégrer peut être prolongée par continuité en 0.

et g’(t) = sint. On a

Pour tout x de ]0, 1] :

Mais

cosx x

dt converge ; il n’y a même pas ici de vrai problème d’intégrale généralisée

1



x

sint t

f’(t) = -

1

t

dt = - cos1 +

et g(t) = - cost.

2

cosx x

n’a pas de limite finie en 0, donc

1



x

1



cost

x

t

cost t

2

2

dt

dt non plus.

• La formule de changement de variable s'énonce de la façon suivante : Soit ϕ

une bijection de classe C

ϕ([a, b[). On pose

α = ϕ(a) et

1

β =

sur [a, b[ et f une fonction continue sur l'intervalle lim ϕ(x) x→b

(β réel, ou β = ± ∞)

x 1.

c) Intégrale fonction de la borne supérieure Rappels

0.2.8 :

Fonction de la borne supérieure :

Soit f une fonction continue sur un intervalle I de R, et soit a un élément de I On pose :

∀ x ∈ I

F est de classe C

1

F(x) =

x

∫ f(t) dt

a

sur I et on a : ∀ x ∈ I

F'(x) = f(x).

(en fait, F est l’unique primitive de f sur I nulle en a).

Ces

résultats

entendu

restent

vrais

pour

des

intégrales

de convergence de ces intégrales.

généralisées,

sous

réserve

Par exemple si f continue sur R est telle que pour tout réel x l'intégrale

converge, alors la fonction F définie sur R par F(x) =

bien

x

∫ f(t) dt

-∞

x

∫ f(t) dt est de classe C1 sur R,

-∞

et on a F’ = f.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.9

Chapitre 1 : Espace de probabilité

Le calcul des probabilités est la modélisation mathématique de phénomènes dus au “hasard”. Au départ, il s'agissait de résoudre des problèmes de jeux (jeux de dés par

exemple). Bien que certains calculs aient été effectués dans ce domaine par des mathématiciens fondateurs

italiens

de

la

Renaissance,

on

considère

des Probabilités sont Pascal et Fermat au XVII

généralement

ème

que

les

siècle. Le calcul des

probabilités se développa ensuite, motivé par des problèmes d’assurance et de rentes viagères, puis au XVIII

ème

siècle on passa du cas fini au cas continu (Laplace).

Le vocabulaire et les techniques utilisées se sont précisés au fil du temps, et les probabilités

ont

trouvé

de

nombreuses

médecine, sciences sociales, finance …

applications

en

physique,

économie,

La formalisation utilisée de nos jours et exposée ci-dessous est due au mathématicien russe Kolmogorov (XX

ème

siècle).

On appelle expérience aléatoire une expérience dont le résultat dépend du hasard.

On ne connaît pas à l'avance le résultat d'une expérience aléatoire, mais on connaît l'ensemble de tous les résultats qu'elle peut avoir. k Exemple 1 :

On lance un dé à 6 faces numérotées, en s'intéressant au numéro sorti;

le résultat de l'expérience peut être représenté par un nombre entier compris entre 1 et 6.

k Exemple

2

:

On joue à pile ou face jusqu'à ce que pile sorte. L'ensemble des

résultats de l'expérience est l'ensemble des suites finies p, fp, ffp, … , fffffp, … ,

auxquelles on ajoute par précaution la suite infinie ffff… (au cas où pile ne sortirait jamais).

k Exemple

3

:

On joue indéfiniment à pile ou face. L'ensemble des résultats de

l'expérience est l'ensemble des suites infinies à valeur dans {p, f}. On note cet ensemble {p, f} k Exemple 4

N

:

.

On observe la durée de vie d'une particule prise au hasard (ou la

durée de fonctionnement sans panne d'une machine) ; le résultat de l'expérience peut être représenté au moins en théorie par un nombre réel positif (une unité de temps ayant été choisie). k Exemple 5

: On observe entre les instants 0 et T un signal continu sur l'écran d'un

radar ; le résultat de l'expérience peut être représenté par une fonction continue définie sur l'intervalle [0, T].

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.1 0

L'ensemble de tous les résultats possibles d'une expérience aléatoire est appelé ensemble fondamental, ou univers et noté usuellement Ω. Chaque élément de Ω est appelé possible ou issue, et noté ω. L'ensemble

peut



être

fini

(exemple

dénombrable (exemples 3, 4 et 5).

1),

dénombrable

(exemple

2)

ou

non

On peut le modéliser facilement pour des expériences aléatoires simples.

1 - Espace

probabilisable

On considère une expérience aléatoire, et Ω l'ensemble fondamental associé. On va

s'intéresser aux parties de Ω que l'on peut décrire à partir de l'expérience aléatoire et

que l'on appelle événements.

On impose à l'ensemble des événements d'avoir un certain nombre de propriétés "naturelles", que l'on résume sous le nom de tribu.

Définition 1.1.1 :

On appelle tribu (ou σ -algèbre) sur Ω une partie A de P(Ω ) vérifiant les axiomes suivants :

i)

ii) iii)

Ω ∈A

c

Α

Si (A )

est une suite d'éléments de A,

n n≥1

∈ A

(A est stable par passage au complémentaire)

∀ A ∈ A

+∞

B = ∪ A i=1

A (A est stable par réunion dénombrable).

est aussi élément

i

de

Propriétés 1.1.2 :

Si A est une tribu sur Ω, alors : i)'

∅ ∈A

iii)' Si (A )

n n≥1

est une suite d'éléments de A,

C

A (A est stable par intersection dénombrable). iv)

dém :

=

+∞



i=1

A

i

est aussi élément de

A est stable par réunion et par intersection finies.

• i)' : Ω ∈A (propriété i) et A est stable par passage au complémentaire (propriété ii) donc Ω

= ∅ ∈A.

• iii)' :

Pour tout entier i

A

i

∈A , donc (propriété ii)

c Toujours d'après la propriété ii) B ∈A . • iv) : (A

Or

c B

A

c

∈A , donc (propriété iii)

i

+∞

=

B

+∞

=

∪ A

i=1

c

i

c

∈A .

∩ A = C. i

i=1

Soient A et B deux éléments de A . On pose

A

1

) ainsi définie est une suite d'éléments de A, donc n n≥1

= A, A

+∞

2

= B et A

i

= ∅ pour i ≥ 3. La suite

+∞

∪ A ∈A ; comme ∪ A = A ∪ B, on a bien i i i=1 i=1

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.1 1

montré que A est stable pour la réunion de deux de ses éléments. On montre alors par récurrence sur n que A est stable pour la réunion de n de ses éléments.

La stabilité de A pour l'intersection finie se prouve par passage au complémentaire, comme cela a été

fait pour démontrer iii)'.

Conséquence :

Pour montrer qu'un sous-ensemble A de P(Ω) est une tribu, on doit

vérifier qu'il a trois propriétés : i) ou i)' (au choix) ii)

iii) ou iii)' (au choix)

Définition 1.1.3 :

On appelle espace probabilisable un couple (Ω, A), où A est une tribu sur Ω . Définitions 1.1.4

:

• Si A est un événement de Ω, pour chaque résultat ω de l'expérience aléatoire, ou ω ∈ A : on dit que A est réalisé.



La

ou ω ∉ A : on dit que A n'est pas réalisé.

non-réalisation

contraire de A.

de

A,

c'est-à-dire

l'événement

c

A , est appelé é v é n e m e n t

• La réalisation simultanée de deux événements A et B (A et B) est l'événement A∩B.

• La réalisation d'au moins un des deux événements A et B (A ou B) est l'événement

A∪B.

• Si A et B sont deux événements tels que A 1 B, on dit que l'événement A entraîne

(ou implique) l'événement B.

• Le singleton {ω} est appelé événement élémentaire. • Ω est l'événement certain.

• ∅ est l'événement impossible.

• Deux événements A et B dont la réalisation simultanée est impossible (A∩B = ∅) sont dits incompatibles.

k Exemples élémentaires de tribus :

• P(Ω) est une tribu, c’est toujours elle que l’on prendra comme tribu d’événements

si Ω est fini ou dénombrable.

• A = {∅, Ω} est une tribu, appelée tribu grossière de Ω. c

• Pour tout A fixé de P(Ω), A = {∅, A, A , Ω} est une tribu, appelée tribu engendrée par A.

• Sur Ω = {1, 2, 3} :

A = {∅, {1}, {2, 3} , {1, 2, 3}} est une tribu strictement incluse dans P(Ω).

B = {∅, {2}, {2, 3} , {1, 2, 3}} n'est pas une tribu.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.1 2

k Exemple fondamental : la tribu borélienne de R ou R

n

Soit Ω = R, considérons la famille I des intervalles de R. Proposition et définitions 1.1.5

: (admise en partie)

• I n’est pas une tribu, mais il existe une tribu, notée B (R ),

contenant

tous

les

intervalles de R, et qui est la plus petite tribu (au sens de l'inclusion) contenant tous ces intervalles.

On l’appelle tribu borélienne de R , et on la note B(R) ou plus simplement B. On dit que la tribu B est engendrée par les intervalles de R.

• Il existe des parties de R qui ne sont pas boréliennes. On a donc :

dém :

• I

I

1 B(R)



n’est

pas

1



une

P(R)

tribu,

en

particulier

parce

qu'elle

n'est

pas

stable

par

passage

au

complémentaire : par exemple, le complémentaire de [0, 1] est ]-∞, 0[ ∪ ]1, +∞[, qui n'est pas un

intervalle.

• On note T l'ensemble des tribus de R contenant tous les intervalles. L'ensemble T est non vide

puisqu'au moins P(R) appartient à T.

Soit B l'intersection de toutes les tribus de T.

elle contient I, et toute autre tribu de R contenant I contient nécessairement B. B, appelée tribu

borélienne de R,

intervalles de R.

B est une tribu,

est donc la plus petite tribu au sens de l'inclusion contenant tous les

• On admettra dans ce cours l'existence de parties non

boréliennes de R (ceci se démontre en utilisant

l'axiome du choix, une partie non borélienne de R ne se construit donc pas de manière élémentaire).

De même, la tribu borélienne de R n

la note B(R ).

n

(*) : un pavé de R

n

est la tribu engendrée par les pavés (*) de R

n

. On

est le produit cartésien de n intervalles de R

par exemple dans R

2

: [a, b] x ]c, d], ]a, b[ x ]-∞,+∞[, ]a,+∞[ x ]b,+∞[ sont des pavés.

{ Remarque :

Dans le cadre de ce cours, en dimension 1, on ne rencontrera en pratique que des boréliens de type intervalle ou réunion finie d’intervalles. Mais en dimension n, on

verra fréquemment dans les calculs des boréliens qui ne sont ni des pavés ni des réunions finies de pavés (par exemple, si n = 2, l'intérieur d’un disque ou d'un

triangle ou plus généralement un domaine du plan dont la frontière est une courbe de classe C

1

par morceaux sont des boréliens).

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.1 3

2 - Espace de probabilité

La donnée d’un espace probabilisable ne suffit pas à décrire une expérience aléatoire. Par exemple, si on joue une fois à pile ou face, l’espace fondamental est très simple :

Ω = {pile, face}, avec A = P(Ω) (puisque Ω est fini), mais les conditions de l’expérience ne sont pas les mêmes selon que la pièce utilisée est truquée ou non.

a) Probabilité Définitions 1.2.1 :

• Soit (Ω, A) un espace probabilisable. On appelle probabilité une application P de A dans R ayant les propriétés suivantes : i)

P(A) ≥ 0

∀ A ∈ A

ii) P(Ω) = 1

iii)

Pour toute suite (An) +∞

P (∪ Ai) i=1

n≥1

=

+∞



i=1

d'événements deux à deux incompatibles :

P(Ai)

( σ -additivité de P)

• Le triplet (Ω, A, P) est appelé espace de probabilité, ou espace probabilisé.

Construire un modèle probabiliste lié à une expérience aléatoire, c'est se donner le triplet

(Ω, A, P). On admettra que pour une expérience aléatoire donnée, il existe

l'espace de probabilité correspondant. Propriétés 1.2.2 : 1)

2)

P(∅) = 0

Additivité de P : si A et B sont incompatibles, P(A∪B) = P(A) + P(B)

Plus généralement, si A1, A2, … , An sont n événements incompatibles deux à deux : P(A1∪A2∪ … ∪An) = P(A1) + P(A2) + … + P(An) c

3) P(A ) = 1 - P(A)

4) Si A et B sont deux événements, P(A∪B) = P(A) + P(B) - P(A∩B)

5) 6)

7)

Croissance de P : si A et B sont deux événements tels que A 1 B,

∀ A ∈ A

P(A) ≤ 1

P(A) ≤ P(B)

Propriété de la limite monotone :

- pour toute suite croissante (au sens de l'inclusion) d'événements (An) lim

n→+∞

n≥1

+∞

P(An) = sup P(An) = P (∪ Ai) n

i=1

- pour toute suite décroissante (au sens de l'inclusion) d'événements (An) lim

n→+∞

+∞

n≥1

P(An) = inf P(An) = P (∩ A ) n

i=1

i

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.1 4

dém :

• 1) : se démontre par l'absurde : On pose P(∅) = a . Par définition, a ≥ 0. Supposons a > 0. Soit A = ∅ n pour tout n, les A

sont deux à deux disjoints, donc

n

+∞

définition de la somme d'une série. Or



i=1

contradiction. • 2) : on pose

A

1

= A, A

2

= B et A

i

A

+∞

P( ∪

i=1

∪A = A ∪ B i i=1

et

)

=

+∞

+∞

+∞

i=1

i=3

∑ P(Ai) = P(A) + P(B) +

=

∑ P ( A i)

i=1

a = lim

n→ +∞

= ∅ pour i ≥ 3. La suite (A +∞

+∞

i

= ∅ , d'où

i

d'éléments de A deux à deux incompatibles, donc P( ∪ A ) i i=1

or

A

+∞



i=1

n

= lim

n→ +∞

(n a) = +∞



i=1

P(A i )

par

si a > 0, d'où la

) ainsi définie est une suite n n≥1

P(Ai ) ;

∑ P(∅) = P(A) + P(B)

puisque P(∅) = 0.

Le cas d'une réunion finie se prouve de manière analogue.

• 3) : on écrit la propriété 2) avec B = A

c

;

c c P(A) + P(A ) = P(A∪A ) = P(Ω) = 1

• 4) : on écrit A∪B comme une réunion disjointe afin de se ramener au 2) : c A∪B = A∪(B∩A ) cette réunion étant disjointe,

d'où

c P(A∪B ) = P(A) + P(B∩A )

c De plus B = (B∩A)∪(B∩A ) , cette réunion étant disjointe, d'où (propriété 3) :

c P(B) = P(B∩A) + P(B∩A )

c On en déduit : P(B∩A )) = P(B) - P(B∩A) d'où : P(A∪B ) = P(A) + P(B) - P(B∩A)

Remarque : dans le cas où B∩A = ∅ , on retrouve la propriété 2). c • 5) : si A est inclus dans B, B peut s'écrire : B = A∪(B∩A ) , cette réunion étant disjointe.

c c Toujours d'après 3), on a : P(B) = P(A) + P(B∩A )), or P(B∩A ) ≥ 0, d'où P(A) ≤ P(B); • 6) : se déduit de la précédente : A 1 Ω, d'où P(A) ≤ P(Ω) = 1. • 7) :

- si la suite d'événements (A

pour tout entier n A étant croissante

n

1 A

) est croissante au sens de l'inclusion : n n≥1

n+1

, d'où P(A

n

) ≤ P(A

n+1

) par croissance de P. La suite réelle (P(A

et majorée par 1, elle converge et sa limite est sa borne supérieure.

n

))

n≥1

Ensuite, on écrit la réunion croissante comme une réunion d'événements incompatibles deux à deux afin d'utiliser la σ-additivité de P : pour cela on pose : B

B

1 2

= A

1

= A



2

∩A

c

1

c B = A ∩A n n n-1

Par construction, les B

d'où

i

sont deux à deux disjoints ; de plus, pour tout entier n, A

par application de 2) : P(A

n

) = P(B

1

) + P(B

2

) +… +P(B

n

)

(*)

n

= B

1

∪B

2

∪…∪B

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.1 5

n

,

De plus :

+∞

∪A i i=1

=

+∞

∪ B

i=1

i

En effet : par définition des B

i

, B

i

1 A

i

d'où

+∞

∪ B

i=1

i

1

+∞

∪ A

i=1

i

+∞

. Inversement, soit ω un élément de ∪ A . i i=1

Il existe au moins un indice i tel que ω appartient à A , donc l'ensemble I = {i ∈N/ω appartient à A } i i

est non vide. Toute partie non vide de N admet un plus petit élément, soit k le plus petit élément de I

(I et k dépendent de ω). Par définition de k, ω appartient à A appartient à B

k

, et donc aussi à +∞

+∞

+∞



i=1

P(Bi) =

et n'appartient pas à A

+∞



i=1

P(Bi )

(σ-additivité de P)

n

∑ P(Bi) par définition de la somme d'une série = lim

n→+∞ i = 1

n→+∞

- si la suite d'événements (A

, donc ω

∪ B . i

+∞

lim

k-1

i=1

On en déduit : P( ∪ A ) = P( ∪ B i) = i i=1 i=1

Or

k

P(A

n

)

d'après (*)

) est décroissante au sens de l'inclusion : n n≥1

on applique le résultat ci-dessus à la suite croissante d'événements (A

c

n

)

n≥1

.

b) Cas où Ω est fini ou dénombrable Cas fini :

l'expérience

possibles : Ω = {ω , … , ω A chaque ω

1

i

aléatoire }.

considérée

ii)

qu'un

nombre

fini

de

résultats

m

(1 ≤ i ≤ m), on associe un réel noté P(ω ) (en fait, la notation rigoureuse i

devrait être P({ω })), tel que : i)

n'a

i

P(ω ) ≥ 0

m



i=1

i

P(ω ) = 1 i

Toute partie A = {ω P(A) =

k



j=1

i

1

, … , ω

P(ω ) i

j

i

} de l'ensemble fini Ω est un événement, et on pose :

k

(on note aussi cette somme :

avec la convention : P(∅) = 0



ω∈A

P(ω) )

On démontre que l'application P ainsi définie sur P(Ω) est bien une probabilité. P(A) est la probabilité de l'événement A.

Cas particulier de probabilité finie : la probabilité uniforme Définition 1.2.3 : La probabilité P est uniforme sur l’espace fini Ω si tous les réels

P(ω ) sont égaux. On dit alors que tous les résultats possibles de l’expérience sont i

équiprobables.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.1 6

k Exemple :

Si on lance un dé à 6 faces numérotées, on met sur Ω = {1, 2, … , 6} la

probabilité uniforme lorsque le dé n'est pas truqué.

Propriétés 1.2.4 : 1)

Si la probabilité est uniforme sur Ω, alors pour tout ω de Ω,

2)

Si la probabilité est uniforme sur Ω, alors pour tout événement A, cardA

P(A) =

P(ω) =

1

cardΩ

(Règle de Laplace)

cardΩ

nombre de cas favorables

C’est la formule classique :

nombre de cas possibles

* Attention ! cette formule n’est applicable que sous l’hypothèse d’équiprobabilité.

Cas dénombrable :

Ω = {ω

i

/ i ∈N*}

La démarche ci-dessus se généralise en utilisant les séries. A chaque ω i)

ii)

i

, on associe un réel noté P(ω ), tel que : i

P(ω ) ≥ 0

+∞



i=1

i

P(ω ) = 1 i

Cette somme de série est indépendante de la numérotation choisie pour les ω , i

et on définit la probabilité de toute partie A de Ω par : P(A) =



ω∈A

P(ω)

(somme finie ou somme de série)

On peut démontrer en utilisant les propriétés des séries que l'application P ainsi définie sur P(Ω) est bien une probabilité.

c) Système complet d’événements Définitions 1.2.5 :

• On appelle événement négligeable (ou événement quasi-impossible) un événement

dont la probabilité est nulle.

• On appelle événement quasi-certain un événement dont la probabilité est égale à 1. B est quasi-certain



Β

c

est négligeable.

• Une propriété vraie sur un événement quasi-certain de Ω est dite vraie presque

sûrement (noté en abrégé : p. s.)

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.1 7

Propriété 1.2.6 :

Si B est quasi-certain, pour tout événement A :

P(A∩B) = P(A).

c dém : On a P(A) = P(A∩B) + P(A∩B ) (égalité vue à la dém. de la propriété 1.2.2-4)

c c c Or par croissance de P , 0 ≤ P(A∩B ) ≤ P(B ) = 1 - P(B) = 0, d'où P(A∩B ) = 0 et P(A) = P(A∩B).

Conséquence :

Pour calculer une probabilité, on peut, sans changer les résultats, se

limiter à un événement quasi-certain de Ω.

Définitions 1.2.7 :

• Une suite (finie ou non) B

1

, B

2

système complet d'événements si : 1) ∀ i ≠ j 2)

, … , B

n

, …

d'événements non impossibles est un

B ∩B = ∅

Ω = ∪B i

i

j

i

En termes ensemblistes, un système complet d'événements est une partition de Ω. • On définit aussi un système quasi-complet d'événements en remplaçant la condition 2) ci-dessus par : 2')

∪B i

i

est quasi-certain.

Proposition 1.2.8 : • Si {B

1

Formule des probabilités totales (1ère forme)

, B , … , B 2

événement A :

}

P(A) =

• Si B , B , … , B 1

n

2

n

, …

est n



i=1

un

système

quasi-complet

d'événements,

i

est une suite infinie d'événements constituant un système P(A) =

+∞



i=1

P(A∩B ) i

• Conséquence : dans les deux cas (système fini ou dénombrable) : dém :

• Par définition d'un système quasi-complet, ∪B =

tout

P(A∩B )

quasi-complet, pour tout événement A :

P(A∩(∪ B )) i i

pour

i

i

∑ i

P(B ) i

= 1

est quasi-certain, donc (propriété1.2.6), P(A) =

P(∪(A∩B )). Or les (A∩B ) sont deux à deux i i i

incompatibles puisque les B

i

le sont,

donc P(∪(A∩ B ) = ∑ P(A∩B ) (par additivité de P dans le cas d'un système quasi-complet fini ; par i i i i

σ-additivité de P dans le cas d'un système quasi-complet dénombrable). • L'égalité

∑ P(B ) = 1 s'obtient en remplaçant A par Ω dans la formule ci-dessus. i

i

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.1 8

3 - Probabilité conditionnelle

a) Définition Considérons

un

espace

de

probabilité

(Ω , A , P) lié à une expérience aléatoire.

Supposons que l'on sache qu'un événement B de A est réalisé. La probabilité d'un

événement quelconque A de A risque alors d'être modifiée.

k Exemple :

Une famille de trois enfants vient de s’installer à côté de chez vous, et vous cherchez la probabilité qu’il y ait au moins une fille, lorsque :

a) vous ne disposez d’aucun renseignement supplémentaire. b) vous savez qu'il y a au moins un garçon. c) vous savez que l’aîné est un garçon.

L'ensemble Ω de toutes les configurations possibles d'une famille de trois enfants est l'ensemble des

triplets dont les composantes valent F ou G ; la ième composante du triplet définit le sexe du ième enfant de la famille (i = 1, 2, 3).

L'ensemble Ω étant fini, toute partie de Ω est un événement, et on met sur Ω la probabilité uniforme. Il y a donc 8 configurations possibles, chacune de probabilité a) Soit A l'événement

1

8

.

"il y a au moins une fille". Les éléments de A sont les triplets dont au moins

une des composantes est F. Il y en a 7, donc P(A) =

7

8

.

b) Si on sait qu'il y a au moins un garçon, on exclut le triplet (F, F, F) et il n'y a plus a priori que 7 possibilités ; sur ces 7 triplets restants que l'on considère comme équiprobables, il y en a 6 pour lesquels A est réalisé, d'où la probabilité cherchée : P

1

(A) =

6

7

.

c) Si on sait que l'aîné est un garçon, on ne garde que les 4 triplets dont la première composante est G ; sur ces 4 triplets, il y en a 3 pour lesquels A est réalisé, d'où la probabilité cherchée : P

2

(A) =

3

4

.

Considérer que B est réalisé revient à ne plus raisonner sur Ω tout entier, mais

seulement

sur

B,

probabilité

que

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.1 9

probabilité initiale.

ce

qui

revient

à

mettre

sur



une

autre

Définition 1.3.1 :

Soit B un événement tel que P(B) ≠ 0.

On appelle probabilité conditionnelle P(A/B) =

P(A∩B)

de A sachant B :

P(B)

la

Dans la question b) de l'exemple ci-dessus, si on note B P(B) =

7

8

et P(A∩B) =

6

(il y a 6 configurations mixtes sur les 8 possibles) d'où

8

On retrouve la valeur que l'on avait notée P De même P

2

(A) =

P(A∩C)

1

P(A∩B)

(A).

P(B)

=

6

7

.

en notant C l'événement "l'aîné est un garçon".

P(C)

Propriété 1.3.2 :

P(. /B) est une probabilité sur

(Ω, A).

Dans certains ouvrages, P(. /B) est notée P

B

pour éviter toute confusion avec la notation P

dém :

l'événement "il y a au moins un garçon", on a

: nous n'utiliserons pas cette notation

X

qui sera introduite au chapitre 2.

P(. /B) est bien une application de A dans R, et on va prouver qu'elle vérifie les trois conditions

i) ii) iii) de la définition 1.2.1 : • i)

∀ A ∈ A

P(A/B)

=

P(Ω∩B )

P(B)

P(B)

car

P(A∩B) ≥ 0 et P(B) > 0.

P(Ω/B)

• iii)

Soit (An) une suite d'événements deux à deux incompatibles : n≥1

+∞

=

P(B)

1

P(B)

=

≥ 0

• ii)

P( (∪ A )/B) i i=1

=

P(A∩B)

P(B)

+∞

P( ( ∪ A )∩B) = i i=1

les (A ∩B) sont deux à deux i +∞

P (∪ (A i ∩B)) = i=1

=1

+∞

1

P(B)

+∞

P (∪ ( A i ∩ B ) ) i=1

incompatibles puisque les A +∞

∑ P(A ∩B) d'où P( (∪ Ai)/B) i i=1

i=1

=

1

P(B)

i

le sont, donc par σ-additivité de P,

+∞

∑ P(A ∩B) =

i=1

i

+∞

∑ P(A i / B )

i=1

Conséquence :

Toutes les propriétés 1.2.2 sont vraies en remplaçant P par P(. /B). Par exemple :

• 0 ≤ P(A/B) ≤ 1 c

• P(A /B) = 1 - P(A/B)

• P[(A∪A')/B] = P(A/B) + P(A'/B) - P[(A∩A')/B] • Pour toute suite croissante d'événements (An) lim

etc…

n→+∞

P(An/B) = sup P(An/B)

n∈ N

n

b) Les trois formules de probabilité conditionnelle

Formule des probabilités composées 1.3.3 :

• Soit B un événement tel que P(B) ≠ 0. La formule ci-dessus s'écrit : P(A∩B) = P(B) P(A/B)

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.2 0

• Plus généralement : Soient A , A , … , A 1

2

n

n événements tels que P(A ∩A ∩ … ∩A 1

2

) ≠ 0. On a :

n-1

P(A ∩A ∩ … ∩A ) = P(A ) P(A /A ) P(A /A ∩A ) … P(A /A ∩A ∩ … ∩A 1

2

n

dém :

La condition P(A

1

∩A

2

1

∩ … ∩A

2

n-1

1

3

1

2

n

) ≠ 0 assure que pour tout k ≤ n-1, P(A

toutes les probabilités conditionnelles P(A

2

/A

1

), P(A

existent. La formule se démontre par récurrence sur n.

3

/A

1

∩A

2

1

1

2

∩A

), … , P(A

n

2

∩ … ∩A

/A

1

)

n-1

∩A

2

k

) ≠ 0, donc

∩ … ∩A

n-1

)

{ Remarque : On utilise souvent cette formule dans le cas où plusieurs événements se

sont

succédé

composition

est

(par

exemple

modifiée

à

des

chaque

tirages tirage

successifs

en

dans

fonction

du

une

urne

résultat

dont

du

précédent). Les événements sont alors introduits par ordre chronologique : A

premier événement à s'être produit, A

2

le second etc …

la

tirage

1

est le

La formule des probabilités composées justifie l’utilisation des arbres pour certains calculs probabilistes.

Formule des probabilités totales 1.3.4 : • Soit une famille finie B , B , … , B 1

2

n

(2ème forme)

d'événements tous de probabilité non nulle et

constituant un système quasi-complet d'événements. On a pour tout événement A : P(A) =

n



i=1

P(A/B ) P(B ) i

i

Cette formule est fréquemment utilisée avec un système complet d'événements de c

type { B, B } tel que 0 < P(B) < 1 :



c

c

P(A) = P(A/B) P(B) + P(A/B ) P(B )

Si le système quasi-complet d'événements est constitué d'une suite infinie B , B ,

… , B

n

1

, … d'événements tous de probabilité non nulle, on a : P(A) =

+∞



i=1

2

P(A/B ) P(B ) i

i

dém :

il suffit d'écrire la formule 1.2.8 en remplaçant P(A∩B ) par P(A/B ) P(B ) i i i

k Exemple :

Une urne contient initialement 2 boules blanches. Un compteur affiche un entier

aléatoire non nul i, on ajoute alors i boules noires dans l'urne puis on en tire une boule au hasard. Pour i ≥ 1, la probabilité d'afficher i est probabilité que la boule tirée soit blanche ?

1

i(i+1)

.

Quelle

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

est

p.2 1

la

dém :

On définit les événements :

A : "la boule tirée est blanche" B

i

: "le compteur affiche l'entier i" +∞

Les B constituent un système complet d'événements , d'où P(A) = ∑ i

(en effet, lorsque B

i=1

P(A/B ) P(B ) = i i

+∞



i=1

2

i+2

1

i(i+1)

est réalisé, il y a dans l'urne avant le tirage 2 boules blanches et i boules noires)

i

Pour calculer la somme de la série, on décompose en éléments simples la fraction rationnelle en i : 2

i(i+1)(i+2) n



i=1

=

1 i

2

i(i+1)(i+2)

2

-

=

+

i+1 n



i=1

(

1

i+2

1

-

i

n

On conclut : P(A) = lim



n→+∞ i = 1

1 = ( i

1

i+1

-

1

i+1

n

) -



i=1

1 1 ) - ( ) i+1 i+2

1 1 ( ) = i+1 i+2

2

i(i+1)(i+2)

=

n



i=1

(

1 i

-

1

i+1

) -

n+1



i=2

(

1 i

-

1

i+1

) =

1

2

-

1

n+1

+

1

n+2

1

2

Formule de Bayes 1.3.5 :

Soient A et B deux événements de probabilité non nulle. P(A/B) =

dém :

P(B/A) P(A) P(B)

il suffit d'écrire de deux façons différentes P(A∩B) = P(A/B) P(B) = P(B/A) P(A)

Considérons deux événements dont l'un, B , est la conséquence de l'autre, A, appelé

cause. On suppose que P(B/A) est connue. La formule de Bayes permet de calculer la probabilité conditionnelle de A sachant que B est réalisé. Pour cette raison, elle était autrefois appelée formule de probabilité des causes. k Exemples :

Dans l'exemple ci-dessus de l'urne et du compteur : sachant que la boule tirée est blanche, quelle est la probabilité que le numéro affiché soit 1 ?

dém : P(A/B

On demande P(B

1

) =

2

3

; P(B

1

) =

1

2

1

/A) =

P(A/B

et P(A) =

1

2

1

) P(B

P(A)

1

)

2 (calcul ci-dessus) d'où P(B /A) = 1 3

A retenir :

• La notion de probabilité conditionnelle s'introduit naturellement chaque fois qu'on acquiert une information partielle sur le résultat d'une expérience aléatoire.

• Elle s'utilise aussi lorsqu'on se livre à deux expériences aléatoires successives telles que les conditions de la seconde sont fonction du résultat de la première.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.2 2

4 - Evénements indépendants

a) Indépendance de deux événements Définition 1.4.1 : Soit

(Ω , A ,

P)

un

espace

de

probabilité.

Deux

événements

(stochastiquement) indépendants si P(A∩B) = P(A) P(B).

A

et

B

sont

dits

k Exemple :

On tire une carte au hasard dans un jeu de 32 cartes. Les événements A = "c'est un pique" et B ="c'est un honneur" sont indépendants. dém :



est l'ensemble des 32 cartes : 8 cartes (as-roi-dame-valet-10-9-8-7) pour chacune des 4

couleurs (pique-coeur-carreau-trèfle) ; on munit

fait au hasard, donc P(A) =

8

32

=

Ω de la probabilité uniforme puisque le tirage se

1

4

Il y a 16 honneurs (as- roi-dame-valet de chaque couleur), donc Enfin il y a 4 honneurs de pique, donc P(A∩B) =

4

32

=

1

8

P(B) =

16 32

=

1

2

= P(A) P(B)

{ Remarques :

• Ne pas confondre événements indépendants et événements incompatibles.

• L'indépendance se définit par rapport à une certaine probabilité P.

Deux événements peuvent être indépendants pour une probabilité P et ne pas l'être

pour une autre probabilité Q définie sur (Ω, A) (par exemple, Q = P(. /E) où E est un événement de probabilité non nulle). k Exemple :

Reprendre l'exemple ci-dessus avec la probabilité conditionnelle P(. /E), où E est l'événement " c'est une dame ou un coeur".

dém :

Posons Q = P(. /E) ; par définition, Q(A) =

P(A∩E) P(E)

Il y a 4 dames et 7 coeurs autres que la dame, donc P(E) = appartient à A∩E) d'où Q(A) =

1

11

On remarque que A∩B∩E = A∩E d'où Q(A∩B) = Q(A) = De plus P(B∩E) =

7

32

11

32

; P(A∩ E) =

1

32

(seule la dame de pique

1

11

(les 4 dames et les 3 honneurs de coeur autres que la dame) d'où

Q(B) =

7

11

Q(A∩ B) ≠ Q(A) Q(B) : A et B ne sont pas indépendants pour la probabilité Q, alors qu'ils le sont

pour la probabilité P.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.2 3

Propriété 1.4.2 :

Soient A et B deux événements de probabilité non nulle. Les trois conditions sont équivalentes : i)

A et B sont indépendants

ii)

P(A/B) = P(A)

iii) P(B/A) = P(B)

Les propriétés ii) et iii) justifient le terme "indépendants" : la probabilité de A n'est pas modifiée par le fait que l'on sache B réalisé. dém :

• ii) ⇒ i) : l'égalité P(A∩ B) = P(A/B) P(B) est toujours vraie dès que P(A/B) existe ; si P(A/B) = P(A), on en déduit P(A∩B) = P(A) P(B)

• i) ⇒ ii) : l'égalité P(A∩ B) = P(A/B) P(B) est vraie, et par hypothèse P(A∩ B) = P(A) P(B), d'où

P(A/B) P(B) = P(A) P(B) et P(A/B)

= P(A) puisque P(B) ≠ 0.

L'équivalence i) ⇔ iii) s'établit par symétrie entre A et B.

Si A et B sont deux événements indépendants, alors :

Propriété 1.4.3 : c

A et B c

A

c

A

et B

sont indépendants

c

et B

sont indépendants

sont indépendants

dém : P(A) = P(A∩B) + P(A∩B

c

), d'où P(A∩B c

de A et B) = P(A) [1 - P(B)] = P(A) P(B )

c

) = P(A) - P(A∩B) = P(A) - P(A)P(B) (indépendance

c.q.f.d.

On inverse les rôles de A et B pour la deuxième propriété. La troisième se démontre en deux temps : c c c l'indépendance de A et B assure celle de A et B , puis (même raisonnement) celle de A et B .

b) Indépendance mutuelle

Définition 1.4.4

:

Une suite (finie ou non) A , A , … , A 1

2

n

, … d'événements est une suite indépendante

si et seulement si pour toute sous-famille finie d'indices 1 ≤ i P(A

i

1

∩A

i

2

∩ … ∩A

i

) = P(A

k

On dit aussi que les événements A

i

i

1

) P(A

i

2

) …

P(A

i

)

1

< i

2

< … < i

k

:

k

sont mutuellement indépendants.

Exemple :

• Pour établir l'indépendance mutuelle de trois événements A, B, C, il faut vérifier 4 égalités :

      

P(A∩ B) = P(A) P(B)

P(A∩ C) = P(A) P(C) P(B∩ C) = P(B) P(C)

P(A∩ B ∩ C) = P(A) P(B) P(C)

• Dans le cas d'une famille finie de n événements, vérifier l'indépendance mutuelle conduit à vérifier (2

n

- n - 1) égalités (11 égalités à vérifier pour n = 4, et 26 égalités pour n = 5 …)

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.2 4

Propriété 1.4.5 :

Par définition, l'indépendance mutuelle d'une famille implique l'indépendance deux à deux des événements de cette famille, mais la réciproque est fausse. k Exemple :

On lance deux fois un dé, et on définit les événements suivants : A = " le premier lancer est pair"

B = " le deuxième lancer est pair"

C = " la somme des lancers est paire".

A, B et C sont indépendants deux à deux, mais ne sont pas mutuellement indépendants. (le dé est supposé honnête, et les deux lancers indépendants).

dém : P(A) = P(B) =

1

(le dé est honnête, et à chaque lancer il y a 3 numéros pairs sur les 6 possibles)

2

Par hypothèse, A et B sont indépendants, P(A∩B) = P(A) P(B) = C = C

0

∪C

impairs P(C

0

On a

1

(union disjointe) avec :

) = P(A∩B) =

1

4

.

C

0

1

4

= les deux lancers sont pairs et C

On démontre de même P(C ) = 1

A∩C = A∩B, donc P(A∩C) = P(A∩B) =

1

4

1

4

. Donc P(C) =

1

= les deux lancers sont

1

2

= P(A) P(C) : A et C sont indépendants.

On démontre de même que B et C sont indépendants.

Les trois événements A, B et C sont donc bien indépendants deux à deux. Par contre A∩B∩C = A∩B, d'où P(A∩B∩C) =

Proposition 1.4.6 : Si A

1

, A , … , A 2

n

1

4

≠ P(A) P(B) P(C)

, … est une famille finie ou non d'événements mutuellement

indépendants, pour toute sous-famille finie d'indices 1 ≤ i P(A'

i

1

∩A'

avec pour tout i,

i

2

∩ … ∩A'

A'

i

= A

i

i

k

) = P(A'

ou A

i

c

i

1

) P(A'

i

2

) …

P(A'

1

i

k

)

< i

2

< … < i

k

,

dém : par récurrence sur le nombre d'indices i tels que A est remplacé par son complémentaire. i

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.2 5

5 -

Ω non dénombrable : deux exemples pour réfléchir

A part la définition 1.2.1 d'une probabilité qui introduit la notion nouvelle de tribu, on

constate

que

les

définitions

et

propriétés

énoncées

aux

§2-3-4

sont

rigoureusement identiques (y compris les démonstrations) à celles vues en première année, où la probabilité P était définie sur P(Ω).

D'où la question : pourquoi cette notion de tribu ?

La réponse est que sans les tribus, on ne pourrait garantir l'existence de certaines probabilités sur les espaces Ω non dénombrables.

Ce problème d'existence ne se pose pas dans le cas où Ω est fini : on a vu au §2-b)

qu'il est très facile de définir une probabilité en donnant la valeur de chaque P(ω). Il suffit de respecter les conditions :

P(ω) ≥ 0

pour tout ω de Ω et



P(ω) = 1.

ω∈Ω

Il en va de même si Ω est dénombrable. Les justifications sont juste un petit peu plus compliquées puisqu'elles utilisent les propriétés des séries.

Dans le cas où Ω n'est pas dénombrable, l'exemple 1 ci-dessous va nous montrer

qu'on ne peut plus en général définir P "point par point" sur chaque ω de Ω. Il faut donc la définir directement sur les événements, qui sont des parties de Ω.

Or

on

verra

à

l'exemple

2

que

pour

des

raisons

techniques,

certains

types

de

probabilités pourtant très intéressantes ne peuvent être définies sur P(Ω) tout entier,

d'où la nécessité de ne considérer comme événements qu'une sous-famille stricte de P(Ω ). Il est naturel pour des raisons logiques que cette sous-famille contienne Ω (événement

certain) et ∅

complémentaire intersection

(événement

(événement

(réalisation

contraire

simultanée

impossible), d'un

soit

événement

d'événements,

lien

stable

par

donné)

logique

:

passage

ainsi et)

et

que

au

par

réunion

(réalisation d'au moins un des événements considérés, lien logique : ou non exclusif) finies (ou dénombrables car certaines expériences théoriques conduisent à étudier des suites d'événements, voir l'exemple 1 ci-dessous). D'où la définition des tribus.

a) Exemple 1 :

P doit être définie directement sur A

Voici un exemple d'expérience aléatoire, à propos duquel on verra l'utilité de certaines des propriétés de calcul d'une probabilité (passage au complémentaire, additivité, passage à la limite croissante ou décroissante).

Une urne (que l'on appellera dans la suite du cours "urne RBV”) contient 3 boules,

une rouge, une blanche, une verte. Dans cette urne, on tire une infinité de fois une boule avec remise.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.2 6

• Modélisation de l'espace de probabilité : Ω = {R, B, V} (u

i

N*

= ensemble des suites (u

= R, B, ou V)

)

n n≥1

où u

est la couleur tirée au ième tirage

i

Cet ensemble Ω est évidemment infini.

On admettra (cela se démontre) qu'il existe une tribu A formée des parties de Ω que

l'on peut décrire à partir de l'expérience aléatoire et une probabilité P définie sur A telle que :

- à chaque tirage, la probabilité d'avoir une couleur donnée vaut 1/3 ;

- les résultats des différents tirages sont indépendants (tirages avec remise).

• Probabilité d'avoir un tirage tricolore sur les n premiers tirages (n ≥ 3) Soit n fixé ≥ 3, et soit A premiers tirages".

n

l'événement : "les trois couleurs sont apparues sur les n

3

On montre que : P(A ) = n

n-1

n

- 2

3

n-1

+ 1

• Probabilité d'avoir un tirage tricolore sur l'ensemble des tirages

Soit A l'événement : "les trois couleurs sont apparues sur l'ensemble des tirages". +∞

On a : A = ∪ A i i=3

On montre que : P(A) =

lim

n→+∞

P(A ) = 1 n

L'événement A est quasi-certain.

• Probabilité d'un événement élémentaire {ω}

Soit ω un élément de Ω fixé. ω est une suite (u tirage (u = R, B, ou V)

)

n n≥1

où u

i

est la couleur tirée au ième

i

On montre que : P(ω) = 0

Tout événement élémentaire est négligeable.

• Conclusion :

Puisque pour tout ω

P(ω) = 0, il est impossible ici de reconstituer la probabilité P à

partir des P(ω) comme on peut le faire dans le cas où Ω est fini ou dénombrable en posant pour tout événement A : P(A) =



P(ω) .

ω∈A

Ici, l'ensemble fondamental Ω n'est pas dénombrable, d'où la nécessité de définir la

probabilité

P

événements.

non

b) Exemple 2 :

pas

"point

par

point"

mais

directement

sur

la

tribu

A

des

Ω ) n'est pas toujours possible Prendre A = P(Ω

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.2 7

Supposons maintenant qu'on lance une aiguille infiniment fine sur une règle de longueur 1, le résultat de l'expérience est l'abscisse ω (réel compris entre 0 et 1) de

l'impact de l'aiguille sur la règle. Ici Ω = [0, 1] et les parties de Ω auxquelles on pense

"naturellement" sont les intervalles [a, b] avec 0 ≤ a ≤ b ≤ 1, ou les réunions finies de tels intervalles (rappelons qu'un point est un intervalle : { a} = [a, a]).

Si on suppose que les conditions de l'expérience sont telles qu'il n'y a pas de région privilégiée de la règle, il est naturel de penser que la probabilité que l'impact de l'aiguille se trouve dans un intervalle donné [a, b] est proportionnelle à la longueur de cet intervalle, ce qui conduit ici à poser : P( [a, b]) = b - a

(condition (*))

D'où la question : une telle probabilité existe-t-elle ? Si elle existe,

on a nécessairement P(ω) = 0 pour tout ω, donc même problème que

dans l'exemple précédent.

On ne peut se limiter à une probabilité qui serait définie seulement sur la famille des intervalles de [0, 1], car cette famille n'est pas une tribu. Vous

verrez

probabilité

(cours

définie

d'Intégrale

de

de

manière

Lebesgue

unique

sur

en

la

L3)

tribu

qu'on

peut

borélienne

engendrée par les intervalles de [0, 1]) et vérifiant la condition (*).

construire

de

[0,

1]

une

(tribu

Cette probabilité s'appelle probabilité uniforme sur l'intervalle [0, 1]. Par contre, on peut montrer par l'absurde qu'il n'existe pas de probabilité P définie sur P([0,1]) et vérifiant la condition (*), en construisant une famille dénombrable de parties A

n

(évidemment non boréliennes), deux à deux disjointes et toutes de même +∞

probabilité, telles que [0, 1 [ = ∪ A n=1

n

Cette construction nécessite l'axiome du choix. Que

P(A

n

) = 0 ou P(A

n

) > 0, on arrive dans les deux cas à une contradiction.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.2 8

6 - Annexe : Construction des espaces de probabilité liés aux différents modes de tirage

Voici trois exemples de construction d'espaces Ω liés aux divers modes de tirage de boules dans une urne.

On appelle E l'ensemble des boules de l'urne, et on pose cardE = N (N ≥ 1). k Exemple 1 : tirages successifs avec remise

On tire n fois de suite une boule, en la remettant dans l'urne avant le tirage suivant. n

• Ω = E

= { (x , x , … , x ) / ∀ i ∈ [[1, n]] 1

2

n

Chaque ω = (x , x , … , x

i

ème

1

boule tirée.

2

n

x ∈E} i

) est donc un n-uplet (ou n-liste) où pour 1≤i≤n, x

i

est la

Il y a un ordre de tirage, et la même boule peut être tirée deux ou plusieurs fois, donc pas de condition restrictive sur les x . •

i

Les tirages se faisant au hasard, toutes les configurations sont équiprobables, ce

qui revient à munir Ω de la probabilité uniforme : ∀ ω ∈ Ω

P(ω)

=

1

cardΩ

cardΩ = N

n

k Exemple 2 : tirages successifs sans remise

On tire n fois de suite une boule, en mettant de côté les boules tirées. On doit donc avoir : n ≤ N. • Ω =

{ (x , x , … , x ) ∈ E 1

2

Pour 1≤ i ≤ n, x

k

i

n

2

/ ∀ (i, j) ∈ [[1, n]]

est la boule tirée au i

ème

i ≠ j ⇒ x ≠ x } i

j

tirage; chaque ω = (x , x , … , x ) est donc

un n-uplet dont les composantes sont deux à deux distinctes.

1

2

k

Il y a un ordre de tirage, mais la même boule ne peut être tirée plus d'une fois, d'où les conditions sur les x . i

• Les tirages se faisant au hasard, toutes les configurations sont équiprobables, ce qui revient à munir Ω de la probabilité uniforme : ∀ ω ∈ Ω

k Exemple 3 :

P(ω)

=

1

cardΩ

cardΩ = A

n

N

tirage simultané (ou exhaustif)

Les n boules sont tirées en une fois. Ici aussi : n ≤ N.

• Ω =

P (E) , ensemble des parties à n éléments de E. n

Il n'y a pas ici d'ordre de tirage, cela n'a donc pas de sens de parler de première ou dernière boule.

• Les tirages se faisant au hasard, toutes les configurations sont équiprobables, ce qui revient à munir Ω de la probabilité uniforme : ∀ ω ∈ Ω

P(ω)

=

1

cardΩ

cardΩ = C

n

N

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.2 9

Propriété 1.6.1 :

Si A est un événement relatif seulement à la composition de l'échantillon obtenu

(par exemple A = n'obtenir aucune boule noire ou A = obtenir dans l'échantillon un nombre

de

boules

noires

inférieur

au

nombre

de

boules

blanches),

on

peut

démontrer que P(A) a la même valeur dans le cas de tirages successifs sans remise ou dans le cas d'un tirage exhaustif.

On peut donc raisonner pour calculer P(A) indifféremment avec l'un ou l'autre modèle, mais attention à être cohérent dans le choix de Ω , le calcul de cardΩ , et le calcul de cardA.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.3 0

Chapitre 2 : Variables aléatoires réelles

1 - Définition générale d'une variable aléatoire a) Image et image réciproque d'un ensemble par une application Définitions 2.1.1 :

Soit f une application d'un ensemble E dans un ensemble F. •

Soit A une partie de E. On note f(A) = {y ∈ F/∃ x ∈ A

f(A) est une partie de F. On l'appelle image de A par f. -1

• Soit B une partie de F. On note f -1

f

y = f(x)}

(B) = {x ∈ E/ f(x) ∈ B}

(B) est une partie de E. On l'appelle image réciproque de B par f.

* Attention !

-1

La notation f

(B) ne signifie pas que f est une application bijective.

b) Variable aléatoire Soit une expérience aléatoire modélisée par un espace de probabilité (Ω, A, P).

On peut être amené à associer à chaque résultat ω de l'expérience aléatoire un réel dépendant de ω. k Exemple 1 :

On lance trois fois un dé, et pour tout tirage ω on note S(ω) la somme des chiffres

obtenus. Selon une règle fixée à l'avance, il peut être convenu que le joueur touchera un gain X(ω) dépendant de S(ω).

Par exemple :

X(ω) =

  

S(ω) - 10 0

si S(ω) ≥ 10

sinon

Si le joueur a misé une somme m pour jouer, on peut aussi considérer le gain algébrique : Y(ω) = X(ω) - m.

X est une application à valeurs dans N, Y est à valeurs dans Z (si m entier).

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.3 1

k Exemple 2 :

l'urne RBV

Dans une urne contenant 1 boule rouge, 1 blanche et 1 verte, on tire n fois une boule avec remise, et on note pour tout tirage ω :

X(ω) = le nombre de boules rouges obtenues ;

Y(ω ) = le rang d'apparition de la première boule rouge (en posant Y(ω ) = n+1 si

aucune boule rouge ne sort à ce tirage) ; Z(ω) =

  

1

0

si on obtient un tirage unicolore

sinon

T(ω) = le nombre de couleurs apparues. X, Y, Z, T sont à valeurs dans N. k Exemple 3 :

On observe les arrivées de véhicules à un péage à partir de l'instant 0. On peut définir :

X(ω) = le nombre de véhicules arrivé entre l'instant 0 et l'instant t (t fixé). ème

T (ω) et plus généralement T (ω) l'instant d'arrivée du premier (du n 1

T

n

est à valeurs dans R+.

n

) véhicule.

Dans chaque cas, on a défini une (ou plusieurs) applications de Ω dans R : pour une

telle application X, il est naturel de s’intéresser à l’ensemble des résultats ω de Ω tels

que par exemple on ait X(ω ) = x ou X(ω ) ≤ x (x étant un réel fixé) et à calculer la probabilité de ces éventualités.

Mais pour que ces calculs soient possibles, il faut que les sous-ensembles de Ω définis

par {ω ∈ Ω/ X(ω) = x } ou {ω ∈ Ω/ X(ω) ≤ x } soient des événements (c’est-à-dire des éléments de la tribu A), d’où les propriétés que l’on impose à l’application X.

Définition 2.1.2 :

Soit (Ω, A, P) un espace de probabilité. On appelle variable aléatoire (en abrégé v.a.)

une application X de Ω dans R telle que l’image réciproque par X de tout borélien de R est un événement. ∀ B ∈ B

X

-1

(B) = {ω ∈ Ω/ X(ω) ∈ B} ∈ A

B désigne l'ensemble des boréliens de R.

On notera aussi : X

-1

(B) = (X ∈ B).

En particulier, l’image réciproque de tout intervalle de R est un événement : X

-1

X

X

X

( ] a, b [) = (X ∈ ] a, b [) = (a < X < b)

-1

-1

-1

( [ a, b ]) = (X ∈ [ a, b ]) = (a ≤ X ≤ b)

( ] a, +∞ [) = (X ∈ ] a, +∞ [) = (X > a)

({a}) = (X = a)

etc …

• Dans le cas où A = P(Ω) (condition toujours réalisée si Ω est fini ou dénombrable),

toute application réelle X définie sur Ω est une variable aléatoire.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.3 2

• Dans le cas général, on admettra que pour que X soit une variable aléatoire, il suffit que :

- l’image réciproque par X de tout intervalle de R soit un événement (condition a

priori moins forte que celle de la définition) ou même que :

- l’image réciproque par X de toute demi-droite de type ] -∞, x ] (x réel) soit un

événement (condition encore moins forte que la précédente).

k Exemple fondamental :

Soit A un événement de A, on appelle fonction indicatrice de A la fonction définie sur Ω par :

1

 ∀ ω ∈ A    ∀ ω ∉ A 

A

1

A

1

(ω) = 1

A

(ω) = 0

est une variable aléatoire.

* Attention !

Cet exemple établit un lien entre la notion d'événement et celle de variable aléatoire, mais il ne faut pas confondre ces deux notions : un événement est une partie de Ω

alors qu’une variable aléatoire est une application de Ω dans R (autrement dit une fonction).

En particulier, si X est une v.a., la notation P(X) n'a aucun sens.

Proposition 2.1.3 :

(admise)

Si X et Y sont deux v.a. sur le même espace probabilisable (Ω, A), pour tout réel λ, les

applications λX, X + Y et XY sont des v.a.

ce qui peut s'énoncer : l'ensemble des v.a. définies sur l'espace probabilisable (Ω, A) a

une structure d’algèbre.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.3 3

2 - Loi et fonction de répartition d'une v. a. Soit X une v.a. définie sur un espace de probabilité (Ω, A, P). Par définition d’une

variable aléatoire, pour tout borélien B de R, (X ∈ B) est un événement. On peut

donc calculer la probabilité de cet événement : en toute rigueur, il faudrait noter cette probabilité P((X ∈ B)) mais en pratique on écrit simplement P(X ∈ B). Proposition et définition 2.2.1 :

Pour tout borélien B de R, on pose : P

P

X

(B) = P(X ∈ B)

est une probabilité sur l’espace probabilisable (R, B(R)). On l’appelle la loi de X,

X

ou distribution de probabilité de X. On admettra que la loi P

X

est totalement connue si on connait P

X

[(a, b)] pour tout

intervalle (a, b) de R. On peut même se limiter aux intervalles de type ]-∞, a].

Définition 2.2.2 :

On appelle fonction de répartition de X la fonction F ∀ x ∈ R

F

X

(x) = P(X ≤ x)

X

Notations équivalentes : P(X ≤ x) = P(X ∈] -∞, x ]) = P

* Attention

aux

X

notations !

définie sur R par :

(] -∞, x ])

On réserve les lettres majuscules (X) aux variables

aléatoires, et les lettres minuscules (x) aux réels.

La fonction de répartition est un outil mathématique dont l’intérêt principal est de

caractériser la loi d’une variable aléatoire. Toutes les fonctions de répartition ont des propriétés communes, énoncées ci-dessous dans le cas général. On étudiera dans ce

cours deux grands types de variables aléatoires réelles : les variables aléatoires discrètes et les variables aléatoires à densité. Il existe aussi des variables dont les lois

sont des mélanges d’une loi discrète et d’une loi à densité. Propriétés 2.2.3 :

• La fonction de répartition F • On a :

lim F

x→-∞



∀ a



∀ (a, b) ∈ R

• F

X

(x)

=

0

P(X > a) = 1 - F

∈ R

2

a < b

est croissante et à valeurs dans [ 0, 1 ].

et

X

lim

x→+∞

F

X

(x) =

1

(a)

P(a < X ≤ b) = F

X

(b) - F

X

(a)

est continue à droite et a une limite à gauche en tout point : lim F

x→a+



X

X

∀ a

∈ R

X

(x)

=

F

X

P(X = a) = F

X

(a)

lim F

x→a-

(a) -

lim F

x→a-

X

X

(x) = P(X < a)

(x)

• La fonction de répartition d'une variable aléatoire caractérise sa loi. (admis)

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.3 4

* Attention !

Dans certains ouvrages figure une définition légèrement différente de

la fonction de répartition : F

X

(x) = P(X < x) = P(X ∈] -∞, x [).

Avec cette définition, la fonction de répartition est continue à gauche, et non plus continue à droite.

3 - Variable aléatoire discrète a) Définition Définitions et proposition 2.3.1 :

Une variable aléatoire X est discrète

valeurs { x Une

i

/ 1 ≤ i ≤ n }.

variable

aléatoire

X

est

dénombrable de valeurs { x

i

/

finie si elle ne prend qu'un nombre fini de

discrète

dénombrable

si

elle

prend

une

infinité

i ∈ N }. Dans le cadre de ce cours, les v.a. discrètes

dénombrables que l'on rencontrera seront à valeurs dans N ou Z.

Pour unifier les notations, on notera { x I étant une partie finie ou non de N.

i

/

• Connaître la loi de X, c'est connaître :

- l'ensemble des valeurs de X : X(Ω) = { x

i

i ∈ I } l’ensemble des valeurs prises par X,

/ i ∈ I }

- la suite (p ) de réels (suite finie ou non) définis par :

    

i

∀ i ∈ I



i∈ I

p

i

p

i

= 1

≥ 0

∀ i ∈ I

p

i

= P(X = x ) i

(somme finie ou somme de série)

• Réciproquement, on admettra que si on se donne une partie A = { x ou dénombrable de R, et une famille (p )

i i∈I

i

/

i ∈ I } finie

de réels vérifiant les propriétés ci-dessus,

il existe une v.a. discrète X dont l’ensemble des valeurs prises est A, et la loi donnée par les p . i

Dans le cas fini, la loi de X peut-être présentée sous forme d'un tableau : x

X P(X=x ) i

p



1

p

1

On a alors pour tout borélien B de R

x

:



i

x

n

p

i

P(X ∈ B)



n

=



{i/x ∈ B } i

p

somme = 1

i

(somme finie ou non)

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.3 5

{ Remarque : 0 ≤ p

i

Les conditions simultanées p

i

≥ 0



et

i∈ I

≤ 1 pour tout i.

p

i

= 1 impliquent que

k Exemples de lois finies classiques :

- loi certaine

- loi uniforme sur {1, 2, … , n} - loi de Bernoulli

- loi hypergéométrique

- loi binômiale : nombre de succès sur n essais indépendants k Exemples de lois dénombrables : -

X(Ω) = N* et

p

i

1

=

i (i+1)

- loi de Poisson : loi limite d'une loi binômiale

- loi géométrique : temps d'attente du premier succès sur une suite infinie d'essais indépendants

- loi binômiale négative (dite aussi loi de Pascal): temps d'attente du n une suite infinie d'essais indépendants

Proposition 2.3.2 :

Si X est une v.a. discrète de loi (x , p ) i

i i∈I

, { (X = x

i

ième

succès sur

) / i ∈ I } est un système complet

d’événements. On l’appelle système complet associé à la v.a. X.

b) Fonction de répartition d'une variable aléatoire discrète Cas fini : Propriétés 2.3.3 :

Soit X une variable aléatoire discrète finie, prenant les valeurs x La fonction de répartition F

X

de X est une fonction en escalier :

• Les points de discontinuité de F • F

X

X

sont les x . i

est constante sur chaque intervalle [x , x

    

F

X

F

F

X

X

(x) = 0

(x) = p

(x) = 1

On en déduit :

1

    

+ … + p

si x < x i

si x

i

i+1

[

1

< … < x

n

.

:

1

i

≤ x < x

si x ≥ x

i+1

n

p

1

p

i

= P(X = x

= P(X = x

1

i

) = F

) = F

X

X

(x ) 1

(x ) - F i

X

(x

i-1

)

pour 2 ≤ i ≤ n

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.3 6

Cas dénombrable :

Dans le cas le plus classique (celui où X prend une suite croissante de valeurs x

i

tendant vers +∞), les propriétés sont identiques à celles écrites ci-dessus, modulo les

modifications suivantes :

- La fonction de répartition F

une infinité de “marches”) - La condition “F

X

valeur 1)

(x) = 1

de X est une fonction en escalier “généralisée” (avec

X

si x ≥ x ” est à supprimer (dans ce cas, F n

X

n’atteint jamais la

Dans les autres cas, il faut faire des adaptations évidentes. La loi de X se retrouve donc aisément à partir de sa fonction de répartition. Dans la pratique, la fonction de répartition d'une v.a. discrète est particulièrement utilisée lorsque cette variable est définie comme un max ou un min. k Exemple :

Dans une urne contenant N boules numérotées de 1 à N, on tire n boules une à une avec remise. Soit X (respectivement Y) la variable aléatoire égale au plus grand (respectivement plus petit) des numéros tirés. Trouver les lois de X et Y.

d) Variable aléatoire ϕ (X) : Proposition 2.3.4 : (admise)

Si X est une v.a. discrète, et si ϕ est une fonction quelconque de D dans R (le sousensemble X(Ω) étant inclus dans D), ϕ(X) = ϕoX est une variable aléatoire discrète. Loi de ϕ (X) :

On suppose la loi de X donnée par la suite double (x , p )

Posons : ∀ i ∈ I

y

i

= ϕ(x ) i

Considérons les valeurs y ϕ (x ) = ϕ (x i

i’

i

j

q

j

) pour i ≠ i'). La famille { y

=



{i/ϕ (x ) = y } i j

La suite double (y , q ) j

j j∈J

.

distinctes (ϕ n'étant pas forcément injective, on peut avoir j

/ j ∈ J }

est

particulier, si I est fini, J l’est aussi et on a cardJ ≤ cardI)

Posons :

i i∈I

p

i

au

plus

dénombrable

(en

(somme finie ou non)

définit la loi de ϕ(X).

k Exemples :

• On lance quatre fois une pièce honnête, en codant à chaque lancer le résultat obtenu par -1 si on obtient face et 1 si on obtient pile. X est la somme des quatre 2

lancers. Trouver la loi de X, puis celle de Y = X .

 0    • Si X suit une loi géométrique G(p), on pose Y =  X   2

si X est impair si X est pair

Trouver la loi deY.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.3 7

4 - Variable aléatoire continue (ou à densité) a) Définition Définitions et proposition 2.4.1:

• Soit une fonction f de R dans R ayant les propriétés suivantes : i)

ii)

f est positive,

f est continue sauf peut-être en un nombre fini de points,

iii)

+∞

∫ f(t) dt

-∞

= 1.

{ Remarque : On écrit où x

1

< … < x

n

L'existence de

intégrales

+∞

∫ f(t) dt

-∞

=

x 1

∫ f(t) dt +

-∞

x 2

∫ f(t) dt +

x 1



+

sont les points de discontinuité de f. +∞

∫ f(t) dt

∫ f(t) dt , …

-∞

∫ f(t) dt

x n

est par définition équivalente à l'existence de chacune des

-∞

x 1

+∞

,

x

i+1

∫ f(t) dt , …

x

i

,

+∞

∫ f(t) dt.

x n

On se ramène ainsi aux cas d’intégration rappelés au chapitre 0. Une variable aléatoire X est dite absolument

continue ou à densité s'il existe une

fonction f ayant les trois propriétés ci-dessus telle que : pour tout réel x

P(X ≤ x ) =

x

∫ f(t) dt

-∞

f est une densité de probabilité de X. • Réciproquement, on admettra que pour toute fonction f ayant les propriétés cidessus, il existe une variable aléatoire X définie sur un espace de probabilité (Ω, A, P) convenable, et admettant la fonction f pour densité. k -

Exemples :

f(x) = 1

- f(x) = -

(x) : X suit une loi (continue) uniforme sur l’intervalle [0, 1].

[0, 1]

1

b-a

f(x) = λ e

1

(x) : X suit une loi (continue) uniforme sur l’intervalle [a, b].

[a, b]

-λx

1

-2 x  - f(x) = e - f(x) =

1

2√ x

1

R

+

(x) : X suit une loi exponentielle de paramètre λ (λ > 0).

(x)

] 0, 1]

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.3 8

{ Remarque 1 :

La condition ii) que l'on impose à une densité peut être allégée. On a

donné cette formulation ici parce qu'elle est réalisée dans tous les cas classiques, et qu'elle est adaptée aux connaissances en intégration des étudiants abordant ce cours. { Remarque 2 :

La densité de probabilité de X n'est pas unique. Toute fonction égale

à f sauf en un nombre fini de points est aussi une densité de probabilité de X. En général, on choisit pour f une version “la plus continue possible”, mais même cette condition ne suffit pas à assurer l’unicité. { Remarque

3 : Interprétation

géométrique

en

repère

orthonormé : si f est une

densité de probabilité, son graphe est situé au-dessus de l’axe des abscisses, et l’aire comprise entre cet axe et le graphe est égale à 1.

b) Fonction de répartition d'une variable aléatoire à densité Théorème 2.4.2 :

Si X est une variable aléatoire de densité f, sa fonction de répartition F par :

∀ x ∈ R

F

X

(x) =

x

X

est

définie

∫ f(t) dt

-∞

Cette fonction de répartition est continue, elle est continûment dérivable sauf peutêtre en un nombre fini de points, et on a : F'

X

(x) = f(x)

en tout point x où f est continue.

Réciproque : (admise)

Si X a une fonction de répartition F

X

continue sur R, de classe C

1

sauf en un nombre

fini de points, alors X est une v.a. à densité. Toute fonction f positive sur R qui ne diffère de F'

X

qu’en un nombre fini de points est une densité de X.

On obtient donc la densité d'une v.a. absolument continue en dérivant sa fonction de répartition en tout point où cela est possible.

Propriété 2.4.3 :

Si X est une v.a. à densité, pour tout réel x,

P(X = x) = 0

L'événement (X = x) est quasi-impossible. La probabilité que X soit égale à une

valeur fixée x est toujours nulle, mais on peut calculer la probabilité que X soit à valeurs dans un intervalle aussi petit soit-il, "proche" de x. On écrit de manière formelle : P(x < X ≤ x + dx)

=

f(x) dx

en tout point x où f est continue.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.3 9

Conséquence 2.4.4 :

Si a et b sont deux réels tels que a < b : P(a < X ≤ b ) = P(a < X < b ) = P(a ≤ X < b ) = P(a ≤ X ≤ b ) =

b

∫ f(t) dt

a

Autrement dit, dans le cas d’une loi continue, contrairement à ce qui se passe dans le

cas d’une loi discrète, on n’a pas besoin d’être pointilleux sur la distinction entre inégalités strictes et inégalités larges.

c) Variable aléatoire ϕ (X) On a vu que si X est discrète et si ϕ est une fonction quelconque définie sur X(Ω), alors U = ϕ(X) est une variable aléatoire. Si

X

est

une

variable

à

densité,

il

n'est

plus

vrai

que

pour

toute

fonction

ϕ

l'application ϕ(X) soit une variable aléatoire, mais on admettra que c’est vrai si ϕ est

une fonction continue (ou continue par morceaux) sur un intervalle I contenant X(Ω).

Mais même alors, la v.a. ϕ (X) n’est pas toujours une v.a. à densité (prendre par exemple ϕ = constante).

Le

théorème

densité.

ci-dessous

donne

une

condition

suffisante pour que ϕ (X) ait une

Théorème 2.4.5 :

Soit X une variable aléatoire dont la densité f est nulle en dehors d’un intervalle I, et soit ϕ une fonction continûment dérivable sur I, et dont la dérivée ne s'annule pas (ce

qui implique en particulier que ϕ est bijective de I sur ϕ(I)). Alors U = ϕ(X)

est une variable aléatoire à densité.

Pour calculer la densité g de ϕ(X), deux méthodes possibles :

• Méthode 1 : Méthode dite "de la fonction muette" Cette méthode se généralise facilement à la dimension n ≥ 2. Elle repose sur le

théorème suivant (admis) : Théorème 2.4.6 :

Pour qu'une variable aléatoire X admette une fonction f pour densité, il faut et il suffit que pour toute fonction h continue bornée sur R, on ait : E[h(X)] =

+∞



-∞

h(t) f(t) dt

h est quelconque, d'où le nom de "fonction muette".

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.4 0

Pour déterminer une densité de U, on cherche donc une fonction g telle que, pour toute fonction h continue bornée sur R, on ait : +∞

E[h(U)] =



-∞

h(u) g(u) du

Or E[h(U)] = E[h(ϕ(X)] = E[hoϕ(X)] =

+∞



-∞

hoϕ(t) f(t) dt =

+∞



-∞

h(ϕ(t)) f(t) dt

Sous les hypothèses du théorème 2.4.5, le changement de variable u = ϕ(t) dans cette intégrale permet d'obtenir une expression de g :

g(u)

=

      

f (ϕ

-1

(u)) (ϕ 0

-1

)’(u)  =

sinon

f (ϕ

-1

ϕ'(ϕ

(u))

-1

(u))

si u ∈ ϕ(I)

{ R e m a r q u e : Plutôt que d'apprendre par coeur cette formule, on peut sur des exemples concrets la redémontrer "à la main".

• Méthode 2 : Utilisation de la fonction de répartition Cette méthode est simple à utiliser en dimension 1. On calcule la fonction de répartition de U, et on la dérive pour avoir la densité. Sous les hypothèses du théorème 2.4.5, la fonction de répartition de ϕ(X) est effectivement de classe C morceaux.

1

par

Cette méthode est utilisable aussi dans certains cas où ϕ n'est pas bijective. La fonction ϕ étant de classe C

1

est en particulier continue ; or l'image d'un intervalle

par une fonction continue est un intervalle, donc ϕ(I) est un intervalle (α, β) (avec éventuellement α = -∞ et β = +∞)

Si la dérivée ϕ ’ ne s’annule pas sur I, elle garde un signe constant (puisqu’une fonction continue qui change de signe sur un intervalle s’annule nécessairement d’après le théorème des valeurs intermédiaires).

Supposons pour fixer les idées ϕ’ > 0, ϕ est alors continue strictement croissante sur I, donc elle admet une application réciproque ϕ aussi strictement croissante. On écrit donc : ∀ u ∈ R - si u ∈ ϕ(I)

F

U

-1

définie de l’intervalle ϕ(I) sur I, elle

(u) = P(U ≤ u) = P(ϕ(X) ≤ u)

: P(ϕ(X) ≤ u) = P(X ≤ ϕ

-1 (u)) = F

X



-1 (u))

On obtient ainsi une fonction de u que l'on dérive. - si u ∉ ϕ(I) :

• ou bien u = α ou β (dans le cas où

arbitrairement g(u) = 0 en ces deux points • ou bien u < α

ϕ(I) n'est pas fermé), on peut poser

or P(U ≤ t) = 0 pour t < α

• ou bien u > β, or P(U ≤ t) = 1 pour t > β

Dans ces deux cas F F

U

‘(u) = 0.

U

est constante au voisinage de u, et on trouve par dérivation

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.4 1

Le cas

ϕ’ < 0

se traite de manière analogue, avec les adaptations nécessaires pour le

sens des inégalités. { Remarques :

• Le résultat reste vrai si la dérivée ϕ' s'annule en un nombre fini de points x changer de signe. Aux points u

i

= ϕ(x ), i

(par exemple en posant g(u ) = 0).

i

sans

on pourra définir g de manière arbitraire

i

• Pour utiliser cette méthode, il n'est pas nécessaire que ϕ soit bijective : il suffit que la condition ϕ(X) ≤ u se traduise de manière équivalente en une condition sur X telle 2

que l'on obtienne ainsi une fonction de u dérivable (voir ci-dessous ϕ(X) = X ).

k

Exemples :

Soit X une variable aléatoire de densité f. On pose : T = aX + b (a et b réels, a ≠ 0) 3

U = X V = X

2

Calculer en fonction de f les densités de T, U et V.

{ Remarque : Il se peut que ϕ(X) ne soit définie que presque sûrement. On parle alors tout de même de la v.a. ϕ(X).

Par exemple, si X suit une loi continue uniforme sur [0, 1], on peut définir presque sûrement la variable aléatoire Y =

1

X

puisque P(X = 0) = 0.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.4 2

5 - Moments d'une variable aléatoire

a) Espérance

mathématique

Définitions 2.5.1 :

• Soit X une v.a. discrète finie de loi

On appelle alors espérance

E(X) =

n



i=1

x

i

p

i

i 1≤i≤n

n



i=1

x

i

P(X = x ) i

• Soit X une v.a. discrète dénombrable de loi On suppose que la série de terme général (x

On appelle espérance

E(X) =

+∞



i=0

x

.

ou moyenne de X le réel défini par :

=

i

(x , p )

i

(x , p ) i

i i∈N

.

p ) est absolument convergente. i

ou moyenne de X le réel défini par :

i

p

i

=

+∞



i=0

x

i

P(X = x ) i

L'hypothèse d'absolue convergence assure qu'il n'y a dans cette définition aucune ambiguité liée à la numérotation des x . i

• Soit X une v.a. de densité f, telle que On appelle espérance

E(X) =

* Attention !

+∞



-∞

+∞



-∞

t  f(t) dt

converge.

ou moyenne de X le réel défini par :

t f(t) dt

Si X est une v.a. discrète finie ou une v.a. admettant une densité

continue sur un segment [a, b] et nulle en dehors de [a, b], l'espérance de X existe toujours. Par contre certaines v.a. discrètes dénombrables et certaines v.a. à densité n’ont pas d’espérance. k Exemples :

Les v.a. suivantes ont-elles une espérance ? Si oui, la calculer. • v.a. discrète telle que X(Ω) = N* et P(X = i) =

1

i(i+1)

pour i ≥ 1

-2 x  • v.a. uniforme, exponentielle, de densité f(x) = e • v.a. suivant une loi de Cauchy

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.4 3

Définition 2.5.2 :

Si E(X) = 0, on dit que la v.a. X est centrée. Propriétés 2.5.3 :

• Si X = a (constante), X a une espérance et • ∀ A ∈ A

1

A

a une espérance et

• Si X a une espérance, ∀λ∈R

λX

E(1

A

E(X) = a

.

) = P(A)

a une espérance et

• Si X et Y ont une espérance , X+Y a une espérance et

E(λX) = λ E(X) E(X+Y) = E(X) + E(Y)

(cette propriété est provisoirement admise)

On résume les deux propriétés ci-dessus en disant que l'ensemble des v.a. discrètes qui ont une espérance (pour une probabilité donnée) est un espace vectoriel réel, sur lequel l'espérance définit une forme linéaire. • Si E(X) = m, la v.a. Y = X - m est centrée. •

X ≥ 0



E(X) ≥ 0

et

X ≤ Y



E(X) ≤ E(Y)

L'espérance est une forme linéaire positive (ou croissante). { Remarque : Les v.a. discrètes forment un sous-espace vectoriel de l’espace vectoriel

des v.a. définies sur un espace de probabilité (Ω, A, P), mais ce n’est pas le cas des v.a. à densité.

Théorème 2.5.4 :

Théorème dit “de transfert”

• version “discrète”

Soit une variable aléatoire discrète X de loi

(admis)

(x , p ) i

i i∈I

La v.a. discrète ϕ (X) a une espérance si et seulement si la série

absolument convergente, et on a :

E[ϕ(X)] =



i∈ I

ϕ(x ) p i



i∈ I

ϕ (x ) p i

i

est

i

Dans le cas où I est fini, la condition d’existence est évidemment toujours réalisée. • version “continue”

Soit X une v.a. de densité f, soit ϕ une fonction continue (ou continue par morceaux)

sur un intervalle contenant X(Ω). Alors la v.a. ϕ(X) a une espérance si et seulement si l’intégrale

+∞



-∞

ϕ(t)  f(t) dt converge, et on a :

E[ϕ(X)] =

+∞



-∞

ϕ(t) f(t) dt

Dans le cas où f est continue sur un segment [a, b], et nulle en dehors de [a, b], la condition d’existence est automatiquement réalisée.

{ Remarque : L'intérêt de ce théorème est de calculer directement l'espérance de ϕ(X)

à partir de la loi de X, sans chercher auparavant la loi de ϕ(X).

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.4 4

b) Variance et écart-type Définition 2.5.5 :

Soit X une v.a. discrète admettant une espérance m. 2

Si la v.a. (X - m)

a une espérance, on appelle variance 2

var(X) = E [(X - m) ] cas discret :

var(X)

=



i∈ I

de X le réel défini par :

.

(x

i

- m)

2

p

i

(somme finie ou non)

sous réserve, dans le cas dénombrable, que la série ci-dessus soit convergente.

cas continu :

var(X) =

+∞



-∞

(t -m)

2

f(t) dt

sous réserve que l’intégrale ci-dessus soit convergente.

Théorème 2.5.6 (de Koenig-Huygens) : 2

2

var(X) = E(X ) - [E(X)] { Remarque :

C'est cette formule que l'on utilise usuellement pour calculer la variance. k Exemples :

• Soit X une v.a. à valeurs dans N*, dont la loi est définie par : P(X = i) =

a

i(i+1)(i+2)

pour i ≥ 1.

a) Déterminer la constante a.

b) Calculer l'espérance et la variance de X si elles existent. • variance d’une v.a. uniforme, exponentielle • variance d’une v.a. de densité x → f(x) = (loi de Pareto à deux paramètres (2, 1))

2

3

x

1

(x))

[1,+∞[

Propriétés 2.5.7 :

• La variance est toujours positive. • La variance est quadratique

:

∀ λ ∈ R

var(λX) = λ

• La variance est inchangée par translation : ∀ µ ∈ R • On a donc : ∀ λ ∈ R

∀ µ ∈ R

var(λX + µ) = λ

2

2

var(X) var(X + µ) =

var(X)

var(X)

Définitions et propriété 2.5.8 :

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.4 5



var(X) √  

se note σ et s'appelle l'écart-type de X.

L'écart-type d'une variable aléatoire sert à mesurer la dispersion de cette variable autour de sa moyenne. Il s’exprime dans la même unité que X. • Si var(X) = 1, on dit que la v.a. X est réduite.

Lorsque X est une v.a. d'espérance m et d'écart-type σ, la v.a. Y =

X - m σ

réduite.

est centrée

c) Moments d'ordre r Définition 2.5.9 :

Soit X une v.a., et soit r un entier naturel ≥ 1. On suppose que m = E(X) existe.

On appelle moment d'ordre r (respectivement moment centré d'ordre r) de X le réel r

r

E(X ) (respectivement E[(X - m) ] .

cas discret :

r

E(X )

=



x

i∈ I

i

r

p

i

r

et

E[(X - m) ]

=



i∈ I

(x - m) i

r

p

i

sous réserve bien entendu que les séries ci-dessus soient absolument convergentes dans le cas dénombrable.

cas continu :

r

E(X ) =

+∞



-∞

t

r

f(t) dt

et

r

E[(X - m) ]

=

+∞



-∞

(t - m)

r

f(t) dt

sous réserve que les intégrales ci-dessus soient absolument convergentes dans le cas d'une "vraie" intégrale généralisée..

Proposition 2.5.10 : •

L'existence

inférieur.

du

moment

d'ordre

r

entraîne

l'existence

Ceci se démontre par récurrence descendante à partir de l'inégalité t

• L'espérance est le moment d'ordre 1.

r-1

des

≤ t

r

+ 1

moments

d'ordre

vraie pour t ≥ 0.

• La variance est le moment centré d'ordre 2.

• L'existence du moment d'ordre r équivaut à l'existence du moment centré d’ordre

r. En particulier, l’existence du moment d'ordre 2 équivaut à l'existence de la variance.

{ Remarque : Les moments d'une v.a. (s’ils existent) ne dépendent que de sa loi.

Deux v.a. équidistribuées (= qui ont même loi) auront mêmes moments, et en particulier même espérance et même variance. La réciproque est fausse en général.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.4 6

d) Fonction génératrice des moments

Définition 2.5.11 :

Soit X une variable aléatoire réelle. On considère l'application :

t

tX → E(e )

=

 tx i  ∑ e pi i  +∞  ∫ etx f(x) dx  -∞

si X est une variable discrète

si X est une variable de densité f

(d'après le théorème de transfert)

Cette application est définie au moins pour t = 0.

Si elle est définie sur un voisinage de 0 (c'est-à-dire définie au moins sur un intervalle ] -α, α [ avec α > 0), on l'appelle fonction génératrice des moments de X et on la note : t

→ M

Si l'application

X

t

(t) = E(e → E(e

tX

tX

)

)

n'est pas définie sur un voisinage de 0, on dit que la

fonction génératrice des moments de X n'existe pas. { Remarque :

Dans les cas suivants la fonction génératrice des moments existe et est définie sur R :

- X est une v.a. discrète finie ;

- X est une v.a. admettant une densité continue sur un segment [a, b] et nulle en dehors de [a, b]. k Exemples :

Calculer la fonction génératrice des moments de X si elle existe dans les cas suivants : - X suit la loi binômiale B(n, p)

-

X suit loi géométrique G(p)

- X suit la loi exponentielle E(λ)

L'intérêt majeur de la fonction génératrice des moments apparaît dans le théorème ci-dessous, qui permet d'établir certains résultats importants en évitant des calculs laborieux (voir chapitre 4) : Théorème 2.5.12 :

(admis)

Soient X et Y deux variables aléatoires telles que leurs fonctions génératrices des moments existent. Si M

X

(t) = M

Y

(t) sur un voisinage de 0, alors X et Y ont même loi.

Autrement dit, lorsqu'elle existe, la fonction génératrice des moments caractérise la loi de X.

Un autre intérêt de la fonction M

X

est de permettre de retrouver les moments de X,

(d'où son nom), avec dans certains cas des calculs plus simples que les calculs directs :

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.4 7

Proposition 2.5.13 :

Soit X une variable aléatoire telle que la fonction génératrice des moments M

• L'espérance de X existe si et seulement si la fonction M E(X) = M'

X

(0)

X

X

existe.

est dérivable en 0, et on a :

• Plus généralement, le moment d'ordre r de X existe si et seulement si la fonction M

X

est r fois dérivable en 0, et on a : (r)

r

E(X ) = M

X

(0)

En particulier, si la fonction M

donnée par :

var(X) = M"

X

(0) - [M'

X

X

(0)]

est 2 fois dérivable en 0, X admet une variance,

2

La fonction génératrice des moments a l'inconvénient de ne pas être toujours définie (même si elle existe pour les lois classiques) ; il existe une autre fonction ayant des

propriétés analogues (elle caractérise la loi de X et permet de calculer ses moments s'ils existent) et qui, elle, est toujours définie sur R, mais est à valeurs complexes. C'est la fonction caractéristique de X, définie par : t

itX → Φ(t) = E(e )

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.4 8

6 - Les lois normales ou de Laplace-Gauss

a) Variable gaussienne centrée réduite Définition 2.6.1 :

La variable aléatoire réelle X est une variable gaussienne réduite si elle a pour densité la fonction f : x On note :

X

~ N(0, 1)

+∞

1 2π  √



-∞



E(X) =



E(X ) =

2

2

- x /2 e

1 2π  √ 1 2π  √

2π  √

(ou

2

normale)

- x /2 e

centrée

On a les égalités suivantes :

Proposition 2.6.2 : •

ϕ(x) =



1

+∞



-∞

dx

= 1

2

- x /2 x e

+∞

2

∫ x

-∞

2

(admise provisoirement)

dx

- x /2 e

=

dx

0

=

1

d'où

var(X) = 1

• Plus généralement, une v.a. gaussienne centrée réduite admet des moments de tous ordres, les moments d’ordre impair étant nuls.

Propriétés 2.6.3 : Fonction de répartition de la loi N(0, 1) : On note usuellement Φ cette fonction de répartition :

Φ(x) =

x



-∞

1 2π  √

e

2

- t /2

dt

Il n'existe pas d'expression explicite de Φ autre que sous cette forme d'une intégrale. • Elle est tabulée pour les valeurs de x positives. • On a pour tout réel x,

valeurs de x négatives. • Pour tout x ≥ 0

Φ(-x) = 1 - Φ(x)

, ce qui permet de calculer Φ(x) pour les

P(X ≤ x) = 2 Φ(x) -1

P(X > x) = 2 [1 - Φ(x)]

• La lecture de la table nous permet en particulier d'affirmer : P(X > 1, 96)

=

0, 05

et

P(X > 2, 6)

=

0, 01

ce qui montre qu'une variable gaussienne réduite est très concentrée autour de 0 qui est sa valeur moyenne.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.4 9

Proposition 2.6.4 : Fonction génératrice des moments de la loi N(0, 1) :

La fonction génératrice des moments de la loi normale centrée réduite est définie sur R par :

∀ t ∈R

M

X

(t) = e

2

t /2

b) Variable gaussienne réelle Définition 2.6.5 : La variable aléatoire réelle X définie sur un espace de probabilité (Ω, A, P) est une variable gaussienne si elle peut s'écrire

variable gaussienne centrée réduite, et a et b sont des réels.

X = aU + b, où U est une

{ Remarque : Avec cette définition, une variable constante (cas a = 0) est considérée

comme un cas particulier de variable gaussienne. On dit alors que cette variable est dégénérée.

Propriété 2.6.6 :

Une variable gaussienne admet des moments de tous ordres. 2

On a en particulier : E(X) = b et var(X) = a .

Théorème 2.6.7 :

Soit X une v.a. d'espérance m

et de variance σ

Les propriétés suivantes sont équivalentes : i)

ii)

2

non nulle. 2

X est gaussienne d'espérance m et de variance σ . X - m

On note :

σ

X

est gaussienne centrée réduite.

2

~ N(m, σ )

L’intérêt de ce théorème est de permettre de calculer la fonction de répartition de n’importe quelle loi gaussienne à partir de la table de la fonction de répartition de la loi N(0, 1).

En effet, pour tout réel x : F k

X

(x) = P(X ≤ x) = P(

Exemple :

X - m σ



x - m σ

x - m ) = Φ( ) σ

Si X suit une loi N(-1, 4), pour quelles valeurs de x

a-t-on P(X ≤ x)

≥ 3/4 ?

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.5 0

Proposition 2.6.8 :

Densité d'une variable gaussienne :

Une densité d'une variable gaussienne non dégénérée d'espérance m et de variance 2

σ

est définie par : x

→ f(x) =

1 2π  √

2

- (x-m) /2σ

e

σ

2

On a donc les égalités suivantes :



2π  √

Il

σ

2π  √

-∞ +∞

faut

-∞ +∞

σ



-∞

bien

gaussiens.

2

- (x-m) /2σ

x e



σ

1 2π  √

e



1





+∞

1

2

dx

2

- (x-m) /2σ

(x-m)

2

e

connaître

2

= 1

dx

2

- (x-m) /2σ

ces

2

=

m

dx

formules

E(X) = m

= σ

qui

2

var(X) = σ

interviennent

2

souvent

dans

les

calculs

{ R e m a r q u e : une loi normale est totalement connue si on a ses deux premiers moments, ce qui justifie la notation.

Proposition 2.6.9 : Fonction génératrice des moments de la loi N(m, σ La fonction génératrice des moments de la loi normale N(m, σ :

∀ t ∈R

M

X

(t) = e

2

2

2 ) :

) est définie sur R par

2

tm + t σ /2

Les variables gaussiennes jouent un très grand rôle en probabilités-statistiques.

On les utilise pour modéliser des phénomènes qui fluctuent symétriquement autour de leur moyenne.

Elles apparaissent aussi dans de nombreux calculs approchés, en application du théorème fondamental de la statistique, appelé théorème de la limite centrale. (Ce

théorème

dit

que

sous

de

bonnes

hypothèses,

une

somme

de

n

variables

aléatoires de même loi suit approximativement, quelle que soit cette loi, une loi normale si n est grand : voir le chapitre sur les convergences).

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.5 1

7 - Les lois usuelles Pour chaque loi est indiquée la définition, espérance et variance si elles existent. La fonction

pratique.

génératrice

des

moments

n'est

mentionnée

que

si

elle

est

utilisée

en

a) Lois discrètes finies • Loi certaine :

X est une v.a. quasi-certaine si elle est presque sûrement constante ( = constante sauf

peut-être sur un événement de probabilité nulle)

∃ a ∈ R

E(X) = a

P(X = a) = 1

var(X)

=

0

Réciproquement : Toute v.a. dont la variance est nulle est quasi-certaine.

• Loi discrète uniforme :

X

~ Un

X suit une loi discrète uniforme sur [[1, n]] si :  X(Ω) = [[1, n]]    1  ∀ k ∈ [[1, n]] P(X = k) =   n E(X) =

n+1

var(X)

2

• Loi de Bernoulli : X

=

2

n -1 12

~ B(1, p)

X suit une loi de Bernoulli de paramètre p (0 < p < 1) si :  

X(Ω) = {0, 1}

P(X

= 1) = p et P(X = 0) = 1-p

E(X) = p

var(X)

=

pq

Fonction génératrice des moments :

k Exemple

en posant q = 1-p

D

M

X

= R

∀ t ∈R

M

X

(t) = pe

t

+ q

:

On utilise une variable de Bernoulli pour modéliser le résultat d'une expérience

aléatoire à deux issues (succès ou échec), en posant X = 1 en cas de succès et X = 0 sinon.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.5 2

• Loi binômiale : X

~ B(n, p)

X suit une loi binômiale de paramètres n et p (n entier, 0 < p < 1) si :   X(Ω) = [[0, n]]    ∀ k ∈ [[0, n]] P(X = k)   E(X) = np

var(X)

=

C

k

p

n

k

q

= npq

Fonction génératrice des moments :

n-k

en posant q = 1-p.

D

M

X

= R

∀ t ∈R

M

X

(t) = (pe

t

+ q)

n

Pour n = 0, X est la variable certaine égale à 0.

Pour n = 1, on retrouve la loi de Bernoulli B(1, p) , ce qui justifie la notation.

k Exemple 1 :

On tire avec

remise

n

fois

dans

une

population

comportant

un

proportion

p

d'individus ayant une caractéristique donnée. La variable aléatoire égale au nombre

d'individus de l'échantillon ayant cette caractéristique suit une loi binômiale de paramètres n et p. k Exemple 2 :

On répète n fois de manière indépendante une expérience aléatoire à deux issues (succès avec probabilité p ou échec avec probabilité 1-p).

La variable aléatoire égale au nombre de succès obtenus suit une loi binômiale de paramètres n et p.

• Loi hypergéométrique : X

~ H(N, n, p)

X suit une loi hypergéométrique de paramètres N, n et p (N et n entiers non nuls, 0 < p < 1 tel que Np soit entier) si : X(Ω) 1 [[0, n]]     ∀ k ∈ [[0, n]] P(X  

= k)

=

C

k

C

Np

C

n

var(X)

=

npq

Nq

N

en posant q = 1-p , et avec la convention C

E(X) = np

n - k

j

M

= 0 si jM.

N-n N-1

k Exemple :

On tire sans remise n fois dans une population comportant N individus dont une

proportion p a une caractéristique donnée. La variable aléatoire égale au nombre d'individus de l'échantillon ayant cette caractéristique suit une loi hypergéométrique de paramètres N, n et p.

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.5 3

b) Lois discrètes dénombrables ~ G(p)

• Loi géométrique : X

X suit une loi géométrique de paramètre p (0 < p < 1) si :   X(Ω) = N*  k-1  ∀ k ∈ N* P(X = k) = p q 

E(X) =

1

var(X)

p

=

en posant q = 1-p

q

2

p

Fonction génératrice des moments : D

M

X

= ] -∞, - lnq [

∀ t < - lnq

M

X

(t) =

pe

t

1 - qe

t

k Exemple : Temps d'attente du premier succès.

On répète de manière indépendante une expérience aléatoire à deux issues (succès avec probabilité p ou échec avec probabilité q). La variable aléatoire égale au rang d'apparition du premier succès suit une loi géométrique de paramètre p.

• Loi de Poisson : X

λ) ~ P(λ

X suit une loi de Poisson de paramètre λ ( λ > 0) si :  X(Ω) = N     -λ P(X = k) = e ∀ k ∈ N  E(X) = λ

λ

k

k!

var(X) = λ

Fonction génératrice des moments : D

M

X

∀ t ∈R

= R

M

X

(t) = e

λ(e

t

- 1)

La loi de Poisson est souvent utilisée en probabilité pour modéliser toute une série de phénomènes aléatoires : -

le nombre d'appels reçus à un standard téléphonique pendant une période donnée,

- le nombre de clients se présentant à un guichet pendant une période donnée, - le nombre d'oeufs pondus par certains insectes, etc …

Cette loi apparaît aussi comme loi limite de la loi binômiale B(n, p

vers +∞ et (np ) tend vers λ.

n

) lorsque n tend

n

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.5 4

c) Lois continues • Loi continue uniforme sur l’intervalle [0, 1] :

X

~ U[0, 1]

X suit une loi (continue) uniforme sur [ 0, 1 ] si elle a pour densité : x

→ f(x)

E(X) =

=

1 (x) [0, 1]

1

1

var(X) =

2

12

Les v.a. de loi continue uniforme sur [0, 1] sont très utilisées en simulation.

• Loi continue uniforme sur l’intervalle [a, b] :

X

~ U[a, b]

X suit une loi (continue) uniforme sur [ a, b ] si elle a pour densité : x

→ f(x)

1

=

b-a

a+b

E(X) =

1

[a, b]

(x)

var(X) =

(moyenne des valeurs extrêmes)

2

(b-a)

2

12

λ) ~ E(λ

• Loi exponentielle : X

X suit une loi exponentielle de paramètre λ (λ > 0) si elle a pour densité : x

→ f(x) = λ e E(X) =

-λx

1

1

R+

(x)

var(X)

λ

=

1 λ

2

Fonction génératrice des moments : D

M

X

= ] -∞, λ [

∀ t < λ

• Loi Gamma : X

M

X

(t) =

λ

λ - t

~ G(a, θ )

X suit une loi Gamma de paramètres a et θ (a > 0 et θ > 0) si elle a pour densité : x

→ f(x) =

1

Γ(a) θ

E(X) = a θ

a

a-1 -x/θ x e 1

M

X

= ] -∞,

{ Remarque :

1

θ

[

var(X)

∀ t <



R +

=

a θ

1

θ

M

X

Γ(a) =

+∞

a-1 -x ∫ x e dx

0

2

Fonction génératrice des moments : D

(x)

(t) =

1

(1 - θt)

a

La loi exponentielle de paramètre λ est une loi Gamma G (1,

1

λ

).

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.5 5

• Loi normale ou de Laplace-Gauss

: X

~ N(m, σ

2

)

X suit une loi normale centrée réduite N(0, 1) si elle a pour densité : x

→ f(x) = E(X) = 0

1

2π  √

e

2

- x /2

var(X) = 1

Fonction génératrice des moments : D

M

X

= R

∀ t ∈R

M

X

(t) = e

2

t /2

2

X suit une loi normale N(m, σ ) si sa densité f est : x

→ f(x) = E(X) = m

1

2π  √

e

σ

2

- (x-m) /2σ

var(X) = σ

2

Fonction génératrice des moments : D



M

X

On

= R

∀ t ∈R

rencontre

un

M

X

(t) = e

certain

2

2

2

tm + t σ /2

nombre

d'autres

lois

dont

caractéristiques dans des livres standard de Probabilités :

on

peut

trouver

les

n - loi du chi-2 à n degrés de liberté (c’est une loi Gamma G( , 2), n entier ≥ 1), 2 - loi de Student-Fisher,

(ces deux lois sont utilisées en statistiques pour l’estimation et les tests) - loi log-normale, - loi Bêta,

- loi de Cauchy, - loi de Pareto

(utilisée en économie pour des modèles de répartition de revenus), etc …

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.5 6

FONCTION

DE

REPARTITION

x

0, 00

0, 01

0, 02

0, 0

0, 5000

0, 5040

0, 5080

0, 2

0, 5793

0, 5832

0, 5871

0, 1

0, 3 0, 4 0, 5 0, 6 0, 7 0, 8 0, 9

0, 5398

0, 6179 0, 6554 0, 6915 0, 7257 0, 7580 0, 7881 0, 8159

0, 5438

0, 6217 0, 6591 0, 6950 0, 7290 0, 7611 0, 7910 0, 8186

0, 5478

0, 6255 0, 6628 0, 6985 0, 7324 0, 7642 0, 7939 0, 8212

DE

LA

LOI

X ∼ N(0,1)

Φ (x) 0, 03

=

NORMALE

P(X ≤ x)

CENTREE

REDUITE

0, 04

0, 05

0, 06

0, 07

0, 08

0, 09

0, 5120

0, 5160

0, 5199

0, 5239

0, 5279

0, 5319

0, 5359

0, 5910

0, 5948

0, 5987

0, 6026

0, 6064

0, 6103

0, 6141

0, 5517

0, 6293 0, 6664 0, 7019 0, 7357 0, 7673 0, 7967 0, 8238

0, 5557

0, 6331 0, 6700 0, 7054 0, 7389 0, 7704 0, 7995 0, 8264

0, 5596

0, 6368 0, 6736 0, 7088 0, 7422 0, 7734 0, 8023 0, 8289

0, 5636

0, 6406 0, 6772 0, 7123 0, 7454 0, 7764 0, 8051 0, 8315

0, 5675

0, 6443 0, 6808 0, 7157 0, 7486 0, 7794 0, 8078 0, 8340

0, 5714

0, 6480 0, 6844 0, 7190 0, 7517 0, 7823 0, 8106 0, 8365

0, 5753

0, 6517 0, 6879 0, 7224 0, 7549 0, 7852 0, 8133 0, 8389

1, 0

0, 8413

0, 8438

0, 8461

0, 8485

0, 8508

0, 8531

0, 8554

0, 8577

0, 8599

0, 8621

1, 2

0, 8849

0, 8869

0, 8888

0, 8907

0, 8925

0, 8944

0, 8962

0, 8980

0, 8997

0, 9015

1, 1

1, 3 1, 4 1, 5 1, 6 1, 7 1, 8 1, 9

0, 8643

0, 9032 0, 9192 0, 9332 0, 9452 0, 9554 0, 9641 0, 9713

0, 8665

0, 9049 0, 9207 0, 9345 0, 9463 0, 9564 0, 9649 0, 9719

0, 8686

0, 9066 0, 9222 0, 9357 0, 9474 0, 9573 0, 9656 0, 9726

0, 8708

0, 9082 0, 9236 0, 9370 0, 9484 0, 9582 0, 9664 0, 9732

0, 8729

0, 9099 0, 9251 0, 9382 0, 9495 0, 9591 0, 9671 0, 9738

0, 8749

0, 9115 0, 9265 0, 9394 0, 9505 0, 9599 0, 9678 0, 9744

0, 8770

0, 9131 0, 9279 0, 9406 0, 9515 0, 9608 0, 9686 0, 9750

0, 8790

0, 9147 0, 9292 0, 9418 0, 9525 0, 9616 0, 9693 0, 9756

0, 8810

0, 9162 0, 9306 0, 9429 0, 9535 0, 9625 0, 9699 0, 9761

0, 8830

0, 9177 0, 9319 0, 9441 0, 9545 0, 9633 0, 9706 0, 9767

2, 0

0, 9772

0, 9779

0, 9783

0, 9788

0, 9793

0, 9798

0, 9803

0, 9808

0, 9812

0, 9817

2, 2

0, 9861

0, 9864

0, 9868

0, 9871

0, 9875

0, 9878

0, 9881

0, 9884

0, 9887

0, 9890

2, 1

2, 3 2, 4 2, 5 2, 6 2, 7 2, 8 2, 9 x

Φ(x)

0, 9821

0, 9893 0, 9918 0, 9938 0, 9953 0, 9965 0, 9974 0, 9981 3, 0

0, 99865

0, 9826

0, 9896 0, 9920 0, 9940 0, 9955 0, 9966 0, 9975 0, 9982 3, 1

0, 99904

0, 9830

0, 9898 0, 9922 0, 9941 0, 9956 0, 9967 0, 9976 0, 9982

0, 9834

0, 9901 0, 9925 0, 9943 0, 9957 0, 9968 0, 9977 0, 9983

0, 9838

0, 9904 0, 9927 0, 9945 0, 9959 0, 9969 0, 9977 0, 9984

0, 9842

0, 9906 0, 9929 0, 9946 0, 9960 0, 9970 0, 9978 0, 9984

0, 9846

0, 9909 0, 9931 0, 9948 0, 9961 0, 9971 0, 9979 0, 9985

Table pour les grandes valeurs de x : 3, 2

0, 99931

3, 3

0, 99952

3, 4

0, 99966

3, 5

0, 99976

3, 6

0, 999841

0, 9850

0, 9911 0, 9932 0, 9949 0, 9962 0, 9972 0, 9979 0, 9985 3, 8

0, 999928

0, 9854

0, 9913 0, 9934 0, 9951 0, 9963 0, 9973 0, 9980 0, 9986 4, 0

0, 999968

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.5 7

0, 9857

0, 9916 0, 9936 0, 9952 0, 9964 0, 9974 0, 9981 0, 9986 4, 5

0, 999997

Université Paris Dauphine / DUMI2E 2ème année / Probabilités 2008-2009 / Cours A.M.B. 1ère partie

p.5 8

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF