Probabilités - Presses des Mines

January 13, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Probabilités - Presses des Mines...

Description

F. Maisonneuve, Probabilités : variables aléatoires réelles et vectorielles. Cours et exercices, Paris : Presses des MINES, Collection Les cours, 2014. ISBN : 978-2-35671-075-8 © Presses des MINES - TRANSVALOR, 2014 60, boulevard Saint-Michel - 75272 Paris Cedex 06 - France [email protected] www.pressesdesmines.com Dépôt légal : 2014 Achevé d’imprimer en 2014 (Paris) Tous droits de reproduction, de traduction, d’adaptation et d’exécution réservés pour tous les pays.

Probabilités

COLLECTION Les Cours Dans la même Collection Francis Maisonneuve Mathématiques 1 Calcul différentiel, équations différentielles ordinaires et applications. Cours et exercices Francis Maisonneuve Mathématiques 2 Intégration, transformations intégrales et applications. Cours et exercices Francis Maisonneuve Mathématiques 3 Fonctions d'une variable complexe. Cours et exercices J. Adnot, D. Marchio, Ph. Rivière Cycles de vie des systèmes énergétiques Brigitte d'Andréa-Novel, Benoît Fabre, Pierre Jouvelot Acoustique-Informatique-MusiquE Jean-Claude Moisdon, Michel Nakhla Recherche opérationnelle Anne-Françoise Gourgues-Lorenzen, Jean-Marc Haudin, Jacques Besson Matériaux pour l'ingénieur

Pierre Chauvet Aide-mémoire de géostatistique linéaire Dominique Marchio, Paul Reboux Introduction aux transferts thermiques François Engel, Frédéric Kletz Cours de comptabilité analytique François Engel, Frédéric Kletz Cours de comptabilité générale Jacques Bouchard, Jean-Paul Deffain, Alain Gouchet Introduction au génie atomique Daniel Fargue Abrégé de thermodynamique : principes et applications Georges Pierron Introduction au traitement de l'énergie électrique Bernard Degrange Introduction à la physique quantique

Renaud Gicquel Systèmes énergétiques Tome 3

Michel Cohen de Lara, Brigitte d'Andréa-Novel Cours d'automatique

Renaud Gicquel Systèmes énergétiques Tome 2

Fixari Daniel Les Imperfections des marchés

Renaud Gicquel Systèmes énergétiques Tome 1

Jacques Lévy Introduction à la métallurgie générale

Thierry Weil Stratégie d'entreprise

Hugues Molet Comment maîtriser sa productivité industrielle ?

François Cauneau Mécanique des fluides

Margaret Armstrong, Jacques Carignan Géostatistique linéaire

Francis Maisonneuve

Probabilités Variables aléatoires réelles et vectorielles Cours et exercices

PROBABILITÉS

Sommaire Préface

v

Remerciements

vii

Introduction historique

ix

1 Probabilités des événements

1

1.1

Notion d’expérience aléatoire . . . . . . . . . . . . . . . . . . .

1

1.2

Evénements relatifs à une expérience aléatoire . . . . . . . . . .

2

1.3

Elaboration de la définition des probabilités . . . . . . . . . . .

4

A–

Point de vue “empirique” des fréquences statistiques . .

5

B–

Axiomes des probabilités . . . . . . . . . . . . . . . . . .

5

C–

Point de vue “logique” du principe de symétrie . . . . .

6

1.4

Propriétés élémentaires de la probabilité . . . . . . . . . . . . .

7

1.5

Théorèmes de continuité . . . . . . . . . . . . . . . . . . . . . .

8

A–

Continuités croissante et décroissante

. . . . . . . . . .

8

B–

Compléments . . . . . . . . . . . . . . . . . . . . . . . .

9

Probabilité conditionnelle – indépendance des événements . . .

9

A–

Définition de la probabilité conditionnelle . . . . . . . .

9

B–

Probabilités totales et composées . . . . . . . . . . . . .

10

C–

Evénements indépendants . . . . . . . . . . . . . . . . .

11

Exercices annotés et corrigés . . . . . . . . . . . . . . . . . . . .

14

A–

Énoncés . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

B–

Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . .

16

Exercices de synthèse . . . . . . . . . . . . . . . . . . . . . . . .

22

1.6

1.7

1.8

2 Variables aléatoires et lois

27

ii

SOMMAIRE

2.1

Définition d’une variable aléatoire (V.A.) . . . . . . . . . . . . .

2.2

Loi de probabilité d’une variable aléatoire . . . . . . . . . . . .

30

2.3

Indépendance des variables aléatoires . . . . . . . . . . . . . . .

31

2.4

Cas des variables aléatoires réelles

. . . . . . . . . . . . . . . .

32

A–

Fonction de répartition d’une V.A.R. . . . . . . . . . . .

32

B–

V.A.R. discrètes . . . . . . . . . . . . . . . . . . . . . .

33

C–

V.A.R. absolument continue ou à densité

. . . . . . . .

35

Variables aléatoires vectorielles . . . . . . . . . . . . . . . . . .

36

A–

Lois et indépendance . . . . . . . . . . . . . . . . . . . .

37

B–

Cas absolument continu . . . . . . . . . . . . . . . . . .

39

Exercices annotés et corrigés . . . . . . . . . . . . . . . . . . . .

45

A–

Énoncés . . . . . . . . . . . . . . . . . . . . . . . . . . .

45

B–

Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . .

48

Exercices de synthèse . . . . . . . . . . . . . . . . . . . . . . . .

55

2.5

2.6

2.7

3 Moments des variables aléatoires 3.1

27

61

Espérance mathématique d’une V.A.R. . . . . . . . . . . . . . .

61

A–

Approche empirique . . . . . . . . . . . . . . . . . . . .

61

B–

Rappels sur l’intégrale de Lebesgue . . . . . . . . . . . .

62

C–

Définition de l’espérance . . . . . . . . . . . . . . . . . .

64

3.2

Autres moments d’une V.A.R. . . . . . . . . . . . . . . . . . . .

66

3.3

Matrice de covariance . . . . . . . . . . . . . . . . . . . . . . .

68

3.4

Exercices annotés et corrigés . . . . . . . . . . . . . . . . . . . .

71

A–

Énoncés . . . . . . . . . . . . . . . . . . . . . . . . . . .

71

B–

Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . .

73

Exercices de synthèse . . . . . . . . . . . . . . . . . . . . . . . .

79

3.5

4 Conditionnement 4.1

4.2

81

Lois conditionnelles dans un couple (X, Y ) . . . . . . . . . . . .

81

A–

Cas où X est discret . . . . . . . . . . . . . . . . . . . .

82

B–

Cas où (X, Y ) est absolument continu . . . . . . . . . .

84

C–

Cas général . . . . . . . . . . . . . . . . . . . . . . . . .

85

D–

Conséquences . . . . . . . . . . . . . . . . . . . . . . . .

86

E–

Fonction aléatoire – randomisation . . . . . . . . . . . .

89

Approximation d’une variable aléatoire par une autre . . . . . .

91

iii

SOMMAIRE

4.3

4.4

A–

L’espace de Hilbert des variables de carré intégrable . .

92

B–

Régression linéaire selon une variable aléatoire X . . . .

94

C–

Régression fonctionnelle selon X : variable espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . .

95

Exercices annotés et corrigés . . . . . . . . . . . . . . . . . . . . 100 A–

Énoncés . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

B–

Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

Exercices de synthèse . . . . . . . . . . . . . . . . . . . . . . . . 110

5 Transformée d’une variable aléatoire

113

5.1

Transformée de Fourier – Laplace des probabilités sur R . . . . 113

5.2

Transformée d’une V.A.R. . . . . . . . . . . . . . . . . . . . . . 116 A–

Propriétés générales . . . . . . . . . . . . . . . . . . . . 116

B–

Convergence en loi . . . . . . . . . . . . . . . . . . . . . 119

5.3

Transformée d’une variable vectorielle . . . . . . . . . . . . . . 121

5.4

Exercices annotés et corrigés . . . . . . . . . . . . . . . . . . . . 124

5.5

A–

Énoncés . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

B–

Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

Exercices de synthèse . . . . . . . . . . . . . . . . . . . . . . . . 133

6 Variables et vecteurs gaussiens 6.1

6.2

6.3

6.4

V.A.R. Gaussiennes

. . . . . . . . . . . . . . . . . . . . . . . . 135

A–

Variable gaussienne réduite Z . . . . . . . . . . . . . . . 135

B–

Variable gaussienne Y = a Z + b . . . . . . . . . . . . . 138

Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . 138 A–

Définition . . . . . . . . . . . . . . . . . . . . . . . . . . 138

B–

Vecteur gaussien et matrice de covariance . . . . . . . . 140

C–

Régression dans un vecteur gaussien . . . . . . . . . . . 143

Exercices annotés et corrigés . . . . . . . . . . . . . . . . . . . . 145 A–

Énoncés . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

B–

Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

Exercices de synthèse . . . . . . . . . . . . . . . . . . . . . . . . 155

7 Processus ponctuels – processus de Poisson 7.1

135

Processus ponctuels A–

157

. . . . . . . . . . . . . . . . . . . . . . . . 157

Généralités . . . . . . . . . . . . . . . . . . . . . . . . . 157

iv

SOMMAIRE

B– 7.2

Variables de comptage d’un processus ponctuel . . . . . 158

Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 160 A–

Définition ponctuelle . . . . . . . . . . . . . . . . . . . . 160

B–

Accroissements du processus de Poisson . . . . . . . . . 162

C–

Relance d’un processus de Poisson . . . . . . . . . . . . 164

7.3

Exercice annoté et corrigé . . . . . . . . . . . . . . . . . . . . . 166

7.4

Exercices de synthèse . . . . . . . . . . . . . . . . . . . . . . . . 169

A Indications sur les convergences de V.A.R.

173

A.1 Trois notions de convergence . . . . . . . . . . . . . . . . . . . . 173 A.2 Lois des grands nombres . . . . . . . . . . . . . . . . . . . . . . 175 B Catalogue de variables aléatoires usuelles

177

B.1 Variables aléatoires entières et positives . . . . . . . . . . . . . 177 B.2 Variables aléatoires positives absolument continues . . . . . . . 180 B.3 Variables de signe quelconque absolument continues . . . . . . . 183 Indications bibliographiques

187

Index alphabétique

189

Préface Être titulaire pendant plus de quinze ans des quatre chaires d’enseignement du tronc commun de mathématiques du cycle ingénieurs civils de l’Ecole des Mines de Paris est une gageure que peu auraient accepté de relever. Bénéficier, dans l’exercice de ce travail, du respect et du soutien constant de ses élèves, qui, s’ils n’ont pas tous pu, su ou voulu apprécier la richesse du problème de Cauchy, ont toujours en revanche loué la rigueur scientifique et la qualité pédagogique des cours et supports de cours de mathématiques, bénéficier de ce soutien et de ce respect donc est certainement ce qui restera quand viendra le temps de saluer ce grand professeur qu’est Francis Maisonneuve. Je sais que ces ouvrages resteront longtemps une référence, et espère que les promotions futures et autres lecteurs sauront apprécier la finesse et la qualité de ce qui leur est proposé ici. Je souhaite à tous les établissements d’enseignement de disposer de tels cours. Nicolas Cheimanoff Directeur de l’Enseignement MINES ParisTech

Remerciements Je tiens à exprimer ma reconnaissance aux jeunes — et moins jeunes — mathématiciens professionnels et ingénieurs de recherche qui m’ont fait l’honneur d’animer une ou plusieurs années les séances d’exercices illustrant les éléments de cours, et qui m’ont suggéré à cette occasion de multiples améliorations touchant au fond comme à la forme. Je tiens aussi à remercier les nombreux étudiants « utilisateurs » qui, par la qualité de leurs questions, la rigueur de leurs critiques ou la logique apparente de certaines interprétations parfois fort éloignées de celles escomptées, ont contribué à faire évoluer la rédaction des documents vers plus de clarté. De manière plus générale, je voudrais souligner la qualité des relations intellectuelles et humaines qui prévaut à tout niveau dans l’établissement où j’ai le plaisir d’exercer mon métier d’enseignant mathématicien depuis de nombreuses années, et où s’expriment des talents très divers. Que tous en soient remerciés ! Francis Maisonneuve

Introduction historique Les idées de hasard et de probabilité semblent présentes dans toutes les sociétés humaines, où elles s’insèrent plus ou moins aisément dans les systèmes religieux et les interrogations philosophiques développés par ces diverses cultures. L’idée de quantifier les probabilités et de chercher à les calculer, avérée en Occident dès le xv e siècle, va concerner exclusivement les jeux de hasard à nombre fini de cas possibles ; il faudra en fait attendre le xvii e siècle, avec Pascal et Fermat (puis Huygens), pour que commencent à être clairement distinguées les notions de probabilité et d’espérance dans le cadre naissant du calcul combinatoire. Au xviii e siècle Jacques Bernoulli et Abraham de Moivre dégagent et établissent les premières lois des grands nombres ; le recours à l’analyse mathématique, qui permet de se dégager du calcul combinatoire, s’affirme avec le grand traité de Laplace, puis les travaux de Poisson, Markov . . . au xix e siècle. Parallèlement la prise de conscience que le champ d’application du calcul des probabilités déborde largement les jeux de hasard apparaît enfin avec Buffon et Condorcet ; la naissance ultérieure de la statistique moderne en Angleterre affirmera définitivement ce caractère de généralité. Avec le mathématicien Emile Borel, qui démontre en 1908 la fondamentale loi forte des grands nombres au moyen de la notion de mesure σ-additive, se fait jour la perspective éclairante de fonder le calcul des probabilités sur la théorie de la mesure et de l’intégrale de Lebesgue ; ce sera chose faite en 1933 avec l’axiomatique des probabilités développée par le mathématicien Kolmogorov, et à présent acceptée par l’ensemble des probabilistes. Elle détermine la présentation retenue dans ce cours. La théorie des probabilités et la modélisation probabiliste jouent un rôle croissant dans de nombreuses branches des mathématiques appliquées, de la physique et des sciences de l’ingénieur. Les processus stochastiques sont couramment utilisés pour modéliser des phénomènes mécaniques, économiques, . . . se

x

INTRODUCTION HISTORIQUE

déroulant dans le temps ou/et l’espace. La statistique mathématique (paramétrique) part de données d’observation qu’elle considère comme un échantillon dans le cadre d’un modèle de lois probabilistes, en vue d’évaluer certains paramètres afin de les connaître ou pour tester certaines hypothèses. Enfin diverses méthodes de simulation aléatoire permettent le calcul approché d’un paramètre ou l’estimation aux moindres carrés d’une variable aléatoire partiellement inconnue, dans des situations où tout traitement analytique paraît exclu.

Chapitre 1

Probabilités des événements 1.1

Notion d’expérience aléatoire

La notion première de la théorie des probabilités est celle d’expérience aléatoire, c’est-à-dire d’expérience sur un système dont le résultat (ou l’état résultant) n’est pas connu d’avance et peut varier si on répète l’expérience dans des conditions identiques. Exemples 1.1.1 a) Jeux de hasard (loterie, jet de dés, jeux de pile ou face de durée finie ou infinie) b) Durée de fonctionnement d’un appareil c) Point de chute d’un projectile d) Trajectoire de ce projectile pendant un intervalle de temps [t1 , t2 ](t1 < t2 ). Une telle expérience produit par hypothèse un unique résultat – que l’on note traditionnellement ω – parmi un ensemble de résultats possibles (éventualités), ensemble encore appelé univers et noté Ω. Une expérience aléatoire peut donc être représentée mathématiquement comme le simple tirage au hasard d’un élément ω dans un ensemble Ω. Exemples 1.1.2, suite (énoncer la proposition correspondante) a)

– Loterie : Ω = [[1, n]] ⊂ N, sous-ensemble des numéros émis.

2

chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS

– Jet de 2 dés : ω = (x, y) avec 1 ≤ x, y ≤ 6, d’où Ω = [[1, 6]]2 ⊂ N2 . – Jeu de pile ou face de durée infinie : en codant par exemple 0 pour pile et 1 pour face, les ω sont des suites dans {0,1}, d’où Ω = {0, 1}N . b) Ω = N ou R+ selon le mode de mesure de la durée de vie. c) ω = (x, y), couple de coordonnées du point dans un repère donné, d’où Ω = R2 . d) Ω = C 2 ([t1 , t2 ]), ensemble des applications de classe C 2 de [t1 , t2 ] dans R3 . Ces exemples illustrent la souplesse de cette formalisation, mais aussi la rapide complexité de l’univers Ω. Il est de plus souvent utile de pouvoir considérer une suite de répétitions de la même expérience aléatoire, le résultat global étant formé de la suite des résultats successifs. L’univers relatif à cette expérience globale est alors simplement ΩN (cf. pile ou face). Notons enfin que, contrairement à ce que semblent suggérer les exemples précédents, il peut y avoir des manières bien différentes de représenter les résultats d’une même expérience aléatoire, ce qui conduit à des choix d’univers Ω plus ou moins économiques ou judicieux (cf. exercices).

1.2

Evénements relatifs à une expérience aléatoire

On appelle événement relatif à une expérience aléatoire une proposition énonçant une propriété du système, qui est vérifiée (et on dit alors que l’événement est réalisé) ou non selon le résultat obtenu à l’issue de l’expérience. On peut alors, adoptant le point de vue ensembliste, identifier un événement au sous-ensemble (ou partie) de Ω constitué des résultats pour lesquels il est réalisé : proposition A ' {ω ∈ Ω : A est réalisé pour ω}. Exemples 1.2.1, fin (énoncer la proposition correspondante) a) 2 dés : A = {ω = (x, y) ∈ [[1, 6]]2 : x + y ≥ 10} b) A = [t1 , t2 ] où 0 < t1 < t2 p c) A = {ω = (x, y) ∈ R2 : x2 + y 2 ≤ r}

3

1.2. Evénements relatifs à une expérience aléatoire

d) A = {ω ∈ C 2 ([t1 , t2 ]) :

sup kω(t)k2 ≤ r} (k k2 désignant la norme t∈[t1 ,t2 ]

euclidienne de R3 ). Correspondance entre opérations logiques et ensemblistes Terminologie probabiliste

Terminologie ensembliste

événement certain

ensemble entier



événement impossible

ensemble vide



événement contraire

complémentaire

Ac

événement atomique

singleton

{ω}

implication

inclusion (au sens large)



et

intersection



ou (non exclusif)

réunion



événements incompatibles

parties disjointes

A1 ∩ A2 = ∅

ou exclusif (dans ce cas)

réunion disjointe

système exhaustif d’événts

partition

A1 ] A2 U An = Ω

(un et un seul se réalise)

(finie ou dénombrable)

Notations

n

Etant donné un ensemble (ou classe) de propositions énonçables sur l’expérience aléatoire, on peut toujours lui rajouter les événements certain et impossible et en fabriquer d’autres par les opérations logiques les plus courantes rappelées ci-dessus : contraire, ainsi que et et ou, pour toute suite finie ou même infinie en vue de passages à la limite. Du point de vue ensembliste, ceci revient d’après le tableau ci-dessus à considérer comme “complète” une classe d’événements A ⊂ P(Ω) vérifiant les trois propriétés : (1) Ω ∈ A et ∅ ∈ A (2) A ∈ A ⇒ Ac ∈ A (3) ∀ n ∈ N, An ∈ A ⇒

S n

An ∈ A et

T

An ∈ A

n

qui sont les propriétés spécifiant une tribu de parties de Ω†1 . 1

Voir par exemple [1], définition 1.1.1

4

chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS

En pratique, on ne s’intéresse dans une expérience aléatoire qu’à la réalisation ou non d’une classe très limitée d’événements prédéfinis. Si C ⊂ P(Ω) désigne la classe de parties de Ω correspondante, C ne constitue pas en général une tribu, mais on rappelle†2 qu’il existe une plus petite tribu au sens de l’inclusion contenant C, dite tribu engendrée par C et notée T (C) (c’est l’intersection de toutes les tribus contenant C) ; on pose alors A = T (C), et on l’appelle tribu des événements. Exemples 1.2.2 a) Le cas particulier où C est constitué d’un nombre fini ou dénombrable d’événements incompatibles An , formant partition de Ω. On dit dans ce cas que A = T (C) est une tribu explicite, car les éléments de A sont explicitement les réunions quelconques de An . En particulier si Ω lui-même est fini ou dénombrable (exemple a du paragraphe 1.1, sauf pile ou face de durée infinie), il est naturel de considérer les événements atomiques {ω} ; d’où A = P(Ω) dans ce cas. b) La situation générale où l’on ne peut pas expliciter les éléments de A à partir de ceux de C , en “trop grand nombre” (exemples b, c et d du paragraphe 1.1). C’est notamment le cas de la tribu de Borel de Ω = R ou Rn , notée B, qui est par définition la tribu engendrée par la classe des ouverts, ou encore par la classe des pavés n Q C = { [ai , bi ] : ∀ i ∈ [[1, n]], ai ≤ bi }; i=1

dans le cas de R, on peut aussi choisir C = { ] − ∞, x[ : x ∈ R}. Les éléments de la tribu de Borel B = T (C) sont appelés les boréliens. Le couple (Ω, A) constitué d’une part du “support matériel” — les résultats possibles ω ∈ Ω — et d’autre part du discours autorisé les concernant — les événements A ∈ A — est un espace mesurable appelé en l’occurrence espace probabilisable ; et on va étudier comment il est possible de le “probabiliser”.

1.3

Elaboration de la définition des probabilités

Il s’agit d’affecter à tout événement A ∈ A un poids P (A), dit probabilité de A, devant exprimer la plus ou moins grande chance a priori de sa réalisation, notion dont l’existence est posée comme intuitivement évidente. 2

Voir par exemple [1], proposition 1.1.3

5

1.3. Elaboration de la définition des probabilités

A–

Point de vue “empirique” des fréquences statistiques

L’idée est qu’on doit parvenir à révéler et à évaluer la probabilité d’un événement A en répétant un grand nombre de fois sans interaction et dans des conditions identiques l’expérience aléatoire correspondante, et en observant la fréquence de réalisation de A. De fait, si l’on note nA le nombre de fois où A se réalise au cours de n répétitions de l’expérience, on constate que la fréquence expérimentale nA /n fluctue de moins en moins lorsque n augmente, autour d’une valeur limite f (A) appelée fréquence (ou encore probabilité) statistique de A : ce phénomène fondamental est appelé loi empirique des grands nombres (bien sûr, des fluctuations importantes de nA /n restent toujours possibles mais elle s’avèrent de plus en plus rares lorsque n augmente). On retient les propriétés évidentes de structure de la fréquence statistique f : f (∅) = 0 , f (A) ≥ 0 , f (Ω) = 1 , f (A ∪ A0 ) = f (A) + f (A0 ) si A ∩ A0 = ∅.

B–

Axiomes des probabilités

On va poser les axiomes de définition des probabilités par analogie avec les propriétés de la fréquence statistique ; cela fait, il sera possible de développer mathématiquement la théorie des probabilités sans autre recours à l’observation des phénomènes physiques. Conformément à la démarche scientifique habituelle, c’est en dernier ressort le seul contrôle expérimental des prévisions issues de la théorie qui pourra déterminer si celle-ci rend compte correctement des phénomènes aléatoires et ainsi valider cette dernière : de fait, on parviendra à établir que la vitesse de convergence de la fréquence de réalisation d’un √ événement A vers sa limite doit être en 1/ n lorsque le nombre n de répétitions de l’expérience tend vers l’infini, ce que corrobore l’expérience. Définition 1.3.1 On appelle probabilité sur (Ω, A) une application P de A dans R telle que : (1) P (∅) = 0 et ∀ A ∈ A, P (A) ≥ 0 (2) P (Ω) = 1

(positivité) (totalité)

(3) Pour toute suite (An )n∈N d’éléments 2 à 2 disjoints de A, P(

]

n∈N

An ) =

∞ X n=0

P (An )

(σ-additivité)

6

chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS

Sur le plan mathématique, une probabilité est donc simplement une mesure positive finie de masse 1 sur A†3 . En particulier, on a la propriété d’additivité simple : pour A0 , · · · , An éléments 2 à 2 disjoints de A, P(

] 0≤i≤n

Ai ) =

n X

P (Ai ) (poser ∀ i ≥ n + 1, Ai = ∅).

i=0

Si P (A) = 1, on dit que A est presque certain ou presque sûr, et si P (A) = 0, on dit que A est presque impossible ; si f et g sont deux fonctions définies sur ps Ω telles que A = {ω ∈ Ω : f (ω) 6= g(ω)} est presque impossible, on note f = g et on dit que f et g sont égales presque sûrement. Le triplet (Ω, A, P ) est un espace mesuré appelé en l’occurrence espace probabilisé ; et tout ce chapitre se résume à ce stade à ceci : Toute expérience aléatoire se modélise par la donnée d’un espace probabilisé (Ω, A, P )

Il est instructif de réfléchir au véritable tour de passe-passe conceptuel que constitue cette approche, par laquelle on prétend rendre compte de la notion de hasard tout en l’évacuant totalement du formalisme, au bénéfice d’objets purement déterministes (ensembles, applications). En fait, on a substitué à l’expérience aléatoire réelle, singulière et imprévisible, la collection virtuelle de tous ses résultats possibles et des probabilités de réalisation a priori des événements associés. Cette “mise à plat” suppose idéalement connu le système sur lequel porte l’expérience et réduit ainsi le phénomène aléatoire à une situation schématique et figée de tirage au sort d’un élément ω dans une “urne” Ω parfaitement identifiée. Cette vision “mécaniste” s’avère cependant d’une extraordinaire fécondité, car elle autorise le raisonnement déductif et l’emploi des méthodes de l’analyse mathématique dans le domaine de l’incertain.

C–

Point de vue “logique” du principe de symétrie

On appelle modèle discret le cas où Ω est fini (ou dénombrable) et A = P(Ω) ; toute probabilité P sur un tel espace probabilisable vérifie 3

Voir par exemple [1], paragraphe 2.1

7

1.4. Propriétés élémentaires de la probabilité

∀ A ⊂ Ω, P (A) =

P

p(ω), où p : Ω → R est un poids,

ω∈A

P

c’est-à-dire : (∗) ∀ ω ∈ Ω, p(ω) = P ({ω}) ≥ 0 et

p(ω) = 1.

ω∈Ω

P =

Ainsi

X

p(ω) δω ,

ω∈Ω

δω désignant la mesure de Dirac en ω, caractérisée par la relation ∀ A ∈ A, δω (A) = 1lA (ω), valeur en ω de l’indicatrice de A, à savoir 1 si ω ∈ A et 0 sinon. Inversement, pour toute famille finie ou dénombrable de coefficients (p(ω))ω∈Ω vérifiant les conditions (∗) ci-dessus, la formule encadrée définit une probabilité P comme somme pondérée des probabilités δω . Dans le cas d’un système n’admettant qu’un nombre fini de configurations possibles, des considérations de symétrie a priori du système, ou même simplement “d’égale ignorance” sur son évolution, peuvent conduire à définir Ω de telle sorte qu’aucun résultat ω ne soit privilégié, c’est-à-dire que les événements atomiques {ω} soient équiprobables (p constant). Si on note card (A) le cardinal d’un ensemble A, on a alors nécessairement : ∀ ω ∈ Ω, p(ω) =

1 nb cas favorables card (A) et ∀ A ⊂ Ω, P (A) = = , card (Ω) card (Ω) nb cas possibles

c’est-à-dire que la seule probabilité P vérifiant ce principe de symétrie est la probabilité uniforme sur Ω : on peut alors, dans un tel contexte, faire l’économie de toute référence à la loi empirique (telle était la définition “générale” de la probabilité encore proposée en 1812 faute de mieux par le mathématicien Laplace). Ces calculs de cardinaux d’ensemble, qui historiquement représentaient l’essentiel du calcul des probabilités, sont en général de nature combinatoire : dénombrements d’échantillons au moyen d’arrangements, et de sous populations au moyen de combinaisons (cf. exercices).

1.4

Propriétés élémentaires de la probabilité

On désigne ainsi des propriétés qui concernent seulement un nombre fini d’événements. Ce sont, sauf la dernière (exercice), des conséquences immédiates de

8

chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS

la définition axiomatique d’une probabilité comme mesure positive finie de masse 1 : 1) ∀ A ∈ A, P (A) ∈ [0, 1] et P (Ac ) = 1 − P (A) 2) ∀ (A, B) ∈ A2 , (A ⊂ B) ⇒ (P (A) ≤ P (B)) 3) ∀ (A, B) ∈ A2 , P (A ∪ B) = P (A) + P (B) − P (A ∩ B) S P 4) Inégalité de Boole : ∀ (Ai )1≤i≤n ∈ An , P ( Ai ) ≤ P (Ai ) 1≤i≤n

1≤i≤n

5) Formule de Poincaré : ∀ (Ai )1≤i≤n ∈ An , S P( Ai ) = S1 − S2 + · · · + (−1)n−1 Sn 1≤i≤n

où P S1 = P (Ai ), S2 = 1≤i≤n

P

P (Ai ∩ Aj ), . . . , Sn = P (A1 ∩ A2 ∩ · · · ∩ An ).

1≤i 0) ; d’où : Comme

Définition 1.6.2 (axiomatique) Soit (Ω, A, P ) un espace probabilisé et soit B un événement fixé tel que P (B) > 0. On appelle probabilité conditionnelle à B ou probabilité sachant B (associée à P ) l’application PB = P ( | B) définie sur A par : ∀ A ∈ A,

PB (A) = P (A | B) =

P (A ∩ B) . P (B)

On observe que P ( | B) n’est autre que la mesure trace P ( ∩B) = 1lB P de P sur B, au facteur de normalisation 1/P (B) près (pour que ce soit encore une probabilité). On note A ⊂ B ⇒ P (A | B) =

P (A) et A ∩ B = ∅ ⇒ P (A | B) = 0 ; P (B)

en particulier, comme escompté, P (B | B) = 1 et P (B c | B) = 0. On utilise souvent la relation P (A ∩ B) = P (A | B) P (B) si P (B) > 0 qui s’étend ensuite par récurrence en : P (A1 ∩ · · · ∩ An ) = P (A1 | A2 ∩ · · · ∩ An ) P (A2 | A3 ∩ · · · ∩ An ) · · · P (An−1 | An ) P (An ) Permettant la prise en compte de connaissances supplémentaires sur le système étudié, le conditionnement est une notion-clé du calcul des probabilités et de la statistique mathématique. Elle sera reprise et étendue dans la suite (lois et espérance conditionnelles).

B–

Probabilités totales et composées

Il s’agit d’une importante méthode de calcul des probabilités par décomposition U selon un système exhaustif d’événements (partition) Bn = Ω : n

1.6. Probabilité conditionnelle – indépendance des événements

∀ A ∈ A,

A=A∩(

U

Bn ) =

n

U

11

(A ∩ Bn )

n

d’où la formule des probabilités totales et composées P (A) =

X

P (A∩Bn ) =

n

X

P (A | Bn ) P (Bn )

n

La première égalité donnant P (A) a une grande utilité pratique. La seconde égalité a aussi une portée théorique, car elle fait apparaître la probabilité a priori P comme une moyenne pondérée des probabilités conditionnelles, notion qui sera reprise et étendue lors de l’étude des lois conditionnelles. Conséquence : formule de Bayes ou de la “probabilité des causes” U Etant donné un système exhaustif d’événements n Bn = Ω, on se demande quelle est la probabilité de réalisation P (Bn | A) de chacun des Bn sachant qu’un autre événement A s’est réalisé ; ceci dans le but de déterminer lequel d’entre eux a vraisemblablement joué pour produire A (problème “inverse” d’attribution de cause).  Supposant connue la suite des probabilités conditionnelles P (A | Bn ) n , on utilise la symétrie de l’écriture P (Bn | A) P (A) = P (A ∩ Bn ) = P (A | Bn ) P (Bn ) pour obtenir la formule de Bayes : pour P (A) > 0, P (Bn | A) =

C–

P (A | Bn ) P (Bn ) P (A | Bn ) P (Bn ) =P P (A) i P (A | Bi ) P (Bi )

Evénements indépendants

L’indépendance de deux événements exprime l’idée que la réalisation de l’un n’influe pas sur (la probabilité de) celle de l’autre. Il s’agit d’une hypothèse profondément simplificatrice pour les calculs, qui peut être exacte de par la nature même du problème ou du fait d’une certaine symétrie du système considéré ; elle peut aussi n’être vérifiée qu’en première approximation. Définition 1.6.3 (et proposition) Un événement A ∈ A est dit indépendant de B si P (A | B) = P (A) ou (exclusif) P (B) = 0.

12

chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS

Une condition nécessaire et suffisante est alors, du fait de la définition de P (A | B) : P (A ∩ B) = P (A) P (B) (car P (A ∩ B) = 0 si P (B) = 0) ; de sorte que, symétriquement, B est indépendant de A et l’on dit simplement que A et B sont indépendants. Exemples 1.6.4 a) Jet de 2 dés (simultanément ou successivement), ou encore jet du même dé deux fois de suite. On admet par principe l’absence d’interaction entre ces lancers, de sorte que tout événement A concernant un seul des lancers est indépendant de tout événement B concernant l’autre. C’est le cas plus généralement d’événements A et B relatifs à deux expériences aléatoires élémentaires, ou à la même expérience répétée deux fois, sans interaction. b) Jet d’un seul dé non pipé (équiprobabilité des faces numérotées de 1 à 6), A = {2, 4, 6} et B = {5, 6} : A et B sont indépendants, puisque P (A) =

3 1 2 1 1 = , P (B) = = et P (A ∩ B) = P ({6}) = 6 2 6 3 6

mais cela tient cette fois à une forme “d’orthogonalité” des deux événements considérés : l’information que le numéro obtenu soit pair ne rend ni plus ni moins probable le fait qu’il vaille au moins 5. Exercice Etant donné deux événements A et B, établir les équivalences : A et B indépendants ⇔ Ac et B indépendants ⇔ Ac et B c indépendants. Indépendance mutuelle de n événements On généralise la condition nécessaire et suffisante d’indépendance de deux événements, que l’on érige en : Définition 1.6.5 A1 , . . . , An ∈ A sont dits (mutuellement) indépendants si ∀ k ∈ [[2, n]] et ∀ i1 , . . . , ik k entiers 2 à 2 distincts de [[1,n]], on a P (Ai1 ∩ · · · ∩ Aik ) = P (Ai1 ) · · · P (Aik )

1.6. Probabilité conditionnelle – indépendance des événements

13

Remarques 1.6.6 • Cette définition implique l’indépendance des événements 2 à 2 (choisir k = 2), mais la réciproque n’est pas vraie, comme le montre l’exemple d’un jeu consistant en 2 piles ou faces indépendants (Ω = {0, 1}2 , P uniforme), avec A1 = {(x, y) : x = 1} , A2 = {(x, y) : y = 1} et A3 = {(x, y) : x = y} • Noter que la définition de l’indépendance de A1 , . . . , An ∈ A pour n ≥ 3 n’est pas P (A1 ∩ · · · ∩ An ) = P (A1 ) · · · P (An ) (dire pourquoi). • La définition s’étend à une suite infinie d’événements, en considérant toutes les sous suites finies. La notion de conditionnement peut s’avérer fort subtile, même lorsque le nombre de résultats possibles est fini ; c’est le cas dans l’exercice suivant, où l’on devra déterminer dans les 3 contextes indiqués un triplet (Ω, A, P ) convenable pour modéliser l’expérience aléatoire décrite : En admettant que les sexes F ou M des nouveaux nés sont équiprobables et indépendants, et considérant une famille de deux enfants, déterminer quelle est la probabilité conditionnelle que les deux enfants soient des filles dans chacun des cas : • je sais que l’aîné des enfants est une fille ; (réponse facile : 1/2) • on m’a informé que l’un au moins des enfants est une fille ; (réponse : 1/3) • je sais que l’un au moins des enfants est une fille, suite à sa rencontre, mais j’ignore s’il s’agit de l’aînée ou de la cadette. (réponse plus délicate : 1/2)

14

chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS

1.7

Exercices annotés et corrigés

A–

Énoncés

1. Dans quelle circonstance particulière deux événements A et B tels que l’événement A ∪ B soit presque sûr sont-ils indépendants ? (réponse : A ou B presque sûr)

2. Soient A et B deux événements tels que P (A) = 3/8 , P (B) = 1/2 et P (A ∩ B) = 1/4. Calculer P (Ac | B c ). (réponse : 3/4)

3. Soient A et B deux événements indépendants tels que P (A) = 1/2 et P (A ∪ B) = 2/3. Calculer P (B c | A). (réponse : 2/3)

4. Etablir que deux événements A et B sont indépendants si et seulement si : P (A ∩ B) P (Ac ∩ B c ) = P (A ∩ B c ) P (Ac ∩ B). (exprimer les deux membres de l’égalité en fonction de P (A) , P (B) et P (A∩B) pour A et B quelconques)

5. Soient A, B et C trois événements indépendants 2 à 2, avec P (C) > 0. Donner une condition nécessaire et suffisante sur A, B et C pour que A et B soient indépendants relativement à la probabilité conditionnelle P ( | C), à la place de P . (réponse : A, B et C mutuellement indépendants)

6. On jette une paire de dés non pipés. Calculer la probabilité p pour que la somme obtenue soit supérieure ou égale à 10, sachant que l’un au moins des deux dés a donné 5. (réponse : 3/11)

7. Soit un avion de type A, à 4 réacteurs, et un avion de type B, à 2 réacteurs. On suppose que chaque réacteur a, indépendamment des autres, une probabilité p ∈ ]0, 1[ de tomber en panne. Sachant que la panne d’un seul réacteur n’empêche pas l’avion de type A d’arriver quand même à destination, choisissez votre moyen de transport en fonction de p. (réponse : A pour p < 2/3 et B pour p > 2/3)

15

1.7. Exercices annotés et corrigés

8. Lors de naissances gémellaires, les vrais jumeaux (un même œuf divisé après fécondation) sont de même sexe ; tandis que les faux jumeaux (deux œufs fécondés) peuvent être de même sexe ou de sexes différents avec la même probabilité 1/2. On s’intéresse ( ici à la proportion de vrais jumeaux. On considère les événements :

A ' “ les nouveaux nés sont de vrais jumeaux ” . B ' “ les nouveaux nés sont des jumeaux de même sexe ”

a) Exprimer P (B) en fonction de P (A). (réponse : (1+P(A))/2) b) Une étude statistique des naissances gémellaires a montré qu’il y avait 35% de jumeaux de sexes opposés. Calculer P (A) et P (A | B). (réponses : 0, 3 et ≈ 0.46)

9. Démontrer le lemme de Borel – Cantelli (cf. le paragraphe 1.5.B –). (pour le premier cas, généraliser d’abord l’inégalité de Boole à une suite infinie T d’événements ; pour le second cas, établir lim P ( Acn+p ) = 0 en utilisant q→∞

0≤p≤q

l’inégalité e−u ≥ 1 − u pour u ≤ 1 et conclure)

10. Une seule des 3 portes de votre prison mène à la liberté, mais vous ignorez totalement laquelle . . . Vous désignez au hasard l’une d’entre elles au gardien, qui se garde de vous informer si votre choix est le bon mais qui, histoire de parler, vous désigne en retour comme mauvaise l’une des deux portes restantes. Avezvous intérêt à changer votre choix ? (réponse : oui, à méditer . . . ) 11. On étudie le problème du tirage sans remise de n boules dans une urne contenant a boules blanches et b boules rouges (cf. l’exercice 5 du paragraphe 1.8). On considère l’événement : An+1 ' “ la (n + 1) e boule tirée est blanche ” (en supposant n ≤ a + b − 1). Montrer que P (An+1 ) = a/(a + b) (On suggère de conditionner selon les valeurs de K, nombre aléatoire de boules blanches obtenues lors des n premiers tirages).

On notera que, comme le résultat précédent est encore valable en remplaçant n par n0 ≤ n, on a en fait établi (en posant i = n0 + 1) : a ∀ i ∈ {1, . . . , n} , P (Ai ) = a+b avec Ai ' “ la i e boule tirée est blanche ”. Comment interpréter ce résultat ?

16

chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS

B–

Corrigés

1. Dans quelle circonstance particulière deux événements A et B tels que l’événement A ∪ B soit presque sûr sont-ils indépendants ? Solution : On a 1 = P (A ∪ B) = P (A) + P (B) − P (A ∩ B), donc 1 = P (A) + P (B) − P (A) P (B) si et seulement si (ssi) A et B sont indépendants.   Or l’égalité précédente se récrit 1 − P (A) 1 − P (B) = 0, qui est vérifiée ssi A ou B est presque sûr.

2. Soient A et B deux événements tels que P (A) = 3/8 , P (B) = 1/2 et P (A ∩ B) = 1/4. Calculer P (Ac | B c ). Solution : c P (A ∪ B) P (Ac ∩ B c ) 1 − P (A) − P (B) + P (A ∩ B) P (A | B ) = = = ; P (B c ) P (B c ) 1 − P (B) 1 1 3   1− 8 − 2 + 4 5 = 3/4. donc ici P (Ac | B c ) = =2 1− 1 8 1− 2 c

c

3. Soient A et B deux événements indépendants tels que P (A) = 1/2 et P (A ∪ B) = 2/3. Calculer P (B c | A). Solution : On a A et B indépendants =⇒ A et B c indépendants :  en effet P (A∩B c ) = P A\(A∩B) = P (A)−P (A∩B) = P (A)−P  (A) P (B) car c A et B sont indépendants, donc P (A ∩ B ) = P (A) 1 − P (B) = P (A) P (B c ). Ainsi P (B c | A) = P (B c ) = 1 − P (B) ; or P (A ∪ B) = P (A) + P (B) − P (A ∩ B) avec A et B indépendants, donc P (B) − P (A) P (B) = P (A ∪ B) − P (A) et P (A ∪ B) − P (A) . P (B) = 1 − P (A) On conclut que P (B c | A) = 1 − P (B) = 1− 1−

2 3 1 2

=

1 − P (A ∪ B) , soit ici P (B c | A) = 1 − P (A)

2 . 3

4. Etablir que deux événements A et B sont indépendants si et seulement si : P (A ∩ B) P (Ac ∩ B c ) = P (A ∩ B c ) P (Ac ∩ B). Solution : On a P (Ac ∩ B c ) = P (A ∪ B)c = 1 − P (A) − P (B) + P (A ∩ B), 

donc

1.7. Exercices annotés et corrigés

17

 P (A ∩ B) P (Ac ∩ B c ) = P (A ∩ B) − P (A ∩ B) P (A) + P (B) − P (A ∩ B) .   P (A ∩ B c ) = P A \ (A ∩ B) = P (A) − P (A ∩ B) D’autre part , donc   P (Ac ∩ B) = P B \ (A ∩ B) = P (B) − P (A ∩ B)  P (A ∩ B c ) P (Ac ∩ B) = P (A) P (B) − P (A ∩ B) P (A) + P (B) − P (A ∩ B) . On a donc bien P (A ∩ B) P (Ac ∩ B c ) = P (A ∩ B c ) P (Ac ∩ B) ⇐⇒ P (A ∩ B) = P (A) P (B).

5. Soient A, B et C trois événements indépendants 2 à 2, avec P (C) > 0. Donner une condition nécessaire et suffisante sur A, B et C pour que A et B soient indépendants relativement à la probabilité conditionnelle P ( | C), à la place de P . Solution : Par définition, on a A et B indépendants relativement à P ( | C) si et seulement si P (A ∩ B ∩ C) = P (A) P (B), car A P (C) et B sont indépendants de C ; et comme A, B et C sont indépendants 2 à 2, cette condition P (A ∩ B ∩ C) = P (A) P (B) P (C) équivaut à P (A ∩ B | C) = P (A | C) P (B | C), soit

A, B et C mutuellement indépendants.

6. On jette une paire de dés non pipés. Calculer la probabilité p pour que la somme obtenue soit supérieure ou égale à 10, sachant que l’un au moins des deux dés a donné 5. Solution : On considère les événements de Ω = [[1, 6]]2 : A = ‘‘ un des deux dés donne 5 ” = {(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6), (1, 5), (2, 5), (3, 5), (4, 5), (6, 5)} , qui est tel que card A = 11, et B=“ somme ≥ 10 ”= {(4, 6), (5, 5), (5, 6), (6, 4), (6, 5), (6, 6)}. On a ainsi A ∩ B = {(5, 5), (5, 6), (6, 5)} ; comme par hypothèse la probabilité est uniforme sur Ω (dés non pipés), on a p = P (B | A) =

P (A ∩ B) card A ∩ B card Ω card A ∩ B 3 . = = = P (A) card Ω card A card A 11

7. Soit un avion de type A, à 4 réacteurs, et un avion de type B, à 2 réacteurs. On suppose que chaque réacteur a, indépendamment des autres, une probabilité p ∈ ]0, 1[ de tomber en panne.

18

chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS

Sachant que la panne d’un seul réacteur n’empêche pas l’avion de type A d’arriver quand même à destination, choisissez votre moyen de transport en fonction de p. Solution : On considère les événements Ai =“ i réacteur en panne sur avion A ” (0 ≤ i ≤ 1) et B0 =“ 0 réacteur en panne sur avion B ” ; l’événement “ l’avion A arrive à destination ” est A0 ] A1 , de probabilité 4

3

3

P (A0 ) + P (A1 ) = (1 − p) + 4 p (1 − p) = (1 − p) (1 + 3 p), 2

et l’événement “ l’avion B arrive à destination ” est B0 , de probabilité (1 − p) . On choisit l’avion A si la première probabilité est plus grande que la seconde, soit si (1 − p) (1 + 3 p) > 1 ⇐⇒ 2 p − 3 p2 > 0 ⇐⇒ 2 − 3 p > 0 ⇐⇒ p < 23 , et on choisit l’avion B si p >

2 3

(si p = 32 , pas de préférence).

8. Lors de naissances gémellaires, les vrais jumeaux (un même œuf divisé après fécondation) sont de même sexe ; tandis que les faux jumeaux (deux œufs fécondés) peuvent être de même sexe ou de sexes différents avec la même probabilité 1/2. On s’intéresse ici à la proportion de vrais jumeaux. On considère les événements :   A ' “ les nouveaux nés sont de vrais jumeaux ”  B ' “ les nouveaux nés sont des jumeaux de même sexe ” a) Exprimer P (B) en fonction de P (A). b) Une étude statistique des naissances gémellaires a montré qu’il y avait 35% de jumeaux de sexes opposés. Calculer P (A) et P (A | B). Solution : a) On a d’après la formule des probabilités totales et composées P (B) = P (B | A) P (A) + P (B | Ac ) P (Ac ), avec d’après l’énoncé P (B | A) = 1 (car A ⊂ B) et P (B | Ac ) =   donc P (B) = P (A) + 21 1 − P (A) , soit P (B) = 12 1 + P (A) .

1 2

;

19

1.7. Exercices annotés et corrigés

b) On a ainsi P (A) = 2 P (B) − 1 = 1 − 2 P (B c ), et comme P (B c ) = 0, 35, P (A ∩ B) P (A) P (A) = 1 − 0, 7 = 0, 3 ; d’autre part on a P (A | B) = = , P (B) 1 − P (B c ) 0, 3 ≈ 0, 46. donc P (A | B) = 0, 65 On note que P (A | B) > P (A), ce qui est conforme à l’intuition.

9. Démontrer le lemme de Borel – Cantelli (cf. le paragraphe 1.5.B –). Solution : • Généralisons d’abord l’inégalité de Boole à une suite infinie d’événements (An )n∈N : n ∞  P P Ai ≤ P (Ai ) ≤ P (Ai ), donc par continuité croissante

S

∀ n ∈ N, P

i=0

0≤i≤n

S

de la probabilité, P

i=0



Ai = lim P n→∞

i∈N

S

∞  P Ai ≤ P (Ai )

0≤i≤n

i=0

(pour plus de détails, se reporter au polycopié Calcul Intégral, théorème 2.1.3). T S

Par définition de lim sup An = n→∞

n→∞ ∞ P

n∈N p∈N

  S tout n ∈ N, donc P lim sup An ≤ P An+p ≤ n→∞

p=0 ∞ P

p∈N

lim

n→∞ p=n

An+p pour

p∈N

P (An+p ) =

d’après l’inégalité de Boole généralisée ci-dessus. Si ∞ P

S

An+p , on a lim sup An ⊂

∞ P

P (Ap )

p=n

P (An ) < +∞, on a

n=0

 P (Ap ) = 0 (reste d’une série convergente), d’où P lim sup An = 0. n→∞

• Si les An sont mutuellement indépendants, il en est de même des complémentaires Acn , donc on a pour tout n ∈ N et pour tout q ∈ N : T

P(

Acn+p ) =

0≤p≤q

q Q p=0

P (Acn+p ) =

n+q Q

 1 − P (Ap ) .

p=n

Or on a l’inégalité e−u ≥ 1 − u pour tout u ∈ R ; on déduit donc P

h n+q i  n+q   Q P Acn+p ≤ exp −P (Ap ) = exp − P (Ap ) ;

T

p=n

0≤p≤q

si

∞ P

p=n

P (An ) = +∞, on a ∀ n ∈ N lim

q→∞ p=n

n=0

h n+q i P lim exp − P (Ap ) = 0 et donc lim P

q→∞

n+q P

q→∞

p=n

On en déduit P

T p∈N

Acn+p



P (Ap ) = +∞, de sorte que

T

 Acn+p = 0.

0≤p≤q

= 0 par croissance de P .

20

chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS

Comme (lim sup An )c = lim inf Acn =

Acn+p , on conclut par continuité  croissante de P (ou inégalité de Boole généralisée) P (lim sup An )c = 0, c’estn→∞  à-dire P lim sup An = 1. n→∞

n→∞

S T

n∈N p∈N

n→∞

10. Une seule des 3 portes de votre prison mène à la liberté, mais vous ignorez totalement laquelle . . . Vous désignez au hasard l’une d’entre elles au gardien, qui se garde de vous informer si votre choix est le bon mais qui, histoire de parler, vous désigne en retour comme mauvaise l’une des portes restantes. Avez-vous intérêt à changer votre choix ? Solution : On peut résoudre la question par simple logique : l’information du gardien n’affecte pas la probabilité que votre premier choix de porte soit le bon (1 chance sur trois), mais comme elle disqualifie l’une des deux autres portes, la probabilité que la dernière porte soit la bonne passe de 1 chance sur trois à 2 chances sur trois ! D’où l’intérêt de modifier son choix. Autrement dit, avec le langage des probabilités en considérant les événements A = “ la porte choisie est la bonne ” et B = “ la dernière porte est la bonne ”, 2 1 on a P (A) = et B = Ac , d’où P (B) = . 3 3 Le problème se généralise à n ≥ 3 portes (dont toujours une seule est bonne) et peut être résolu à l’aide de probabilités conditionnelles : On considère les événements A=“ la porte choisie en premier est la bonne ” et B=“ la porte choisie en second est la bonne ”, ce dernier choix étant effectué au hasard pur parmi les n − 2 portes restant en course après l’information donnée par le gardien. On a d’après la formule des probabilités totales et composées P (B) = P (B | A) P (A) + P (B | Ac ) P (Ac ), 1 1 (car conditionnellement à avec P (A) = , B ⊂ Ac et P (B | Ac ) = n n−2 Ac , l’une des portes parmi les n − 2 restantes est la bonne). En conséquence 1  1 1 1 n−1 P (B) = 0 + > = P (A) : on a toujours 1− = n n−2 n n (n − 2) n intérêt à modifier son choix.

11. On étudie le problème du tirage sans remise de n boules dans une urne contenant a boules blanches et b boules rouges (cf. l’exercice 5 du paragraphe 1.8). On considère l’événement : An+1 ' “ la (n + 1) e boule tirée est blanche ” a (en supposant n ≤ a + b − 1). Montrer que P (An+1 ) = . a+b

21

1.7. Exercices annotés et corrigés

On notera que, comme le résultat précédent est encore valable en remplaçant n par n0 ≤ n, on a en fait établi (en posant i = n0 + 1) : a ∀ i ∈ {1, . . . , n} , P (Ai ) = a+b e avec Ai ' “ la i boule tirée est blanche ”. Comment interpréter ce résultat ? Solution : Notons K le nombre aléatoire de boules blanches obtenues lors des n premiers tirages. On a (loi hypergéométrique)    a b   q k n−k   0 ≤ k ≤ n, P (K = k) = (avec la convention = 0 si r > q) ; a+b r n et comme conditionnellement à {K = k} il reste a − k boules rouges parmi a−k a + b − n boules, on a P (An+1 | K = k) = (en supposant k ≤ a ; a+b−n mais on peut dans la suite conserver cette expression erronée pour k > a, car pour ces valeurs de k on a P (K = k) = 0). D’après la formule des probabilités totales et composées    a b a−k k n−k   P (An+1 | K = k) P (K = k) = P (An+1 ) = ; a+b a+b−n k=0 k=0 n         a a−1 a+b a−1+b Or (a − k) =a et (a + b − n) = (a + b) ; d’où k k n n    a−1 b n a X a k n−k   P (An+1 ) = = , a−1+b a+b a+b k=0 n n X

n X

la somme précédente valant 1 puisqu’elle énumère le système de probabilités du nombre de boules blanches dans un tirage sans remise de n boules dans une urne contenant a − 1 boules blanches et b boules rouges. a (et retrouver ce résultat a+b sans calcul), on peut considérer que le tirage des n boules dans l’urne est simultané, ce qui revient à dire que P (Ai ) ne dépend pas de l’ordre de tirage i ; a et il est clair que P (A1 ) = , rapport du nombre de boules blanches sur le a+b nombre total de boules !

Pour comprendre que ∀ i ∈ {1, . . . , n}, P (Ai ) =

22

chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS

1.8

Exercices de synthèse

Exercice 1 : Propriétés élémentaires d’une probabilité Montrer, en utilisant seulement les axiomes de la probabilité : 1) ∀ A ∈ A, P (A) ∈ [0, 1] et P (Ac ) = 1 − P (A) 2) ∀ (A, B) ∈ A2 , (A ⊂ B) ⇒ (P (A) ≤ P (B)) 3) ∀ (A, B) ∈ A2 , P (A ∪ B) = P (A) + P (B) − P (A ∩ B) S P 4) Inégalité de Boole : ∀ (Ai )1≤i≤n ∈ An , P ( Ai ) ≤ P (Ai ) 1≤i≤n

1≤i≤n

5) Formule de Poincaré : ∀ (Ai )1≤i≤n ∈ An , P(

S

Ai ) = S1 − S2 + · · · + (−1)n−1 Sn

1≤i≤n

où P S1 = P (Ai ), S2 = 1≤i≤n

P

P (Ai ∩ Aj ), . . . , Sn = P (A1 ∩ A2 ∩ · · · ∩ An ).

1≤i 0. Vérifier que le système des limites p00 (k) est un système de probabilités et donner sa valeur moyenne m00 . 5) Application Déterminer la loi du nombre K d’objets défectueux parmi 20 objets tirés dans un lot de 10 000 objets dont 500 sont défectueux. Donner m et des valeurs approchées de P (K = 0) et P (K = 1). N.B. Les lois obtenues s’appellent respectivement : 1. Hypergéométrique 2. Binomiale 3. de Poisson.

Exercice 6 : Pile ou face à Macao (théorème de continuité) On considère un jeu de pile ou face de durée infinie, dans lequel la probabilité d’avoir pile à chaque coup est p ∈ ]0, 1[ . On cherche la probabilité de tirer pile une infinité de fois. 1) Calculer la probabilité de l’événement : n ∈ N, m ∈ N∗ ,

En,m ' “ face aux coups (n + 1), . . . , (n + m) ”.

1.8. Exercices de synthèse

25

2) En déduire la probabilité de l’événement : n ∈ N,

En ' “ toujours face à partir du coup (n + 1) ”,

puis celle de l’événement : F ' “ une infinité de fois pile ”. Exercice 7 : Test épidémiologique (probabilités des causes) Un test médical, devant détecter le plus tôt possible une maladie rare, a les caractéristiques suivantes qui paraissent excellentes : • toute personne atteinte a un test positif ; • le taux d’erreur du test (test positif pour une personne saine) est de 2%. On s’intéresse à la portée du test d’un point de vue individuel et non statistique. On considère les événements : A ' “ la personne est malade ” B ' “ le test est positif ”. 1) Exprimer P (B) en fonction de P (A). 2) Une étude statistique dans la population française a montré qu’il y avait 1 personne malade pour 1000. Calculer la probabilité P (Ac | B) que l’indication “positif” fournie par un test soit erronée ?

Chapitre 2

Variables aléatoires et lois 2.1

Définition d’une variable aléatoire (V.A.)

De manière très générale, il s’agit d’un caractère déterminé par l’état d’un système résultant d’une expérience aléatoire, c’est-à-dire d’une propriété X du système (ayant couramment la forme d’une grandeur) qui dépend du résultat obtenu. En langage mathématique, une V.A. X est donc une application définie sur l’univers Ω et (couramment) à valeurs dans R (variable aléatoire réelle, en abrégé V.A.R.) ou Rn (variable aléatoire vectorielle, en abrégé V.A.V.) : X

ω 7→ X(ω), dont on connaît la valeur x = X(ω) à l’issue de l’expérience aléatoire. Par convention, une V.A. sera notée au moyen d’une lettre majuscule. Exemples 2.1.1 N

a) Jet de 2 dés, Ω = [[1, 6]]2 : ω = (x, y) 7→ N (ω) = x + y, somme des points obtenus. p D b) Point de chute d’un projectile, Ω = R2 : ω = (x, y) 7→ D(ω) = x2 + y 2 , distance à l’origine. c) Trajectoire d’un projectile sur l’intervalle de temps [t1 , t2 ], Ω = C 2 ([t1 , t2 ]) X

V

∀ t ∈ [t1 , t2 ], ω 7→t w(t), position dans R3 à l’instant t et ω 7→t ω 0 (t), W

vitesse à l’instant t, sont des V.A.V. ; ω 7→ sup kω 0 (t)k, maximum de t∈[t1 ,t2 ]

la vitesse, est une V.A.R..

28

chapitre 2. VARIABLES ALÉATOIRES ET LOIS

Restriction de la notion La notion de variable aléatoire n’a d’intérêt que si des propriétés aussi simples que “la valeur prise par X à l’issue de Q l’expérience aléatoire tombe dans l’intervalle [a, b] (cas réel) ou dans le pavé ni=1 [ai , bi ] (cas vectoriel)” sont énonçables, autrement dit sont des événements, auxquels on peut affecter des probabilités. Or d’après la définition de la tribu de Borel B de R ou Rn et un lemme de la théorie de la mesure†1 , cette condition équivaut exactement à la mesurabilité de X ; d’où : Définition 2.1.2 On appelle variable aléatoire sur (Ω, A) toute application X de Ω dans R ou Rn qui est (A, B)-mesurable, c’est-à-dire telle que : d´ ef

∀ B ∈ B, X −1 (B) = {ω ∈ Ω : X(ω) ∈ B} ∈ A. On note de manière imagée {X ∈ B} pour X −1 (B) (X “tombe” dans B) et on dit que ce sont les événements qui ne dépendent que de X ou déterminés par X, puisque l’observation de la seule valeur x = X(ω) prise par la variable X (et non la connaissance de ω lui-même) permet de savoir si ces événements sont réalisés ou non (selon que x ∈ B ou non). La sous tribu de A notée X −1 (B) = {{X ∈ B} : B ∈ B}, image réciproque de la tribu B par X, est appelée tribu engendrée par X ; elle rassemble l’information qu’apporte la valeur que prend la V.A. X sur l’état du système. Remarque 2.1.3 Dans le cas réel, un critère pratique pour savoir si X est une V.A.R. consiste à vérifier que : d´ ef

∀ x ∈ R, {X < x} = {ω ∈ Ω : X(ω) ∈ ] − ∞, x[} ∈ A. Propriétés élémentaires Celles des fonctions mesurables à valeurs dans R ou Rn †2 . x2 En particulier : X(ω) X2 (ω) • X = (X1 , . . . , Xn ) est une V.A. vectorielle si et seuleΩ ment si ∀ i ∈ [[1, n]], Xi est ω une V.A.R.. 0 X1 (ω) x1 • Etant donné une suite (Xn )n∈N de V.A.R sur (Ω, A), les applications inf Xn , sup Xn , lim inf Xn et lim sup Xn

n∈N 1 2

n∈N

n→∞

Voir par exemple [1], définition 1.1.5 et théorème 1.2.4 Voir par exemple [1], paragraphe 1.4 et théorème 1.2.6

n→∞

29

2.1. Définition d’une variable aléatoire (V.A.)

sont aussi des V.A.R., du moins si elles sont à valeurs finies (c’est-à-dire dans R, +∞ et −∞ exclus). En particulier, si la suite (Xn )n∈N converge simplement dans R, lim Xn n→∞ est une V.A.R.. • La somme, le produit de deux V.A.R., l’opposé d’une V.A.R., l’inverse d’une V.A.R. qui ne s’annule pas, sont encore des V.A.R..

Variables aléatoires composées Soit X : (Ω, A) → (Rn , B) une variable aléatoire. 0

Proposition 2.1.4 Etant donné une application Z de Ω dans Rn , on a les relations d’implication suivantes : 0

(1) il existe une application g : Rn → Rn borélienne (c’est-à-dire (B, B 0 ) mesurable) telle que Z = g ◦ X m (2) Z −1 (B 0 ) ⊂ X −1 (B) ⇓ (3) Z est une variable aléatoire Preuve partielle • (1) ⇒ (2) ⇒ (3) : g −1 (B 0 ) ⊂ B ⇒ Z −1 (B 0 ) = X −1 [g −1 (B 0 )] ⊂ X −1 (B) ; et comme X est une V.A., on a X −1 (B) ⊂ A, de sorte que Z −1 (B 0 ) ⊂ A. • (2) ⇒ (1) : d’après (2), ∀ z ∈ Z(Ω) (image de Ω par Z), ∃ Bz ∈ B vérifiant {Z = z} = {XU∈ Bz } puisque {z} ∈ B 0 . Les Bz sont 2 à 2 disjoints et il suffit de définir g sur Bz par : z∈Z(Ω)

∀ z ∈ Z(Ω), g | B = z. z

Il resterait à montrer que l’on peut prolonger g sur Rn en une application borélienne. u t

Remarques 2.1.5 • (2) ⇒ (1) exprime que si l’information apportée par une V.A. Z sur l’état résultant d’un système (cf. la page précédente) n’est qu’une partie de celle apportée par une autre V.A. X, alors Z est nécessairement de la forme composée g ◦ X, notée plus couramment g(X) ; on dit pour cette raison que cette V.A. Z ne dépend que de X.

30

chapitre 2. VARIABLES ALÉATOIRES ET LOIS

0

• On rappelle que g : R → R monotone, g : R → Rn continue à gauche 0 ou à droite et g : Rn → Rn continue sont des applications boréliennes. Il suffirait d’ailleurs de définir l’ application g sur un borélien contenant l’image X(Ω) de X et qu’elle soit borélienne.

2.2

Loi de probabilité d’une variable aléatoire

Comme expliqué au chapitre 1, l’espace probabilisé de référence (Ω, A, P ) n’est qu’un mode de représentation abstrait d’une expérience aléatoire, de sorte qu’une variable aléatoire n’est réellement accessible que par l’observation des valeurs qu’elle prend. C’est pourquoi on s’intéresse principalement aux probabilités des événements ne dépendant que de X : ∀ B ∈ B,

P (X ∈ B) = P {ω ∈ Ω : X(ω) ∈ B} = P {X −1 (B)},

c’est-à-dire à l’image de la probabilité P par X †3 . Définition 2.2.1 On appelle loi de probabilité (ou loi de distribution, en abrégé loi) d’une variable aléatoire X : (Ω, A) → (Rn , B) la probabilité µ sur Rn image de P par X : µ

d´ ef

B ∈ B 7→ µ(B) = P {X −1 (B)} = P (X ∈ B) (Rn , B, µ) est un espace probabilisé (image de (Ω, A, P ) par X). Lorsqu’on est en présence de plusieurs V.A., on pourra noter µX au lieu de µ pour préciser qu’il s’agit de la loi de X. La loi d’une V.A. X décrit la manière dont ses valeurs se distribuent sur Rn , c’est-à-dire son comportement aléatoire, et non la valeur qu’elle prend pour un résultat donné (comportement “explicite” spécifié par l’application X ellemême). Comme le comportement aléatoire est souvent l’essentiel, on pose : Définition 2.2.2 Deux variables aléatoires X1 et X2 sont dites équivalentes en loi ou parentes si elles ont même loi µ, ce que l’on note : L

X1 ≡ X2 Il s’agit d’une relation d’équivalence plus faible que l’égalité presque sûre. 3

Voir par exemple [1], proposition 2.4.1

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF