Probabilités

January 16, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Probabilités...

Description

Page 1

Valérie Girardin & Nikolaos Limnios

Probabilités Processus stochastiques et applications

Rédigé principalement à l’attention des étudiants en Master de mathématiques et en écoles d’ingénieurs, cet ouvrage présente des notions complexes de la théorie des probabilités à travers une introduction aux processus stochastiques et à leurs applications. Composé d’un cours complet, de nombreux exercices corrigés et de problèmes de synthèse, ce manuel servira également de base de révision au concours de l’Agrégation de mathématiques. Sommaire Notations 1. Suites aléatoires indépendantes 2. Conditionnement et martingales 3. Chaînes de Markov 4. Notions générales sur les processus

5. Processus markoviens et semi-markoviens Problèmes à résoudre À la fin de chaque chapitre, on trouvera des exercices suivis de leurs corrigés

Agrégée de mathématiques, Valérie Girardin est maître de conférences à l’Université de Caen BasseNormandie, Laboratoire de Mathématiques Nicolas Oresme, et habilitée à diriger les recherches. Nikolaos Limnios est professeur à l’Université de Technologie de Compiègne (UTC), Laboratoire de Mathématiques Appliquées.

ISBN 978-2-311-40015-1 WWW.VUIBERT.FR

9 782311 400151

MASTER, ÉCOLES D’INGÉNIEURS & AGRÉGATION MATHÉMATIQUES

10:45

Cours & exercices corrigés

17/12/13

Probabilités. Processus stochastiques et applications

CV_Probabilite_Processus2NEW:EP

Valérie Girardin Nikolaos Limnios

MASTER ÉCOLES D’INGÉNIEURS AGRÉGATION MATHÉMATIQUES

Probabilités Processus stochastiques et applications

• Cours complet • Exercices d’application corrigés • Problèmes de synthèse

“bqL” — 2013/12/12 — 10:57 — page 228 — #238

“bqM” — 2013/12/17 — 9:21 — page III — #1

Table des matières

Avant-propos

V

Notations 1 Suites aléatoires indépendantes 1.1 Suites infinies . . . . . . . . . . . . . . 1.1.1 Suites d’événements . . . . . . 1.1.2 Indépendance . . . . . . . . . . 1.2 Sommes aléatoires . . . . . . . . . . . 1.3 Convergence et théorèmes limites . . . 1.3.1 Différents types de convergence 1.3.2 Théorèmes limites . . . . . . . 1.4 Exercices et compléments . . . . . . .

VII . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

1 1 3 5 8 13 14 15 23

2 Conditionnement et martingales 2.1 Conditionnement . . . . . . . . . . . . . . . . . . . . 2.1.1 Conditionnement par rapport à un événement 2.1.2 Probabilités conditionnelles . . . . . . . . . . 2.1.3 Lois conditionnelles . . . . . . . . . . . . . . 2.1.4 Espérance conditionnelle . . . . . . . . . . . . 2.1.5 Conditionnement et indépendance . . . . . . 2.1.6 Détermination pratique . . . . . . . . . . . . 2.2 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . 2.3 Martingales à temps discret . . . . . . . . . . . . . . 2.3.1 Définitions et propriétés . . . . . . . . . . . . 2.3.2 Inégalités remarquables . . . . . . . . . . . . 2.3.3 Martingales et temps d’arrêt . . . . . . . . . 2.3.4 Convergence des martingales . . . . . . . . . 2.3.5 Martingales de carré intégrable . . . . . . . . 2.4 Exercices et compléments . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

29 29 29 31 34 35 42 44 47 49 49 54 57 60 61 64

3 Chaînes de Markov 3.1 Propriétés générales . . . . . . . . . . . . . 3.1.1 Fonction de transition et exemples . 3.1.2 Chaînes de Markov et martingales . 3.1.3 Chaînes de Markov et temps d’arrêt

. . . .

. . . .

. . . .

. . . .

. . . .

73 73 74 83 84

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . . .

. . . .

. . . . . . . .

. . . .

. . . .

“bqM” — 2013/12/17 — 9:21 — page IV — #2

IV

Table des matières

3.2 3.3 3.4 3.5 3.6 3.7

Décomposition de l’espace d’état Loi stationnaire et comportement Chaînes de Markov périodiques . Chaînes de Markov finies . . . . 3.5.1 Propriétés . . . . . . . . . 3.5.2 Application en fiabilité . . Processus de branchement . . . . Exercices et compléments . . . .

. . . . . . . . asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4 Notions générales sur les processus 4.1 Propriétés générales . . . . . . . . . . . 4.2 Stationnarité et ergodicité . . . . . . . . 4.3 Processus à accroissements indépendants 4.4 Processus ponctuels sur la droite . . . . 4.4.1 Notions générales . . . . . . . . . 4.4.2 Processus de renouvellement . . 4.4.3 Processus de Poisson . . . . . . . 4.4.4 Résultats asymptotiques . . . . . 4.5 Exercices et compléments . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

86 93 101 105 105 111 114 118

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

133 133 141 148 151 151 153 158 161 165

5 Processus markoviens et semi-markoviens 173 5.1 Processus de Markov de sauts . . . . . . . . . . . . . . . . . . 173 5.1.1 Processus de Markov . . . . . . . . . . . . . . . . . . . 173 5.1.2 Définition et fonction de transition . . . . . . . . . . . 176 5.1.3 Générateur infinitésimal et équations de Kolmogorov . 179 5.1.4 Chaîne immergée et classification des états . . . . . . 182 5.1.5 Loi stationnaire et comportement asymptotique . . . . 189 5.2 Processus semi-markoviens . . . . . . . . . . . . . . . . . . . . 193 5.2.1 Processus de renouvellement markoviens . . . . . . . . 193 5.2.2 Classification des états et comportement asymptotique 196 5.3 Exercices et compléments . . . . . . . . . . . . . . . . . . . . 199 Problèmes à résoudre

209

Bibliographie

219

Index

223

Table des figures

229

“bqM” — 2013/12/17 — 9:21 — page 29 — #37

CHAPITRE 2

Conditionnement et martingales

Nous présentons d’abord dans ce chapitre les lois conditionnelles et l’espérance conditionnelle en suivant une démarche de difficulté croissante. Nous étudions le conditionnement en nous plaçant dans le cas où la loi conditionnelle existe, ce qui est toujours vérifié pour des variables aléatoires à valeurs dans Rd . Par contre, nous définissons l’espérance conditionnelle dans le cas général. Un paragraphe est dédié au calcul pratique de lois et espérances conditionnelles. Nous présentons ensuite les temps d’arrêt, intéressants en eux-mêmes et nécessaires à l’étude des martingales et des chaînes de Markov. La théorie des martingales à temps discret qui suit est basée sur l’espérance conditionnelle. Nous donnons leurs propriétés fondamentales dont le théorème d’arrêt, quelques inégalités remarquables et différents théorèmes de convergence, en particulier pour les martingales de carré intégrable.

2.1 Conditionnement Nous commençons par un cas simple, qui permet de mettre en place des notations qui seront ensuite utiles dans le cas le plus général. 2.1.1 Conditionnement par rapport à un événement Lorsque l’on sait qu’un événement donné a été réalisé, on est amené à modifier la probabilité considérée pour tenir compte de cette information. Définition-Théorème 2.1 Soient (Ω, F , P) un espace de probabilité et B un événement non négligeable. La formule P(A | B) =

P(A ∩ B) P(B)

(2.1)

définit une probabilité P(· | B) sur (Ω, F ) appelée probabilité conditionnelle à B ou sachant B.

“bqM” — 2013/12/17 — 9:21 — page 30 — #38

30

Chapitre 2. Conditionnement et martingales

Démonstration.- L’application est clairement à valeurs dans [0, 1], avec P(Ω | B) = 1. Si (An ) est une suite d’événements disjoints deux à deux, alors P

[

n≥0

 P[(∪ P[∪n≥0 (An ∩ B)] n≥0 An ) ∩ B] An | B = = . P(B) P(B)

Or, par σ-additivité de P P, nous avons P[∪n≥0 (An ∩ B)] = d’où P(∪n≥0 An | B) = n≥0 P(An | B).

P

n≥0

P(An ∩ B), 

Pour tous événements A et B non négligeables, il découle directement de la définition d’une probabilité conditionnelle que P(A | B)P(B) = P(B | A)P(A) = P(A ∩ B). Ceci se généralise à toute famille finie d’événements comme suit. Proposition 2.2 (Formule des probabilités composées) Soient A1 , . . . , An des événements. Si P(A1 ∩ · · · ∩ An−1 ) > 0 alors P

n \

i=1

 Ai = P(A1 )P(A2 | A1 )P(A3 | A1 ∩A2 ) . . . P(An | A1 ∩A2 ∩· · ·∩An−1 ).

Démonstration.- Par récurrence, car P(A1 ∩ A2 ) = P(A1 )P(A2 | A1 ) et P(A1 ∩ · · · ∩ An ) = P(An | A1 ∩ · · · ∩ An−1 )P(A1 ∩ · · · ∩ An−1 ), par définition de la probabilité conditionnelle.



Si X est une variable aléatoire intégrable et B un événement non négligeable, l’espérance conditionnelle de X sachant B (ou par rapport à B) est par définition égale à son espérance par rapport à la probabilité conditionnelle à B, soit Z E (X | B) =



X(ω)P(dω | B).

Elle a donc toutes les propriétés de l’espérance. On la calcule de la manière suivante.

Proposition 2.3 Si X est une variable aléatoire intégrable et B un événement non négligeable, alors Z E (X11B ) 1 E (X | B) = = X(ω)dP(ω). P(B) P(B) B Démonstration.- Pour X = 11A , avec A ∈ F, la relation est vérifiée d’après la définition (2.1). Pn Pour une variable étagée Xn = i=1 ai 11Ai , elle est également vérifiée par linéarité de l’espérance.

“bqM” — 2013/12/17 — 9:21 — page 31 — #39

2.1 Conditionnement

31

Si X est positive, elle est la limite d’une suite (Xn ) de variables étagées. Donc par le théorème de convergence monotone, nous avons E (Xn | B) ր E (X | B) et E (Xn 11B ) ր E (X11B ). Enfin, pour X réelle intégrable, nous concluons en considérant la décomposition X = X + − X − , où X + = sup(X, 0) et X − = − inf(X, 0).  Ce conditionnement par rapport à l’événement B peut être vu comme un conditionnement par rapport à la tribu engendrée par B, en définissant pour tout A ∈ F, ( P(A | B) si ω ∈ B P[A | σ(B)](ω) = P(A | B) sinon.

et donc pour toute variable X, E [X | σ(B)](ω) =

(

E (X | B) E (X | B)

si ω ∈ B sinon.

C’est la généralisation de ces notions au conditionnement par rapport à une sous-tribu quelconque de F que nous présentons ici. 2.1.2 Probabilités conditionnelles Considérons d’abord un système de constituants B = {B1 , . . . , Bn } de Ω, c’est-à-dire une partition constituée d’événements non négligeables. Si l’on savait a priori que Bi a été réalisé, alors la probabilité conditionnelle d’un événement A sachant B serait naturellement P(A ∩ Bi )/P(Bi ). Par conséquent, nous pouvons interpréter la probabilité conditionnelle de A sachant B sous la forme P(A | B)(ω) =

n X P(A ∩ Bi ) i=1

P(Bi )

11Bi (ω),

ω ∈ Ω.

La probabilité conditionnelle P(A | B) ainsi définie est une variable aléatoire et il est intéressant de remarquer qu’elle est σ(B)-mesurable et qu’elle vérifie Z P(A | B)dP = P(A ∩ B), B ∈ B. B

De plus, E [P(A | B)] = P(A). Ceci suggère la définition suivante de la probabilité conditionnelle P(A | G) par rapport à une sous-tribu G quelconque de F .

Définition 2.4 Soient G une sous-tribu de F et A un événement. La probabilité conditionnelle de A sachant G est une variable aléatoire G-mesurable vérifiant Z P(A | G)dP = P(A ∩ B), B ∈ G. B

Nous la noterons P(A | G)

“bqM” — 2013/12/17 — 9:21 — page 32 — #40

32

Chapitre 2. Conditionnement et martingales

La probabilité conditionnelle dépend évidemment de la probabilité P. Elle est de plus seulement définie p.s., puisque c’est une variable aléatoire. Exemple 2.5 P(A | {Ø, Ω}) est la variable aléatoire constante P(A).



Le théorème suivant constitue une autre définition possible de la probabilité conditionnelle à G. Théorème 2.6 La probabilité conditionnelle P(A | G) est la projection orthogonale de la variable aléatoire 11A ∈ L2 (Ω, F , P) sur L2 (Ω, G, P), c’està-dire que P(A | G) est la classe d’équivalence dans L2 (Ω, F , P) des variables aléatoires Y ∈ L2 (Ω, F , P) G-mesurables telles que Z ∈ L2 (Ω, G, P).

E (Y Z) = E (11A Z),

Pn Démonstration.- C’est évident pour Z = i=1 ai 11Ai , avec ai ∈ R et Ai ∈ G. Nous considérons ensuite des variables Z positives et nous concluons pour toute variable Z réelle avec Z = Z + − Z − .  Exemple 2.7 Si G = σ(Bi , i ∈ I), où {Bi : i ∈ I} est un système de constituants fini ou dénombrable de Ω, alors la relation suivante est vérifiée. P(A | G) =

X P(A ∩ Bi ) P(Bi )

i∈I

11Bi .

En effet, la variable aléatoire Y = P(A | G) étant G-mesurable, nous pouvons P écrire Y = i∈I ai 11Bi , avec ai ∈ R. Par conséquent P(A ∩ Bi ) =

d’où

Z

Y dP = ai P(Bi ),

Bi

1 P(A | Bi ) = ai = P(Bi )

Z

Bi

P(A | G)dP,

et la conclusion en découle puisque P(A ∩ Bi ) = P(A | Bi )P(Bi ).



Théorème 2.8 Si (Ω, F , P) est un espace de probabilité et G une sous-tribu de F , alors : 1. P(Ω | G) = 1 p.s. ; 2. pour tout A ∈ F, on a 0 ≤ P(A | G) ≤ 1 p.s. ; 3. pour toute suite (An ) d’événements de F disjoints deux à deux, on a P

[

n≥0

 X An | G = P(An | G) p.s.. n≥0

“bqM” — 2013/12/17 — 9:21 — page 33 — #41

2.1 Conditionnement

33

R Démonstration.- 1. Nous avons B P(Ω | G)dP = P(B ∩ Ω) = P(B) pour tout B ∈ G, d’où P(Ω | G) = 1 p.s.. 2. Soit C = {ω ∈ Ω : P(A | G)(ω) > 1}. Nous avons Z P(C) ≤ P(A | G)dP = P(A ∩ C), C

d’où une contradiction si P(C) > 0. 3. Nous avons pour tout B ∈ G Z X XZ P(An | G)dP = P(An | G)dP B n≥0

n≥0

=

X

n≥0

B

P(An ∩ B) = P

h [

n≥0

 i An ∩ B .

P Donc n≥0 P(An | G), qui est évidemment G-mesurable, est bien la probabilité conditionnelle de ∪n≥0 An sachant G.  Comme nous venons de le souligner, la propriété 3. pour une suite (An ) donnée, est seulement vérifiée p.s., soit sur Ω\N (An ) avec P[N (An )] = 0, et non pour tout ω. La fonction A −→ P(A | G)(ω) n’est pas en général une probabilité sur F pour tout ω ; il faut retrancher N = ∪N (An ), où la réunion est prise sur toutes les suites d’événements de F . Cette réunion n’étant pas dénombrable, il est possible que l’événement N ait une probabilité strictement positive. Proposition 2.9 Si G est une sous-tribu de F , si C ∈ F et si A ∈ G, alors P(A ∩ C | G) = P(C | G)11A p.s.. En particulier, pour C = Ω et A ∈ G, on obtient P(A | G) = 11A p.s.. Démonstration.- Pour tout B ∈ G, d’une part, Z P(A ∩ C | G)dP = P(A ∩ C ∩ B), B

et d’autre part,

Z

B

11A P(C | G)dP = P(A ∩ C ∩ B),

d’où le résultat.  Il reste à montrer l’existence de la probabilité conditionnelle. Pour toute variable aléatoire X positive définie sur (Ω, F , P), la quantité Z µ(B) = XdP, B ∈ G, (2.2) B

est bien définie. La mesure µ ainsi définie sur (Ω, G, P) est à valeurs dans R+ . Elle est absolument continue par rapport à P et sa dérivée de RadonNikodym est une variable aléatoire G-mesurable. Enfin, pour X = 11A , où

“bqM” — 2013/12/17 — 9:21 — page 34 — #42

34

Chapitre 2. Conditionnement et martingales

A ∈ F, nous déduisons du théorème de Radon-Nikodym et de (2.2) que Z Z P(A | G)dP = µ(B) = 11A dP = P(A ∩ B), B ∈ G, B

B

ce qui prouve l’existence d’une variable aléatoire vérifiant les propriétés de la définition 2.4. Une probabilité conditionnelle peut aussi être vue comme un cas particulier de probabilité (ou noyau) de transition (ou noyau markovien) entre deux espaces mesurables. Définition 2.10 Soient (Ω, F ) et (E, E) deux espaces mesurables. Une application π : Ω × E −→ [0, 1] telle que π(ω, .) est une probabilité sur (E, E) pour presque tout ω ∈ Ω et π(., A) est une fonction F -mesurable pour tout A ∈ E, est appelée probabilité de transition de Ω à E. △ Exemple 2.11 Soient f : (Ω × E, F ⊗ E) −→ (R, B(R)) une fonction mesurable positive et µ une mesure positive sur (E, E) telles que Z f (ω, ω ′ )dµ(ω ′ ) = 1, ω ∈ Ω. E

R

La formule π(ω, A) = A f (ω, ω ′ )dµ(ω ′ ) définit une probabilité de transition de Ω à E. De plus, π(ω, .) est absolument continue par rapport à µ de densité f (ω, ·). ⊳ Supposons maintenant que (E, E) = (Ω, F ). Définition 2.12 Soit G une sous-tribu de F . Une probabilité de transition de Ω à Ω est appelée probabilité conditionnelle par rapport à G si pour tout A ∈ F, la variable π(·, A) est une version de la probabilité conditionnelle P(A | G), c’est-à-dire si π(·, A) = P(A | G)(·) P-p.s.. 2.1.3 Lois conditionnelles Soient (Ω, F ) un espace mesurable, et P l’ensemble des probabilités sur (Rd , B(Rd )). Soit Q : Ω −→ P une application. Donc Q(ω) est une probabilité sur (Rd , B(Rd )) pour tout ω ∈ Ω. Nous noterons Q(ω, B) la mesure de tout B ∈ B(Rd ) par Q(ω). Afin de pouvoir parler de Q comme d’une variable aléatoire, P doit être muni d’une tribu. Nous considérerons donc l’espace mesurable (P, H), où H est la tribu engendrée par les fonctions définies sur P par P −→ P (B) pour tout B ∈ B(Rd ). Définition 2.13 Soit (Ω, F ) un espace mesurable. Toute application mesurable de (Ω, F ) dans (P, H) est appelée loi (ou probabilité) aléatoire sur (Rd , B(Rd )). △

“bqM” — 2013/12/17 — 9:21 — page 35 — #43

2.1 Conditionnement

35

Cette notion de probabilité aléatoire permet de définir la loi conditionnelle d’une variable aléatoire sachant une sous-tribu. Définition 2.14 Soient X : (Ω, F , P) −→ (Rd , B(Rd )) une variable aléatoire et G une sous-tribu de F . Une application Q : Ω × B(Rd ) −→ P est appelée loi conditionnelle de X sachant G si pour tout B ∈ B(Rd ) fixé, la variable Q(·, B) est égale à la probabilité conditionnelle de (X ∈ B) par rapport à G. △ De même, on définit la densité et la fonction de répartition dites conditionnelles de la loi conditionnelle. Définition 2.15 Soient X = (X1 , . . . , Xd ) : (Ω, F , P) −→ (Rd , B(Rd )) une variable aléatoire et G une sous-tribu de F . Une fonction F : Ω × Rd −→ [0, 1] est appelée fonction de répartition conditionnelle de X par rapport à G si F (ω, ·) est une fonction de répartition pour tout ω ∈ Ω, et si, pour tout x = (x1 , . . . , xd ) ∈ Rd , F (·, x) = P(X1 ≤ x1 , . . . , Xd ≤ xd | G) p.s.. Une fonction q borélienne positive définie sur (Ω × Rd , F ⊗ B(Rd )) est appelée densité conditionnelle de X sachant G si la fonction Q définie sur Ω × B(Rd ) par Z Q(ω, B) =

q(ω, x)dx

B

est une loi conditionnelle de X sachant G.



Pour toute variable aléatoire réelle X, on peut montrer qu’il existe une loi et une fonction de répartition conditionnelles à toute sous-tribu G. Il n’y a pas unicité mais si Q1 et Q2 sont deux lois conditionnelles de X sachant G, alors Q1 (·, B) = Q2 (·, B) p.s. pour tout B ∈ G. 2.1.4 Espérance conditionnelle Si une variable aléatoire positive possède une loi conditionnelle, l’espérance conditionnelle de cette variable se calcule directement, comme l’espérance mathématique ordinaire, par la formule habituelle appliquée à sa loi conditionnelle. Si la variable positive ne possède pas de loi conditionnelle, l’espérance conditionnelle existe encore. Enfin, l’espérance conditionnelle d’une variable aléatoire quelconque est définie sous certaines conditions. Définition 2.16 Soient X une variable aléatoire définie sur (Ω, F , P) et G une sous-tribu de F . Si X est positive, l’espérance conditionnelle de X sachant G est la variable aléatoire G-mesurable, notée E (X | G), à valeurs dans R+ et telle que Z Z XdP = E (X | G)dP, C ∈ G. (2.3) C

C

“bqM” — 2013/12/17 — 9:21 — page 64 — #72

64

Chapitre 2. Conditionnement et martingales

Démonstration.- D’une part, si (Mn ) est bornée dans L2 , elle est bornée également dans L1 . Et par le théorème de convergence de Doob, M∞ = limn→+∞ Mn existe p.s.. D’autre part, nous déduisons de l’égalité suivante E [(Mn+m − Mn )2 ] =

n+m X

k=n+1

E [(Mk − Mk−1 )2 ]

et par le lemme de Fatou lorsque m tend vers l’infini que X E [(M∞ − Mn )2 ] ≤ E [(Mk − Mk−1 )2 ]. k≥n+1

De plus, Mn = E (Mm | F n ) pour tous m ≥ n et E (· | F n ) est un opérateur continu sur L2 , donc par passage à la limite Mn = E (M∞ | F n ).  Le théorème suivant constitue une loi des grands nombres et un théorème de la limite centrale pour les martingales. Théorème 2.82 Si (Mn ) est une martingale L2 , et si (an ) est une suite numérique croissante vers l’infini, telles que hM in /an tend en probabilité vers une limite σ 2 strictement positive et n 1 X p.s. E [(Mk − Mk−1 )2 11{|Mk −Mk−1 |≥ε√an } ] −→ 0 an k=1

pour tout ε > 0, alors Mn p.s. −→ 0 et an

Mn L √ −→ N (0, σ 2 ). an

2.4 Exercices et compléments Exercice 2.1 Somme aléatoire de variables aléatoires.- Soit N , une variable aléatoire à valeurs dans N∗ indépendante d’une suite aléatoire (Xn ) intéPN grable. On note SN = i=1 Xi , où Sn = X1 + · · · + Xn . 1. Calculer l’espérance conditionnelle de SN sachant N . En déduire l’espérance de SN . 2. Déterminer la loi conditionnelle de N sachant (SN = s). Solution.- 1. Nous avons E (SN | N = n) = E (Sn ) = nE X1 , et donc E (SN | N ) = N E X1 . On en déduit que E SN = E [E (SN | N )] = E [N E X1 ] = (E N )(E X1 ). 2. D’après la définition 2.28 et le théorème 2.6, P(N = n | SN = s) = ϕ(s) si E [11(SN ∈B) 11(N =n) ] = E [11(SN ∈B) ϕ(SN )],

B ∈ B(R).

“bqM” — 2013/12/17 — 9:21 — page 65 — #73

2.4 Exercices et compléments

65

Or, d’une part, E [11(SN ∈B) 11(N =n) ] = P(N = n, Sn ∈ B) = P(N = n) et d’autre part, E [11(SN ∈B) ϕ(SN )] =

Z

Z

fSn (s)ds,

B

ϕ(s)fSN (s)ds ;

B

par conséquent, P(N = n | SN = s) = P(N = n)fSn (s)/fSN (s). Exercice 2.2 Loi de Poisson composée en assurance.- Soit ST la somme des indemnités payées par une compagnie d’assurance dans un intervalle de temps I = [0, T ]. On suppose que les accidents surviennent indépendamment les uns des autres et ne peuvent être simultanés. On suppose aussi que le nombre d’accidents survenant dans I est fini. On découpe I en n intervalles Ijn de même longueur. Soient Njn la variable aléatoire égale à 0 si aucun accident n’a lieu dans n Ij et à 1 sinon, Xjn la somme des indemnités payées par la compagnie d’assurance dans Ijn et pnj la probabilité d’accident dans Ijn . On notera P la loi conditionnelle de Xjn sachant (Njn = 1) pour n grand. 1. Exprimer ST en fonction des autres variables. Pn Pn 2. On suppose que j=1 pnj tend vers λ ∈ R∗+ et que j=1 (pnj )2 tend vers 0 lorsque n tend vers l’infini. Montrer que ST suit une loi de Poisson composée. 3. Application : pnj = 1/n, avec pour P la loi B(p) avec p ∈]0, 1[. Pn Solution.- 1. Soit Sn = j=1 Xjn . Pour n suffisamment grand pour que la probabilité que plusieurs accidents aient lieu dans un même intervalle Ijn soit négligeable, on a ST = Sn . Nous nous placerons dans ce cas pour la suite. 2. Utilisons la transformée de LaplaceQde Sn . Comme les variables Xi n sont indépendantes, on sait que ψSn (t) = j=1 ψXjn (t). Or n

n

ψXjn (t) = E (e−tXj ) = 1 − pnj + E (e−tXj | Njn = 1)pnj = 1 − pnj [1 − ψP (t)].

On sait que pour x > 0, on a − log(1 − x) = x + x2 [1 + ε(x)], avec ε(x) < 1 pour 0 < x < x0 . Or pnj tend vers 0 par hypothèse lorsque n tend vers l’infini, donc max1≤j≤n pnj < x0 /2 pour n assez grand. Ainsi, − log ψSn (t) = [1 − ψP (t)]

n X j=1

pnj + [1 − ψP (t)]2

n X j=1

(pnj )2 [1 + ε([1 − ψP (t)]pnj )].

Par définition de la transformée de Laplace, on a |1 − ψP (t)| ≤ 2. Par conséquent, [1 − ψP (t)]2

n X j=1

(pnj )2 [1 + ε([1 − ψP (t)]pnj )] −→ 0,

n → +∞,

“bqM” — 2013/12/17 — 9:21 — page 66 — #74

66

Chapitre 2. Conditionnement et martingales

et ψSn (t) tend vers exp(λ[ψP (t) − 1]) qui est la transformée de Laplace de la loi de Poisson composée CP(λ, P ) d’après la proposition 1.26. 3. D’après l’exemple 1.29, on obtient ST ∼ P(p). Exercice 2.3 Espérance conditionnelle et sommes.- Soient X et Y deux variables indépendantes et de même loi P . 1. Calculer l’espérance conditionnelle de X sachant X + Y . 2. Si P est la loi normale centrée réduite, calculer l’espérance conditionnelle de |X| sachant X 2 + Y 2 , puis celle de X sachant X 2 + Y 2 . Solution.- 1. On a

X + Y = E (X + Y | X + Y ) = E (X | X + Y ) + E (Y | X + Y ), donc E (X | X + Y ) = (X + Y )/2. 2. On sait par la proposition 2.27 que E (|X| | X 2 + Y 2 ) = ϕ(X 2 + Y 2 ) si, pour toute fonction h : R −→ R borélienne, on a E [h(X 2 + Y 2 )ϕ(X 2 + Y 2 )] = E [h(X 2 + Y 2 )|X|]. D’une part, E [h(X 2 + Y 2 )ϕ(X 2 + Y 2 )] = ZZ 2 2 e−(x +y )/2 = h(x2 + y 2 )ϕ(x2 + y 2 ) dxdy 2π R2 Z Z 2π Z 2 2 e−r /2 = h(r2 )ϕ(r2 ) rdrdθ = h(r2 )ϕ(r2 )e−r /2 rdr, 2π R+ 0 R+

car

R 2π 0

dθ = 2π. D’autre part,

E [h(X 2 + Y 2 )|X|]

= =

ZZ Z

R2

Z

h(x2 + y 2 )|x| 2π

(1)

=

R 2π 0

+y 2 )/2



dxdy

2

e−r /2 h(r )r| cos θ| rdrdθ 2π

h(r2 )r2

R+

(1) puisque

2

2

R+ 0

Z

e−(x

2e−r π

2

/2

dr.

| cos θ|dθ = 4. D’où ϕ(r2 ) = 2r/π. On en déduit que E (|X| | X 2 + Y 2 ) =

Par contre, E (X | X 2 + Y 2 ) = 0 car

R 2π 0

2p 2 X + Y 2. π

cos θdθ = 0.

Exercice 2.4 Fonction caractéristique et conditionnement.- On suppose que X et Y sont deux variables aléatoires telles que Y ∼ N (m, α2 ) et 2 2 E (eitX | Y ) = e−σ t /2 eitY .

“bqM” — 2013/12/17 — 9:21 — page 67 — #75

2.4 Exercices et compléments

67

1. a. Déterminer la fonction caractéristique de X et en déduire sa loi. b. Même question pour (X, Y ). 2. Déterminer E (X|Y et en déduire que X − Y et Y sont indépendantes. 3. a. Déterminer la loi conditionnelle de X sachant (Y = y). b. Déterminer la loi conditionnelle de Y sachant (X = x). c. Déterminer l’espérance conditionnelle de Y sachant X. Solution.- 1. a. On a φX (t) = E [E (eitX | Y )] = e−σ

2 2

t /2

φY (t) = eimt e−(σ

2

+α2 )t2 /2

,

donc X ∼ N (m, σ 2 + α2 ). b. De même φ(X,Y ) (t, s) = =

E [E (eitX eisY | Y )] = e−σ e

2

2

t /2

e

2 2

φY (s + t)

im(s+t) −(σ +α )t /2 −α s /2 −α2 st

e

2

2 2

e

,

donc (X, Y )′ est un vecteur gaussien d’espérance (m, m)′ et de matrice de variances-covariances  2  σ + α2 α2 Γ= . α2 α2 2. Par le théorème 2.44, E (X | Y ) =

Cov (X, Y )Y + E XVar Y − Cov (X, Y )E Y = Y. Var Y

On a E X = E Y = m, donc E (X − Y ) = 0 et Cov (X − Y, Y )

= E [(X − Y )Y ] = E (XY ) − E (Y 2 ) = E [Y E (X | Y )] − E (Y 2 ),

donc Cov (X − Y, Y ) = 0. Et (X − Y, Y )′ est un vecteur gaussien comme transformé linéaire du vecteur gaussien (X, Y )′ , donc X − Y et Y sont indépendantes. 3. a. Par le théorème 2.44, on sait que X sachant (Y = y) suit une loi gaussienne   E X − Cov (X, Y )(y − E X) Cov (X, Y )2 N , Var X − . Var X Var X Or Cov (X, Y ) = α2 donc X sachant (Y = y) suit une loi N (y, σ 2 ). b. En utilisant encore le théorème 2.44, Y sachant (X = x) suit une loi   mσ 2 + xα2 α2 σ 2 N , . σ 2 + α2 σ 2 + α2 c. On en déduit que

E (Y | X) =

mσ 2 α2 + 2 X, 2 +α σ + α2

σ2

l’espérance conditionnelle cherchée.

Page 1

Valérie Girardin & Nikolaos Limnios

Probabilités Processus stochastiques et applications

Rédigé principalement à l’attention des étudiants en Master de mathématiques et en écoles d’ingénieurs, cet ouvrage présente des notions complexes de la théorie des probabilités à travers une introduction aux processus stochastiques et à leurs applications. Composé d’un cours complet, de nombreux exercices corrigés et de problèmes de synthèse, ce manuel servira également de base de révision au concours de l’Agrégation de mathématiques. Sommaire Notations 1. Suites aléatoires indépendantes 2. Conditionnement et martingales 3. Chaînes de Markov 4. Notions générales sur les processus

5. Processus markoviens et semi-markoviens Problèmes à résoudre À la fin de chaque chapitre, on trouvera des exercices suivis de leurs corrigés

Agrégée de mathématiques, Valérie Girardin est maître de conférences à l’Université de Caen BasseNormandie, Laboratoire de Mathématiques Nicolas Oresme, et habilitée à diriger les recherches. Nikolaos Limnios est professeur à l’Université de Technologie de Compiègne (UTC), Laboratoire de Mathématiques Appliquées.

ISBN 978-2-311-40015-1 WWW.VUIBERT.FR

9 782311 400151

MASTER, ÉCOLES D’INGÉNIEURS & AGRÉGATION MATHÉMATIQUES

10:45

Cours & exercices corrigés

17/12/13

Probabilités. Processus stochastiques et applications

CV_Probabilite_Processus2NEW:EP

Valérie Girardin Nikolaos Limnios

MASTER ÉCOLES D’INGÉNIEURS AGRÉGATION MATHÉMATIQUES

Probabilités Processus stochastiques et applications

• Cours complet • Exercices d’application corrigés • Problèmes de synthèse

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF