EXERCICES DE PROBABILITES M2IF Evry, 2011-2012

January 14, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download EXERCICES DE PROBABILITES M2IF Evry, 2011-2012...

Description

EXERCICES DE PROBABILITES M2IF Evry, 2011-2012 Monique Jeanblanc Université d’EVRY June 10, 2011 Les solutions doivent être retournées à Evry avant le 1 septembre, par courrier postal au nom Monique Jeanblanc, Département de mathématiques, Rue du Père Jarlan, 91025 EVRY Cedex. Vous pouvez aussi envoyer un fichier pdf à l’adresse [email protected] Si vous ne rendez pas ces exercices, ou si les solutions ne sont pas satisfaisantes, votre inscription ne sera pas validée. Ce devoir constitue un travail personnel de mise à niveau. Les auteurs de devoirs rédigés en commun (tout ou partie) ne seront pas admis à suivre le M2IF. Les outils qui seront présentés dans le cours de calcul stochastique seront utilisés dans tous les cours de Finance. Il est donc indispensable que vous ayez une maitrise des outils probabilistes de base. Ces devoirs de vacances constituent donc un test. Il est important que vous sachiez les résoudre (ne sous traitez pas leur résolution). Si ce n’est pas le cas, mettez vos connaissances à jour, en particulier en lisant le chapitre 1 du cours disponible sur http://www.maths.univ-evry.fr/pages_perso/jeanblanc/cours/M2_cours.pdf et en résolvant les exercices correspondant à ce chapitre, que vous trouverez (énoncés et corrigés) sur http://www.maths.univ-evry.fr/pages_perso/jeanblanc/cours/M2-exo.pdf Le chapitre 1 du polycopié ne sera pas repris en cours, il constitue les prérequis en probabilités. Certains exercices sont en anglais, il m’a paru superflu de les traduire. N’oubliez pas que non-positive (resp. non-increasing) signifie négatif (resp. décroissant). Parfois, la solution de l’exercice n a un lien avec l’exercice k. N’oubliez pas de le signaler. Pour ceux d’entre vous qui possèdent des connaissances de calcul stochastique, tout commentaire liant un exercice avec un résultat de calcul stochastique connu est bienvenu. Les solutions de ce devoir qui seront rédigées avec un traitement de texte type Tex, Latex seront appréciées. Vous aurez obligatoirement durant l’année scolaire à vous familiariser avec de tels traitements de texte, prenez de l’avance! Ne pas utiliser Word, cela constituerait une perte de temps. Certains exercices ne sont PAS à rédiger: vous devez savoir les résoudre, mais je ne vous demande pas de les rédiger. Cependant, je considérerai que la résolution est acquise et je m’y référerai souvent durant le cours.

Dans de nombreux exercices, on utilise ce qui suit: Une filtration F = (Fn , n ≥ 0) à temps discret est une suite de tribus Fn telles que Fn ⊂ Fn+1 , une suite (Xn , n ≥ 0) de v.a. est dite F adaptée si, pour tout n, la v.a. Xn est Fn mesurable. Une v.a. τ , à valeurs dans IN ∪ ∞ est un temps d’arrêt si, pour tout n, {τ ≤ n} ⊂ Fn . Une filtration à temps continu est une famille de tribus (Ft , t ≥ 0) telles que Fs ⊂ Ft pour s < t, une famille (Xt , t ≥ 0) de v.a. (un processus) est dite F-adaptée si, pour tout t, la v.a. Xt est Ft mesurable. Une v.a. τ , à valeurs dans R+ ∪ ∞ est un temps d’arrêt si, pour tout t, {τ ≤ t} ⊂ Ft . 1. Exercice sur les lois exponentielles et les lois de Poisson (NE PAS REDIGER) (a) If X has a Poisson law with parameter θ > 0, prove that (i) for any s ∈ R, E[sX ] = eθ(s−1) . 1

2 (ii) E[X] = θ, var (X) = θ. (iii) for any u ∈ R, E(eiuX ) = exp(θ(eiu − 1)) (iv) for any α ∈ R, E(eαX ) = exp(θ(eα − 1)) (b) Let Xn be the sum of n independent exponential r.v’s of parameter λ. Compute the law of Xn and E(e−µXn ) (c) Let Ti be a family of independent exponential random variables with parameter λ and, for any t > 0 n X Nt = inf{n ≥ 1 : Ti > t} i=1

Prove that Nt has a Poisson distribution. (d) Let τ be an exponential random variable with parameter λ. Prove that 11τ ≤t − λ(t ∧ τ ) is a martingale Pn (e) Soit (Xi , i ≥ 1) une suite de v.a. indépendantes, de même loi et Sn = i=1 Xi . i. Montrer que (Sn − nE(X1 ), n ≥ 1) est une martingale ii. Calculer la fonction caractéristique de Sn . 2. Variables gaussiennes (NE PAS REDIGER) Soit X une v.a. de loi N (m, σ 2 ). (a) Montrer que E(eθX f (X)) = emθ+σ

2 2

θ /2

E(f (X + θσ 2 )) pour f continue bornée.

(b) Montrer que, si f est "régulière" E(f (X)(X − m)) = σ 2 E(f 0 (X)). (c) Montrer que E(eλX ) = exp(λm + 12 λ2 σ 2 ). En déduire les moments de eX , les moments de X et E(XeλX ). On admettra que si Y est une v.a. telle que E(eλY ) = exp(λa + 12 λ2 b2 ) pour tout λ, Y est une v.a. gaussienne dont on précisera les paramètres. Donner une justification de ce résultat. Z x y2 (d) Soit N (x) = √12π e− 2 dy. Calculer, dans le cas m = 0 et σ = 1 la valeur de −∞

E(11X≤b exp(λX)) en fonction de (N , λ, b). (e) Let G be a Gaussian random variable, and, for any t ∈ R+ , define the random variable √ St = eG t . Prove that the function t → E((St − 1)+ ) is a cumulative distribution function of some r.v. Z; identify the law of Z. (f) Calculer E(exp{λX 2 + µX}) pour 1 − 2λσ 2 ≥ 0. (g) Soit (X, Y ) un vecteur Gaussien. Calculer E(X|Y ) et, pour une fonction Φ régulière, E(Φ(X)|Y ). Quelle est la loi conditionnelle de X par rapport à Y ? (h) Soit (Xn , n1 ) une suite de v.a. gaussiennes. On suppose que cette suite converge dans L2 . Démontrer soigneusement que la limite est gaussienne (ne vous contentez pas de dire c’est un résultat connu) 3. Fonctions génératrices (NE PAS REDIGER) Soit X P une v.a. à valeurs dans IN . La fonction génératrice de X est la fonction f définie par ∞ f (s) = n=0 sn P(X = n). (a) Calculer E(X) et Var(X) en fonction de f . Montrer que si deux v.a. ont même fonction génératrice, elles sont égales en loi. (b) Soit X et Y deux v.a. de fonction génératrice f et g. Déterminer la fonction génératrice de X +Y. (c) Soit Xn , X des v.a. de fonctions génératices fn et f . Montrer que si fn (s) → f (s) pour tout s ∈]0, 1[, alors Xn converge en loi vers X (d) Soit Yi une famille de v.a. i.i.d. de fonction génératrice g et N une v.a. indépendante des Yi , PN de fonction génératrice f . Déterminer la fonction génératrice de Z = i=1 Yi (pour N = 0, on pose Z = 0. 4. Divers, NE PAS REDIGER

3 Pn (a) Soit (Xn , n ≥ 1) une suite de v.a. indépendantes centrées telles que Sn := 1 Xi forme une suite de Cauchy dans L2 (la norme L2 étant kXk = (E(X 2 ))1/2 ). Montrer que Sn converge dans L2 (soit: il P existe S ∈ L2 telle que E((Sn − S)2 ) converge vers 0). Montrer que E(Sn2 ) ∞ converge vers E( 1 Xi2 ) < ∞. En déduire que Xn converge p.s. vers 0. Pn (b) Soient (Xn , n ≥ 1) des v.a. Fn = σ(X1 , X2 , . . . , Xn ) et Sn = i=1 Xi , S0 = 0. Montrer que Fn = σ(S1 , . . . , Sn ) (c) Soit a un réel donné et τ = inf{n : Sn ≥ a} et où l’inf d’un ensemble vide est ∞. Montrer que τ est un temps d’arrêt. Donner un exemple explicite oú τ = ∞. Soit m fixé et gm = sup{n ≤ m : Sn ≤ 0} et dm = inf {n ≥ m : Sn ≤ 0} Les v.a. g et d sont-elles des temps d’arrêt? 5. Martingales, Surmartingales (NE PAS REDIGER) (a) Soit (Zn , 0 ≤ n ≤ N ) une famille de v.a. On définit (Un , 0 ≤ n ≤ N ) par UN Un

= =

ZN max(Zn , E(Un+1 |Fn )), n ≤ N − 1

i. Montrer que U est une surmartingale telle que ∀n, Un ≥ Zn . ii. Montrer que si Y est une autre surmartingale telle que ∀n, Yn ≥ Zn alors ∀n, Un ≤ Yn iii. Soit τ = inf{n : Zn = Un }. Montrer que Un∧τ est une martinjgale. (b) Soit Un une surmartingale. Montrer qu’il existe une martingale M et un processus A croissant (An ≤ An+1 ) tel que An soit Fn−1 mesurable et que Un = Mn − An . Montrer l’unicité sous la condition A0 = 0. (c) Soit M une martingale. Les processus M 2 et |M | sont-ils des sur/sous martingales? Soit A un processus croissant(Ft )-adapté. Le processus A est-il une sur/sous martingale? , Soit A un processus croissant non (Ft )-adapté. Le processus E(At |Ft ) est-il une sur/sous martingale? 6. Martingales à temps discret. NE PAS REDIGER ) tel que X0 = x (constante) et X1 est (a) Un exemple : On considère un processus X = (X0 , X1P n une v.a. telle que P(X1 = xi ) = pi , i = 1, . . . , n avec i=1 pi = 1. i. Soit n = 2. Trouver une condition sur les pi telle que X soit une martingale. ii. Soit n = 3. Déterminer l’ensemble P de tous les pi tels que X soit une martingale. iii. Soit n = 3, et X à valeurs positives. Déterminer supP E((X1 −K)+ ) et inf P E((X1 −K)+ ) (b) Soit (Ω, F, P un espace de probabilité muni d’une filtration discrète F = (Fn , n ≥ 0) et une suite (Ln , n ≥ 0) de v.a. F adaptées, positives i. Sous quelles conditions la mesure Qn définie sur Fn par Qn (An ) = E(Ln An ) est -elle une probabilité? Montrer que Qn (Ap ) = Qp (Ap ) pour Ap ∈ Fp et p < n est vérifiée si et seulement si (Ln , n ≥ 0) est une martingale ii. Soit (XPn , n ≥ 1) une suite de v.a. F adaptées, i.i.d. de loi gaussienne N (µ, 1) et n Sn = e i=1 Xi , n ≥ 0. Sous quelle condition la suite Sn , n ≥ 0 est -elle une martingale. Montrer qu’il existe une suite de v.a. Ln telles que Sn soit une Q martingale, où Q est définie sur F = ∪Fn par ∀An ∈ Fn , Q(An ) = Qn (An ). 7. Pour les étudiants ayant suivi un cours sur le MB (ce point figurant dans le CV) résoudre a). Pour les autres, résoudre b) Rt (a) Soit W un mouvement Brownien. Soit t fixé. Montrer que Xt = 0 Ws ds existe. Calculer l’espérance et la variance de cette v.a. Calculer E(Xt Xs ). Quelle est la loi de la v.a. Xt ? Calculer E(eλXt |Fs ) Pn (b) Soient (Xn , n ≥ 1) des v.a. indépendantes de loi N (mi , σi2 ) et Sn = i=1 Xi . Calculer l’espérance et la variance de cette v.a. Calculer E(Sn Sm ). Quelle est la loi de la v.a. Sn ? Calculer E(eλSn |Fm )

4 8. Un premier pas vers le risque de crédit R t Soit λ une fonction déterministe à valeurs positives et Θ une v.a. positive. On note τ = inf{t : 0 λ(s)ds ≥ Θ} (a) Calculer la loi de τ si Θ a une loi exponentielle, et si Θ a une loi uniforme. Dans la suite Θ a une loi exponentielle de paramètre 1. (b) Calculer P(τ ≤ T |τ < t), E(11τ ≤T |τ ) et P(τ ≤ T |τ > t) R t∧τ (c) Montrer que 11τ ≤t − 0 λ(s)ds est une martingale (d) On suppose que λ est un processus F adapté et que Θ est indépendant de F∞ . Calculer la loi de τ et P(τ < T |Ft ) (e) (NE PAS REDIGER) Let qi be a non-increasing function taking values in [0, 1]. The random times τi , i = 1, · · · , n) are defined as the first time that qi (t) reaches a uniformly distributed threshold Ui on [0; 1], i.e. τi = inf{t : qi (t) < Ui }. Prove that qip (t) = P(τi > t). Let Y1 , · · · , Yn and Y be independent random variables and Xi = ρi Y + 1 − ρ2i Yi . The default thresholds are defined by Ui = 1 − Fi (Xi ) where Fi is the cumulative distribution function of Xi . Prove that à ! Fi−1 (1 − qi (t)) − ρi Y Yi p P(τi ≤ t|Y ) = F 1 − ρ2i Consider the particular case where q Xi = ρi Y +

1 − ρ2i Yi ,

where Y, Yi , i = 1, 2, . . . , n, are independent, standard Gaussian variables under the probability measure P . Prove that ! Z Y Ã −1 N (Fi (ti )) − ρi y p N f (y)dy . P(τi ≤ ti , ∀i ≤ n) = 1 − ρ2i i where f is the density of Y . 9. Martingales (a) Let X be a stochastic process. We denote by FX its natural filtration. The process is said to have independent increments if, for any pair (s, t) of positive numbers Xt+s − Xt is independent of FtX . Prove the following results i. If E(|Xt |) < ∞, then the process Xt − E(Xt ) is a martingale. ii. For any u, the process Zt (u) := iii. If E(eλXt ) < ∞ , the process

eiuXt E(eiuXt ) λXt

e E(eλXt )

is a martingale.

is a martingale

The process is said to have stationary increments if, for any pair (s, t) of positive numbers Xt+s − Xt has the same law as Xs . Prove that, for any n ≥ 1, E(eitX1 ) = ϕn (t) where ϕ is a characteristic function(depending on n). Rt (b) Soit a un processus F-adapté continu (borné) et Fet ⊂ Ft . Montrer que E( 0 as ds|Fet ) − Rt e martingale. E(as |Fes )ds est une F 0

(c) Soit (Mt , t ≥ 0) une F-martingale i. Soit G = (Gt , t ≥ 0) une filtration telle que Ft ⊂ Gt , ∀t. Le processus M est-il une G-martingale? ii. Soit H = (Ht , t ≥ 0) une filtration telle que Ht ⊂ Ft , ∀t. Le processus E(Mt |Ht ) est-il une H-martingale iii. Sous quelles conditions la somme (resp. le produit) de martingales est-elle une martingale? (d) Soit (Mt , t ≥ 0) une F-martingale de carré intégrable (telle que Mt2 soit d’espérance finie, pour tout t).

5 i. ii. iii. iv.

Montrer que E((Mt − Ms )2 |Fs ) = E(Mt2 |Fs ) − Ms2 pour t > s. Montrer que E((Mt − Ms )2 ) = E(Mt2 ) − E(Ms2 ) pour t > s. Montrer que la fonction Φ définie par Φ(t) = E(Mt2 ) est croissante. Le processus Y défini par Yt = Mt2 est-il une sur-martingale (ou une sous-martingale)

10. Changement de probabilité Ce thème sera central en vue d’application à la finance. On donne ici quelques définitions et propriétés (admises ) dans un cas simple et on propose des exercices. Deux probabilités P et Q définies sur le même espace (Ω, F) sont dites équivalentes si elles ont mêmes ensembles négligeables, c’est à dire si P(A) = 0 ⇐⇒ Q(A) = 0. On admet le résultat: Si P et Q sont équivalentes, il existe une variable Y , strictement positive, Fmesurable, d’espérance 1 sous P appelée densité de Radon-Nikodym telle que dQ = Y dP ou encore R dQ Q(A) = A Y dP. On écrit également cette relation sous la forme = Y . Réciproquement, si Y dP est une v.a. strictement positive, F-mesurable, d’espérance 1 sous P, la relation EQ (Z) = EP (ZY ) définit une probabilité Q équivalente à P. Elle est facile à mémoriser par la règle de calcul formel suivante: Z Z Z dQ EQ (Z) = ZdQ = Z dP = ZY dP = EP (ZY ) dP dP 1 = . dQ Y Si Y est seulement positive, on a P(A) = 0 =⇒ Q(A) = 0 et on dit que Q est absolument continue par rapport à P. On a aussi

(a) Soit (Ω, (Fn ), P un espace de probabilité muni d’une filtration discrète (c’est-à-dire une suite de tribus Fn telles que Fn ⊂ Fn+1 et une suite Ln de v.a. F adaptés (telles que Ln est Fn mesurable), positives i. Sous quelles conditions la mesure Qn définie sur Fn par Qn (An ) = E(Ln An ) est -elle une probabilité? Montrer que Qn (Ap ) = Qp (Ap ) pour Ap ∈ Fp et p < n est vérifiée si et seulement si Ln , n ≥ 1 est une martingale ii. Soit Pn (Xn , n ≥ 1) une suite de v.a. F adaptés, i.i.d. de loi gaussienne N (µ, 1) et Sn = e i=1 Xi , n ≥ 0. Sous quelle condition la suite Sn , n ≥ 0 est -elle une martingale. Montrer qu’il existe une suite de v.a. Ln telles que Sn soit une Q martingale (b) Soit (X, Y ) un couple de v.a. admettant une densité f (x, y) strictement positive. On définit 1 la mesure Q par Q(A) = E(11A f (X,Y ) ) pour tout A ∈ σ(X, Y ). Montrer que Q est une mesure de probabilité. Déterminer la loi de X sous Q (par exemple, en calculant Q(X ≤ x), mais il y a des méthodes plus astucieuses) Montrer que sous Q, les v.a. X et Y sont indépendantes (c) Montrer que si P est une probabilité et Z une v.a., telle que l’égalité dQ = ZdP (soit Q(A) = EP (Z11A )) définit une probabilité, alors EP (Z) = 1 et P(Z < 0) = 0. (d) Soit U une variable de Bernoulli sous P définie par P(U = 0) = 1 − p,

P(U = 1) = p.

Soit Y la variable définie par Y = λU + µ(1 − U ). Dans quels cas cette variable est elle d’espérance 1? Soit dQ = Y dP, Calculer Q(U = 1). Quelle est la loi de U sous Q? (e) Soit X est une v.a. de loi N (m, σ 2 ) sous P et soit Y = exp{h(X − m) − 21 h2 σ 2 }. Soit dQ = Y dP. Calculer EQ {exp(λX)}) = EP {Y exp(λX)}. En déduire la loi de X sous Q. (f) Soit X est un vecteur gaussien sous P et U une variable telle que le vecteur (X, U ) soit 1 gaussien. On pose dQ = Y dP avec Y = exp(U − EP (U ) − VarP U ). Montrer que X est 2 gaussien sous Q, de même covariance que sous P.

6 (g) Soit P une probabilité et Q une probabilité équivalente à P définie par dQ = LdP. Montrer que l’on peut exprimer l’espérance conditionnelle d’une variable sous Q en fonction de l’espérance conditionnelle sous P : EP (LX |G) EQ (X |G) = . EP (L |G) 11.

Espérance conditionnelle. L’espérance conditionnelle E(X |G ) de X quand G est l’unique variable aléatoire a. G-mesurable b. telle que E[E(X |G )Y ] = E(XY ) pour toute variable Y , G-mesurable bornée. Démontrer les propriétés suivantes (ces propriétés seront admises dans le cours de M2): (a) Linéarité. Soit a et b deux constantes. E(aX + bY |G ) = aE(X |G ) + bE(Y |G ). (b) Croissance. Soit X et Y deux v. a. telles que X ≤ Y . Alors E(X |G ) ≤ E(Y |G ). (c) E[E(X |G )] = E(X). (d) Si X est G-mesurable, E(X |G ) = X. (e) Si Y est G-mesurable, E(XY |G ) = Y E(X |G ). (f) Si X est indépendante de G, E(X |G ) = E(X). (g) Si G est la tribu grossière (composée de l’ensemble vide et de Ω), E(X|G) = E(X). (h) Si G et H sont deux tribus telles que H ⊂ G alors E(X |H ) = E(E(X |H) |G ) = E(E(X |G ) |H ). (i) Si (X, Y ) sont indépendantes, et φ une fonction borélienne bornée, E(φ(X, Y )|Y ) = [E(φ(X, y))]y=Y . (j) Soit A ∈ / G et A ∈ F et X une v.a. intégrable. On note H la tribu engendrée par G et A. On admettra que les v.a. Z qui sont H-mesurables s’écrivent Z = Y1 11A + Y2 11Ac , où les v.a. Yi sont G-mesurables. Montrer que E(X|H) =

E(X11A |G) E(X11Ac |G) 11A + 11Ac E(11A |G) E(11Ac |G)

12. Divers (a) CET EXERCICE EST INDISPENSABLE Soit b un nombre réel. On note (x)+ la partie positive de x, soit x+ = sup(x, 0). Calculer, en terme de fonction de répartition de la loi gaussienne la quantité C(a) = E((aeX − b)+ ). Calculer la dérivée de C(a). 2

(b) Soient N et N 0 deux v.a. de loi N (0, 1), indépendantes. Montrer que E(exp a2 N 2 ) = E(exp aN N 0 ). (c) Somme aléatoire Soit (Xi , i ≥ 1) une suite de v.a. indépendantes, de même loi et Sn = Pn X . i=1 i Soit N une v.a. de loi de Poisson, indépendante des Xi . i. Calculer E(SN ). ii. Calculer la fonction caractéristique de SN . 13. Mouvement Brownien Dans cet exercice, W est un mouvement Brownien. (a) Montrer que, pour 0 < s < t < 1 on a E(Wt − Ws |W1 − Ws ) =

t−s 1−s (W1

− Ws ).

(b) Parmi les processus suivants, quels sont ceux qui sont un MB i. Xt = 2(W1+t/4 − W1 ) ii. Yt = W2t − Wt iii. (1 + t)Ut/(t+1) avec Us = Ws − sW1 , pour s ∈ [0, 1]. (c) Soit X et Y deux processus continus, θ un nombre réel et Ut = sin(θ)Xt + cos(θ)Yt Vt = cos(θ)Xt − sin(θ)Yt Montrer que U et V sont des MB indépendants si et seulement si X et Y sont des MB indépendants.

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF