Chapitre III.6

January 17, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Chapitre III.6...

Description

CHAPITRE III SUITES D’EXPERIENCES ALEATOIRES III.1. Le modèle Nous commençons par introduire un modèle abstrait, qui généralise le jeu « pile ou face ». III.1.a. Le modèle abstrait – le processus de Bernoulli Considérons une suite d’essais d’une même expérience aléatoire que l’on répète indéfiniment de telle sorte que les conditions soient toujours identiques et que les résultats des différents essais soient sans influence mutuelle. Supposons que l’expérience n’a que deux résultats possibles, succès ou échec, et la probabilité du succès soit un nombre p dans l’intervalle [0,1]. Nous appelons une telle suite d’essais un processus de Bernoulli. Il s’agit d’un cas particulier simple du concept plus général (étudié au Ch.V.) de suite d’expériences aléatoires indépendantes. Il est commode d’écrire 1 ou 0 au lieu de « succès » ou « échec ». On peut donc décrire les résultats d’une suite d’expériences par une suite de 0 et de 1 que l’on notera (Xi) où Xi vaut 0 ou 1 suivant que la i-ième expérience est un échec ou un succès. On dit que (Xi) est une suite de variables aléatoires indépendantes (voir Ch. IV. pour la définition formelle des variables aléatoires et Ch. V. pour la définition de l’indépendance). L’espace fondamental d’un essai est l’ensemble {0,1}. Le processus de Bernoulli dépend d’un seul paramètre p, la probabilité du succès, et on a P(Xi = 1) = p et P(Xi = 0) = 1 – p Définition : On dit que Xi suit une loi de Bernoulli de paramètre p où p est la probabilité de succès. On écrit Xi ∼ Bernoulli( p ) ou Xi ∼ B(1, p ) Xi est appelé variable aléatoire de Bernoulli ou plus brièvement variable de Bernoulli.

Si on fait un nombre d’essais N < ∞, l’ensemble fondamental du processus de Bernoulli est donné par E = {0,1}N. E est l’ensemble de toutes les suites finies de longueur N (ou de Nuplets) de 0 et de 1, donc card(E) = 2N. En utilisant l’indépendance des essais on trouve que la probabilité d’une suite est donnée par P(X1 = x1 , X2 = x2 ,…, XN = xN ) = pnombre de 1(1 – p)nombre de 0 =p #1(1 – p)#0 = p #1(1 – p)N - #1 où xi ∈ {0,1}. En particulier, si p = ½, chaque suite a la même probabilité 1/2N. Dans le cas où le nombre d’expériences est infini l’ensemble fondamental du processus de Bernoulli est donné par E = {0,1}IN. E est l’ensemble de toutes les suites infinies indexées par 0 et 1. On peut montrer que E n’est pas dénombrable, et la probabilité de toute suite (xi) donnée est nulle ! Bien entendu cela ne signifie pas que la probabilité de tout événement est nulle. III.1.b. Exemples Exemple 1 : Pile ou face On jette une pièce N fois. On pose Xi = 1 si le résultat du ième jet est pile et Xi = 0 si le résultat du ième jet est face. Pour une pièce non biaisée p = ½. Exemple 2 : Problèmes d’urne – tirages avec remise Une urne contient m boules dont k sont blanches et l = m – k sont noires. On tire N fois une boule avec remise. On pose Xi = 1 si la ième boule est blanche et Xi = 0 si la ième boule est noire. On a p = k/m. Exemple 3 : Dans chaque unité de temps un appel arrive dans un central téléphonique avec une probabilité égale à p. On pose Xi = 1 si un appel arrive dans la ième unité du temps et Xi = 0 sinon. Exemple 4 : Les transistors fabriqués par une machine sont affectés d’un défaut avec probabilité p. L’état d’un transistor est indépendant de celui des précédents ou suivants. On pose Xi = 1 si le transistor a un défaut et Xi = 0 sinon. Exemple 5 : On exécute une suite d’épreuves indépendantes. La probabilité qu’un certain événement A est réalisé dans une épreuve est égale à p = P(A). On pose Xi = 1 si A est réalisé et Xi = 0 sinon.

III.2. La loi binomiale III.2.a. Le nombre de succès On définit SN = X1 + … + XN où Xi prend des valeurs dans {0,1}. Donc SN est égal au nombre de succès pendant les N premières expériences. La loi de SN est donnée par P(SN = k) = CkN pk(1 – p)N – k. Pour établir cette loi il faut d’abord remarquer que chaque suite de longueur N comportant k succès a pour probabilité pk(1 – p)N – k. Evidemment il y a CkN possibilités de placer k succès parmi les N tirages. Notons, qu’une application de la formule du binôme de Newton (voir Ch. I.2.d.), donne que la somme de tous les P(SN = k) est 1 : N

N

k =0

k =0

∑ P( SN = k ) = ∑ CNk p k (1 − p) N −k = ( p + (1 − p) ) = 1 . N

Définition : On dit que SN suit une loi binomiale de paramètres (N, p ) où N désigne le nombre d’expériences et p est la probabilité de succès dans un essai. On écrit SN ∼ B(N, p ) SN est appelé variable aléatoire binomiale ou plus brièvement variable binomiale. Exemple 1: On tire (avec remise) 5 boules dans une urne contenant 10 blanches, 15 noires et 25 rouges. Quelle est la probabilité de tirer 3 boules blanches ? Solution : On décide ici que le tirage d’une boule blanche est un succès et que le tirage d’une boule rouge ou d’une boule noire est un échec. Ainsi la probabilité p de succès pour chaque tirage est p = 10/50 = 1/5. Les tirages s’effectuant avec remise, nous sommes dans le cadre des tirages indépendants, i.e. d’un processus de Bernoulli. Le nombre S5 de boules blanches tirées lors de 5 tirages avec remise suit donc une loi binomiale de paramètres N = 5 et p = 1/5. Alors P(S5 = 3) = C35 (1/5)3(4/5)2 = 32/625

Exemple 2: Un système de communication comporte 5 composants. Chacun d'entre eux fonctionnera, indépendamment des autres, avec une probabilité 0.7. Le système total pourra fonctionner si au moins la moitié de ces composants sont opérationnels. Calculer la probabilité que le système ne fonctionne pas. Solution : Soit X le nombre de composants opérationnels. X est une variable aléatoire binomiale de paramètres 5 et 0.7. La probabilité que le système ne fonctionne pas est donnée par P(X=0) + P(X=1) + P(X=2) = C05*0.70*0.35 + C15*0.71*0.34 + C25*0.72*0.33 = 0.16308

III.2.b. Stabilité Soient SM et SN deux variables aléatoires binomiales de paramètres (M, p) et (N, p). Si les N expériences de Bernoulli sont indépendantes des M expériences de Bernoulli, on dit que les variables aléatoires binomiales SM et SN sont indépendantes. Dans ce cas la somme SM + SN est égale au nombre de succès pendant une suite des N + M expériences de Bernoulli de paramètre p. Par conséquent, on a SM + SN = SM+N . Cette propriété est appelée stabilité. Proposition : Soient SM et SN deux variables aléatoires binomiales indépendantes de paramètres (M, p ) et (N, p ). Alors SM + SN suit une loi binomiale de paramètres (M + N, p ), i.e. P(SM + SN = k) = CkM+N pk(1 – p)M+N – k. Au chapitre V on donnera une définition plus précise de l’indépendance de deux variables aléatoires : Soient SM et SN deux variables aléatoires binomiales de paramètres (M, p) et (N, p). On dit que SM et SN sont indépendants si et seulement si P(SM = k et SN = l) = P(SM = k) ⋅ P(SN = l) pour tout k = 0,…,M et l = 0,…,N .

III.3. La loi géométrique et loi binomiale négative On considère un processus de Bernoulli de paramètre p. On s’intéresse au nombre T d’essais jusqu’au premier succès. III.3.a. Loi du temps du 1er succès On introduit un temps aléatoire T, défini comme temps du 1er succès dans une suite infinie d’expériences de Bernoulli, i.e. T = min(k : Xk = 1) = min(k : Sk = 1), où Sk = X1 + … + Xk. Nous vérifierons ci-dessous que ce temps est fini avec probabilité 1. Pour tout k notons Ak l’événement { Xk = 1}. L’événement {T = k} est égal à (A1)c ∩ … ∩ (Ak-1)c ∩ Ak. On calcule alors la loi de probabilité de T. P(T = 1) = p , P(T = 2) = (1 – p) ⋅ p , P(T = k) = (1 – p)k – 1 ⋅ p d’où l’on peut déduire, par exemple, que P(T > k) = ∑j > k P(T = j) = ∑j > k (1 – p)j – 1 ⋅ p = (1 – p)k. En particulier, P(T = ∞) = lim k→∞ P(T > k) = lim k→∞ (1 – p)k = 0 si p > 0. Donc P(T < ∞) = 1, i.e., avec probabilité 1, le temps T est fini. Définition : On dit que T suit une loi géométrique de paramètre p où p est la probabilité de succès dans un essai. On écrit T ∼ Geom(1, p ) T est appelé variable aléatoire géométrique ou plus brièvement variable géométrique. Exemple : On jette un dé équilibré jusqu’à un « 6 » sort. Quelle est la probabilité qu’on lance le dé au plus trois fois ? Solution : Soit T le temps jusqu’à un « 6 » sort. On a T ∼ Geom(1, 1/6). La probabilité cherchée est P(T ≤ 3) = P(T =1) + P(T =2) + P(T =3) = 1/6 + 5/6 ⋅1/6 + 5/6 ⋅ 5/6 ⋅1/6 = 91/216 ≅ .4212962963. On pourra aussi calculer cette probabilité en passant par le complémentaire : P(T ≤ 3) = 1 - P(T > 3) = 1- (5/6)3 = 1 - 125/216 = 91/216.

III.3.b. Propriété caractéristique de la loi géométrique : perte de mémoire La loi géométrique est caractérisée par une propriété très importante, la propriété de « perte de mémoire », i.e. par P(T > j+k|T > j) = P(T > k) pour tous les entiers j et k non négatifs. Ainsi sachant qu’il n’y a pas eu de succès jusqu’au temps j (inclus), la probabilité qu’il y ait un succès dans les k essais suivants est indépendante de j. En particulier, cette probabilité est identique à celle de n’avoir aucun succès dans les k premiers essais. Pour vérifier cette propriété utiliser l’identité P(T > k) = (1 – p)k.

III.3.c. Loi binomiale négative On s’intéresse au nombre Tr d’essais jusqu’aux r premiers succès. On définit Tr = min(k : Sk = r), où Sk = X1 + … + Xk. En particulier, T1 est une variable géométrique. On voit que le support de Tr est l’ensemble { r , r + 1, r + 2, …}. Si Tr = n , alors le n-ième essai est un succès et le nombre de succès dans les (n – 1) premières expériences est égal à (r – 1). Par conséquent, on a l’égalité des événements suivants : { Tr = n } = { Xn = 1 et Sn-1 = r – 1} En utilisant l’indépendance de Xk et Sk-1 on trouve P(Tr = n) = P(Sn-1 = r – 1) ⋅ P(Xn = 1) = Cr-1n-1 pr-1(1 – p)n – r⋅ p. La loi de Tr est alors donnée par P(Tr = n) = Cr-1n-1 pr(1 – p)n – r pour n = r , r + 1, r + 2, … Définition : On dit que Tr suit une loi binomiale négative de paramètres p et r, où r désigne le nombre de succès à achever et où p est la probabilité de succès dans un essai. On écrit Tr ∼ Geom(r, p) Tr est appelé variable aléatoire binomiale négative ou plus brièvement variable binomiale négative.

Exemple (problème des points) : Deux joueurs A et B jettent un dé honnête. Si le résultat est un « 6 » c’est le joueur A qui marque un point, sinon c’est B qui marque un point. Quelle est la probabilité que A marque 2 points avant que B marque 9 points ? Solution : Les deux joueurs réalisent des épreuves indépendantes dont la probabilité du succès est p = 1/6. Nous cherchons la probabilité que r = 2 succès apparaissent avant m = 9 échecs, i.e. que le deuxième succès survient au plus tard à la (r + m – 1) = 10-ième épreuve. Donc cette probabilité est égale à P(T2 ≤ 10) et l’on a 10

10

k =2

k =2

P(T2 ≤ 10) = ∑ P(T2 = k ) = ∑ Ck1−1 ( 16 ) 2 ( 56 )k −2 = 10389767 20155392 ≅ 0.5154832513 . Cas général : Dans un processus de Bernoulli de paramètre p la probabilité que r succès apparaissent avant que le m-ième échec ne survienne est donnée par P(Tr ≤ r + m − 1) =

r + m −1

∑ k =r

P(Tr = k ) =

r + m −1

∑C k =r

r −1 k −1

p r (1 − p ) k − r .

III.3.d. Stabilité La loi binomiale négative satisfait une propriété de stabilité. En particulier, chaque variable binomiale négative s’écrit comme somme de variables géométriques indépendantes. Proposition : Soient Y1 , … , Yr des variables géométriques indépendantes de paramètre p. Alors, la variable aléatoire Tr = Y1 + … + Yr suit une loi binomiale négative Geom(r, p). Corollaire : Soient Tr ∼ Geom(r, p) et Ts ∼ Geom(s, p) deux variables binomiales négatives indépendantes. Alors, Tr + Ts suit une loi Geom(r + s, p).

III.4. Extensions du modèle Le processus de Bernoulli est un modèle simple basé sur les propriétés suivantes: a. les essais sont binaires, i.e. les essais n’ont que deux résultats possibles b. les essais sont indépendants, i.e. les résultats des différents essais sont sans influence mutuelle Les modèles discutés dans ce chapitre sont des extensions du processus de Bernoulli en abandonnant une des ces hypothèses.

III.4.a. Le modèle multinomial On garde l’indépendance des essais, mais on suppose que le nombre m des résultats possibles peut être plus grand que deux. Soient x1,…, xm les résultats possibles dans une expérience. On note pi la probabilité que le résultat soit xi. Les pi satisfont la relation p1 + p2 + … + pm = 1. On considère alors une suite de N expériences aléatoires indépendantes. On désigne P((N1,...,Nm) = (n1,...,nm)) la probabilité qu’il ait n1 résultats du type x1,…, nm résultats du type xm dans N = N1 + ... + Nm essais, alors P (( N1 ,..., N m ) = ( n1 ,..., nm ) ) =

N! p1n1 ⋅ ... ⋅ pmnm n1 !⋅ ... ⋅ nm !

Définition : On dit que le vecteur (N1,...,Nm) suit une loi multinomiale. Exemple 1 : On jette un dé honnête 15 fois. Quelle est la probabilité d’obtenir 4 faces montent "Un", 3 "Deux", 2 "Trois", 2 "Quatre", 3 "Cinq", et une face est un "Six" ? Solution : Les paramètres du modèle sont m = 6 , pi = 1/6 et N = 15. On a P((N1,N2,N3, N4,N5,N6) = (4,3,2,2,3,1)) = 15!/(4!3!2!2!3!1!)·(1/6)4·(1/6)3·(1/6)2 ·(1/6)2·(1/6)3·(1/6)1 = 15!/(4!3!2!2!3!1!)·(1/6)15 = 875875/1088391168 = 0.0008047428404...

Exemple 2 : On tire (avec remise) des boules dans une urne qui contient des boules de m couleurs différentes indexées par 1, 2,…, m . On dénote la couleur de la i-ème boule par Xi et on pose P(Xi = k) = pk , où 1 ≤ k ≤ m . La probabilité de tirer ni boules de la couleur i dans n = n1 + ... + nm essais est donnée par la loi multinomiale. Considérons une urne qui contient une boule blanche, deux boules rouges et trois boules noires. On tire 12 fois une boule avec remise. Quelle est la probabilité de tirer 2 boules blanches, 4 boules rouges et 6 boules noires ? Solution : Les paramètres du modèle sont m = 3, p1 = 1/6, p2 = 2/6, p3 = 3/6 et (n1, n2, n3 )= (2,4,6). Alors P((N1,N2,N3) = (2,4,6))) = 12!/(2!4!6!)·(1/6)2·(1/3)4·(1/2)6 = 385/5184 = 0.07426697531.

III.4.b. Modèle hypergéométrique Dans ce cas les essais sont binaires mais dépendants. Pour préciser le modèle, considérons une population constituée de deux types d’individus. Supposons la taille totale de la population soit égale à N. Notons N1 le nombre d’individus de type 1 et N2 le nombre d’individus de type 2, où N = N1 + N2 . Dans cette population, on tire sans remise n individus. On regarde le nombre d’individus de type 1, noté Y, parmi les n tirés. La loi de Y est donnée par P(Y = k ) =

C Nk 1 ⋅ C Nn −2 k C Nn

si 0 ≤ k ≤ n et 0 ≤ k ≤ N1 , i.e. et 0 ≤ k ≤ min(n, N1), et P(Y = k) = 0 sinon. Définition : On dit que Y est une variable aléatoire hypergéométrique de paramètres N, N1 et n. Remarque : Le modèle hypergéométrique est très différent du cas avec remise, i.e. du cas binomial. Exemple 1 (Capture et recapture) : Un foret abrite 20 cerfs. 8 sont capturés, marqués et relâchés. Un peu plus tard 6 sont de nouveau capturés. Quelle est la probabilité que 3 d'entre eux soient marqués ? Solution : Soit X le nombre de cerfs marqués parmi les n = 6 capturés. Le nombre total de cerfs est N = 20 dont N1 = 8 cerfs marqués. Pour la probabilité cherchée on trouve P(X = 3) = C38C312/ C620 =0.3178535.

La loi du temps du premier succès ou du temps d’attente dans le cas hypergéométrique est donnée par C Nt 2 N − N 2 C Nt 2 N1 C N1 −1 = t ⋅ = N −Nt1−1 P(T = t + 1) = t ⋅ CN N − t CN N − t CN pour t = 0,1,…, N2 et P(T = t + 1) = 0 sinon. En particulier, P(T > k ) =

C Nk 2 CNk

.

Exemple 2: Une urne contient 10 boules blanches et 2 boules rouges. On tire des boules sans remise jusqu'à la première boule rouge soit tirée. Quelle est la probabilité qu’on tire au plus trois fois ? Solution : Soit T le temps d’attente d’une boule rouge. T suit une loi du temps du premier succès dans le cas hypergéométrique de paramètres N = 12, N2 = 10. On a P(T ≤ 3) = 1 - P(T > 3) = 1 – C310/ C312 = 5/11.

III.5. Théorèmes limites Nous présentons des résultats concernant le comportement asymptotique des lois probabilités liées au processus de Bernoulli et ses généralisations. Ces résultats, appelés théorèmes limites, permettront de simplifier considérablement le calcul de probabilités. Ils sont souvent des cas particuliers d’un théorème plus général qu’on présentera au chapitre V.

III.5.a. Convergence du modèle hypergéométrique vers le modèle binomial Considérons le modèle hypergéométrique de paramètres N, N1 et n. Soit Y le nombre d’individus de type 1 tirés. On va étudier la variable Y lorsque la taille N de la population tends vers l’infini de sorte que la proportion d’individus de type 1 reste fixe. Plus précisément on a le résultat suivant : Proposition : Soit Y une variable aléatoire hypergéométrique de paramètres N, N1 et n. Si n est fixé et N, N1 → ∞ tel que N1 /N → p, alors P(Y = k) → Ckn pk(1 – p)n – k, i.e. Y tend vers une variable aléatoire binomiale de paramètres (n, p). Pour démontrer la proposition on utilise le lemme suivant. Lemme : Soit k > 0 fixé et m → ∞, alors Ckm/mk → 1/k! , i.e. Ckm ∼ mk/k!

III.5.b. Convergence du modèle binomial vers la loi de Poisson Lorsque le nombre d’essai est grand et la probabilité du succès est petite alors la loi de nombres de succès s’approche d’une loi très importante en calcul de probabilités, la loi de Poisson. Définition: On dit que Z suit une loi de Poisson de paramètre λ > 0, si P(Z = k) = exp(-λ)⋅ λk/k! On écrit Z ∼ Poisson(λ)

Proposition : Soit SN une variable aléatoire binomiale de paramètres (N, p). Si N → ∞ et p → 0 tel que N⋅p → λ, alors pour tout entier nonnégatif k P(SN = k) → exp(-λ)⋅ λk/k!, Ainsi une variable de Poisson modélise le nombre de succès dans un très grand nombre d’expériences indépendantes où la probabilité de succès est petite ( p ∼ λ/N). L’approximation poissonnienne fonctionne en fait assez bien même si N n’est pas très grand. Exemple 1: On jette deux dés 12 fois et on considère le nombre U de double six. La variable U satisfait une loi binomiale de paramètres N = 12 et p = 1/36, donc on pose λ = 1/3. Comparer les probabilités exactes et les probabilités calculées en utilisant la loi de Poisson. k 0 1 2 3

P(U = k) 0.7131592556 0.2445117448 0.0384232742 0.0036593594

exp(-λ)⋅ λk/k! 0.7165313106 0.2388437702 0.0398072950 0.0044230328

Exemple 2: On considère le problème de « matchings » présenté au Ch. II.3.b. On a vu que la distribution de « matchings » converge vers une distribution de Poisson de paramètre 1. III.5.c. Convergence de la loi géométrique vers la loi exponentielle Soit T une variable géométrique de paramètre p. Rappelons que T signifie le nombre d’essais jusqu’au premier succès ou le temps du 1er succès. Comme précédemment on considère le cas N → ∞ et p → 0 tel que N⋅p → λ pour un λ > 0. Alors, pour tout t réel positif, on a P(T/N > t) = P(T > tN) = (1-p)tN ~ (1-λ/N)tN = (1-λt/tN)tN → exp(-λt). Définition: On dit que U suit une loi exponentielle de paramètre λ > 0, si pour tout t réel positif P(U > t) = exp(-λt).

La loi exponentielle est parmi les lois les plus souvent rencontrées dans la pratique de l’ingénieur. Mentionnons quelques applications de la loi exponentielle : la durée du fonctionnement ou la durée de vie d’un équipement technique, la désintégration radioactive et les temps d’attente de clients devant un guichet. Nous avons donc démontré la proposition suivante. Proposition : Soit T une variable aléatoire géometrique de paramètre p. Si N → ∞ et p → 0 tel que N⋅p → λ, alors pour tout t réel positif, on a P(T/N > t) → exp(-λt).

III.5.d. Loi des grands nombres Nous donnons une première version d’un théorème fondamental du calcul de probabilités : la loi des grands nombres. Des versions plus générales et mathématiquement plus précises sont présentées au Ch. V. Si on lance un grand nombre de fois une pièce honnête, la fréquence d’apparition de pile se stabilise autour de la valeur 0.5, la valeur théorique de probabilité d’apparition de pile. On regarde SN, le nombre de succès dans le modèle binomial. Pour p fixé on laisse N → ∞. Loi des grands nombres : Le nombre moyen de succès lors des N premiers essais, i.e. SN /N = nombre de succès/nombre d’essais, tend vers p, la probabilité théorique de succès lorsque N → ∞. Dans le Ch. IV nous introduisons une quantité, appelée espérance d’une variable aléatoire, qui donne la valeur moyenne de la fréquence de succès. Pour une variable binomiale cette valeur est égale à la probabilité théorique de succès (voir aussi Ch. IV) : E[SN/N] = 0/N*P(SN = 0) + 1/N*P(SN = 1) + ... + k/N*P(SN = k) + ... + N/N*P(SN = N) = p. C’est pourquoi l’on se pose la question de savoir si le nombre moyen de succès lors des N premiers essais, SN /N , reste tout près de son espérance E[SN/N]. Il y a évidemment des événements de probabilité non nulle pour lesquelles la différence SN /N – p n’est pas petite comme c’est le cas par exemple pour l’événement { SN /N = 1}. Mais cette probabilité tend vers zéro lorsque N tend vers l’infini : P(SN /N = 1) = pN → 0 lorsque N → ∞. On peut donc espérer que c’est aussi le cas pour tous les événements de la forme | SN /N – p | > ε pour tout ε > 0. Ceci est l’énoncé de la loi (faible) des grands nombres présentée dans le chapitre V.

III.5.e. Convergence vers la loi gaussienne ou normale On considère toujours SN, le nombre de succès dans le modèle binomial, pour p fixé et lorsque N → ∞. Les théorèmes présentés ci-dessous donnent une description précise de « l’erreur » ou des fluctuations de SN/N autour sa valeur moyenne p. La distribution de SN /N – p suit approximativement une loi gaussienne ou normale. Tout d’abord donnons la définition d’une loi gaussienne ou normale. Définition: On dit que U suit une loi gaussienne ou une loi normale de moyenne µ et de variance σ2 , σ > 0, si pour tout a < b b

P ( a ≤ U ≤ b) =

1 2πσ 2

∫ exp( −

( x − µ )2 )dx 2σ 2

.

a

On écrit U ∼ N(µ,σ2). En particulier, si µ = 0 et σ = 1, on dit que U suit une loi gaussienne standard ou une loi normale standard et on écrit U ∼ N(0,1). Dans ce cas, pour tout a < b b

P ( a ≤ U ≤ b) =

1 2π

∫e



x2 2

dx .

a

Maintenant, l’erreur dans la loi des grands nombre s’écrit comme SN 1 −p! N N

p (1 − p ) ⋅ U

lorsque N → ∞ et U suit une loi N(0,1). Autrement dit, lorsque N est grand, SN suit approximativement une loi gaussienne de moyenne µ = Np et de variance σ2 = Np(1-p). Ce résultat est connu sous le nom de théorème limite de De Moivre-Laplace. De Moivre fut le premier à l’établir dans le cas particulier p = ½ en 1733. Laplace a pu le généraliser pour toute valeur de p en 1812. De façon plus précise on a: Théorème local (théorème de Moivre-Laplace) : Si SN ∼ B(N, p ) , k ∼ N⋅p et N → ∞, alors P( S N = k ) ∼

1 2π Np (1− p )



e

( k − Np )2 2 Np (1− p )

Théorème global : Si SN ∼ B(N, p ) et N → ∞, alors pour tout t réel t

P( S N ≤ Np + Np(1 − p ) ⋅ t ) →

1 2π

∫e

−∞



x2 2

dx .

III.6. Marche aléatoire et fortune du joueur Nous étudions une des applications les plus importantes du schéma de Bernoulli, la marche aléatoire. III.6.a. Définition Considérons le jeu suivant : un joueur lance successivement et indépendamment N fois une pièce de monnaie. Chaque fois qu’il obtient « pile », il gagne 1 franc, chaque fois qu’il obtient « face »S, il perd 1 franc. Soit ZN la fortune du joueur. On a ZN+1 = ZN + 1 avec probabilité p ZN+1 = ZN - 1 avec probabilité 1 – p On peut interpréter ZN comme la position d’une particule soumise au mouvement aléatoire décrit par la récurrence ci-dessus. La suite Z0 , Z1 , Z2 ,… est appelée marche aléatoire. La relation avec le processus de Bernoulli s’exprime par les transformations suivantes. Avec Xi comme précédemment, on définit la variable Di par Di = 1 si Xi = 1 i.e. P(Di=1) = p Di = -1 si Xi = 0 i.e. P(Di=-1) = 1 - p Donc Di = 2Xi – 1 et ZN = 2SN – N où SN est égal au nombre de succès dans N essais.

III.6.b. La loi de ZN Le support de ZN est l’ensemble des entiers {-N, -N + 1,…, N – 1, N}. En utilisant la relation ZN = 2SN – N on trouve P(ZN = l) = P(2SN - N = l) = P(SN = (N + l)/2) et SN est une variable binomiale de paramètres N et p. Alors P(ZN = l) = 0

si (N+l) est impair i.e. (N+l)/2 n’est pas un entier .

P(ZN = l) = CkN·pk·(1-p)N-k si (N+l) = 2k

i.e. (N+l)/2 est un entier non négatif.

En particulier, dans le cas symétrique, p = ½, on a P(ZN = l) = 0

si (N+l) est impair

P(ZN = l) = C½(N+l)N ·2-N si(N+l) est pair.

III.6.c. Application au problème de la ruine de joueur Considérons deux joueurs, le joueur 1 ayant une fortune de A francs et le joueur 2 ayant une fortune de B francs. Si Di = 1, le deuxième joueur paye un franc au premier; si Di = -1, le premier joueur paye un franc au deuxième. La variable ZN correspond au gain du premier joueur (si ZN est négatif, c’est alors la somme gagnée par le deuxième joueur) après N tours. Le temps N où pour la première fois ZN = -A ou ZN = B, un des joueurs est ruiné et le jeu s’arrête. Soit Ei l’événement que la particule quitte la région (-A, B) par -A en partant de la position initiale S0 = i ; notons P(Ei) = qi. On conditionne sur le premier saut de la particule : P(Ei) = P(Ei|D1 = 1)P(D1 = 1) + P(Ei|D1 = -1)P(D1 = -1). Avec P(Ei|D1 = 1) = P(Ei+1) et P(Ei|D1 = -1) = P(Ei-1) on obtient la récurrence qi = qi+1⋅p + qi-1⋅(1-p). et les conditions au bord q-A = 1 and qB = 0. Notons r = (1-p)/p. La solution s’écrit comme qi = (rB - ri)/ (rB - r-A) si p ≠ ½ qi = (B - i)/(B + A)

si p = ½.

Pour q0 ceci nous donne : q0 = (rB - 1)/ (rB - r-A) si p ≠ ½ q0 = B/(B + A)

si p = ½.

Considérons le cas A = B , i.e. le joueurs ont la même fortune. Le formules pour q0 s’écrivent comme suit : q0 = rA/ (rA + 1) si p ≠ ½ q0 = ½

si p = ½.

Rappelons que p est la probabilité que le joueur 1 gagne un franc. Si p < ½, alors r > 1 et par conséquent q0 > ½. Pour une fortune très grande, i.e. A → ∞, la probabilité que le joueur 1 soit ruiné converge vers 1. Si p > ½, alors r < 1 et par conséquent q0 < ½. Pour une fortune très grande, i.e. A → ∞, la probabilité que le joueur 1 soit ruiné converge vers 0.

Exemple : On entre dans un casino avec 500 francs, et chaque fois qu'une roulette est tournée, on parie 10 francs sur l'événement R que le résultat soit rouge. A chaque tirage de roulette, on gagne donc 10 francs si le résultat est rouge, on perd 10 francs sinon. La roulette est équilibrée et il y a 18 nombres rouges, 18 noirs et 2 verts. Si on réussit à augmenter sa fortune jusqu'à la somme de 1000 francs, on choisit de quitter le casino immédiatement, par contre si l'on est ruiné (fortune nulle) avant d'avoir atteint une telle somme, on doit quitter le casino sans argent. Quelle est la probabilité pour que l'on quitte le jeu sans argent ? Solution : La probabilité de gagner 10 francs lors d’un jeu est p = 18/38. Apparemment on a A = B = 500/10 = 50 et r = 10/9. On quitte le jeu sans argent avec probabilité

( 109 ) = 1050 q0 = 50 ( 109 ) + 1 1050 + 950 50

≅ 0.99487265 .

Remarque : Si on parie 500 francs sur rouge, la probabilité qu’on quitte le casino sans argent est 20/38 ≅ 0.5263157895.

III.6.d. Marche aléatoire et théorèmes limites Considérons la marche aléatoire symétrique, i.e. le cas p = ½. La loi des grands nombres s’écrit comme suit. Loi des grands nombres : ZN /N converge presque sûrement vers 0 lorsque N tend vers infini, i.e. P(limN→ ∞ ZN/N = 0) = 1. Théorème central limite : Les fluctuations ZN/N ½ ont la distribution gaussienne comme distribution limite, i.e. limN→ ∞P (a ≤ ZN/N½ ≤ b) = P (a ≤ U ≤ b) où U suit une loi N(0,1), i.e. b

2 P( a ≤ U ≤ b) = 1π ∫ exp( − x2 )dx .

2

a

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF