Chapitre 31 : Convergences et approximations.

January 14, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Chapitre 31 : Convergences et approximations....

Description

ECS3 Carnot

Chapitre 31 — Convergences et approximations

2013/2014

Chapitre 31 : Convergences et approximations.

1

Compléments sur espérance et variance : inégalités classiques

1.1

Inégalité de Markov

L’inégalité suivante précise l’écart d’une variable aléatoire positive par rapport à 0 Proposition 1.1.1 (Inégalité de Markov ) Soit X une variable aléatoire réelle finie positive. Alors ∀a > 0, P (X > a) 6

E(X) a

Démonstration : Fixons a > 0. Soit A l’évènement (X > a). Alors on a ∀ω ∈ Ω, 1A (ω) 6 1 1 1 X(ω), puisque si ω ∈ A, on a X(ω) > a donc X(ω) > 1A (ω) et si ω ∈ / A X(ω) > 0 = a a a 1A (ω). Par croissance de l’espérance, 1 E(X) P (X > a) = P (X ∈ A) = E(1A ) 6 E( X) = a a

Exemple. Le nombre de fours sortant d’une usine (de fours) en une semaine est donné E(X) 1 par une variable aléatoire réelle finie X d’espérance 50. Alors P (X > 100) 6 = . 100 2 La probabilité que la production d’une semaine soit supérieure à 100 fours est plus petite 1 que . 2

1.2

Inégalité de Bienaymé-Tchebychev

L’inégalité suivante justifie l’emploi de l’écart type comme mesure de dispersion. Proposition 1.2.1 (Inégalité de Bienaymé-Tchebychev ) Soit X une variable aléatoire réelle finie, µ son espérance et σ son écart-type. Alors ∀ε > 0, P (|X − µ| > ε) 6

σ2 ε2

Démonstration : On applique l’inégalité de Markov à la variable aléatoire (X − µ)2 et au réel ε2 en remarquant que V (X) = σ 2 : P ((X − µ)2 > ε2 ) 6

σ2 E((X − µ)2 ) = ε2 ε2

Mais on a l’égalité des évènements ((X − µ)2 > ε2 ) = (|X − µ| > ε). D’où le résultat.

J. Gärtner.

1

ECS3 Carnot

1.3

Chapitre 31 — Convergences et approximations

2013/2014

Cas des variables discrètes

Proposition 1.3.1 (Inégalité de Markov ) Soit X une variable aléatoire réelle discrète positive admettant une espérance. Alors ∀a > 0, P (X > a) 6

E(X) a

Démonstration : Fixons a > 0. Soit A l’évènement (X > a). Alors on a ∀ω ∈ Ω, 1A (ω) 6 1 1 1 X(ω), puisque si ω ∈ A, on a X(ω) > a donc X(ω) > 1A (ω) et si ω ∈ / A X(ω) > 0 = a a a 1A (ω). Par croissance de l’espérance, 1 E(X) P (X > a) = P (X ∈ A) = E(1A ) 6 E( X) = a a

Proposition 1.3.2 (Inégalité de Bienaymé-Tchebychev ) Soit X une variable aléatoire réelle discrète admettant un moment d’ordre 2, µ son espérance et σ son écart-type. Alors ∀ε > 0, P (|X − µ| > ε) 6

σ2 ε2

Démonstration : On applique l’inégalité de Markov à la variable aléatoire (X − µ)2 et au réel ε2 en remarquant que V (X) = σ 2 : P ((X − µ)2 > ε2 ) 6

σ2 E((X − µ)2 ) = ε2 ε2

Mais on a l’égalité des évènements ((X − µ)2 > ε2 ) = (|X − µ| > ε). D’où le résultat. Démonstration : autre preuve possible de l’inégalité de Bienaymé-Tchebychev : Nous avons déjà donné une preuve usant de l’inégalité de Markov. Nous allons la refaire directement (mais en substance, rien n’est nouveau). On écrit X(Ω) = {xi , i ∈ I} et P (X = xi ) = pi où I est une partie de N ou de Z. On pose m = E(X), J = {i ∈ I, |xi − m| > ε} et K S = {i ∈ I, |xi − m| < ε}. Alors I = J ∪ K et J ∩ KP= ∅. Clairement (|X − m| > ε) = J (X = xi ) donc par σ-additivité, P (|X − m| > ε) = J pi . Comme on peut Pregrouper les termes et P P absolument convergente, P V (X) est une série V (X) = I (xi − m)2 pi = J (xi − m)2 pi + K (xi − m)2 pi > J (xi − m)2 pi . Si i ∈ J, on a (xi − m)2 > ε2 donc X V (X) > ε2 pi = ε2 P (|X − m| > ε) J

Une autre manière d’écrire cette égalité est la suivante : Proposition 1.3.3 Soit X une variable aléatoire réelle discrète admettant une variance (donc une espérance). Alors ∀ε > 0, P (|X − E(X)| < ε) > 1 − J. Gärtner.

2

V (X) ε2

ECS3 Carnot

Chapitre 31 — Convergences et approximations

2013/2014

Démonstration : Exercice.

Exercice. On dispose d’une urne contenant 8 boules blanches et 2 boules noires. On tire avec remise 400 boules de cette urne. On note X la variable aléatoire donnant le nombre de boules blanches obtenues. Calculer E(X) puis donner un minorant de P (300 < X < 340) L’inégalité de Bienaymé-Tchebychev permet de construire des intervalles de confiance, c’est-à-dire de préciser un encadrement d’une certaine valeur avec une probabilité connue à l’avance : Exemple. On dispose d’un dé équilibré. Quel est le nombre de lancers nécessaires pour pouvoir affirmer, avec un risque d’erreur inférieur à 5% que la fréquence d’apparition du 1 1 1 1 numéro 1 au cours de ces n lancers sera dans l’intervalle ] − − , + [? 6 100 6 100 On introduit Xi la variable égale à 1 si le numéro obtenu au iième tirage est 1, 0 sinon. Le dé est équilibré : les Xi constituent une suite de variables de Bernoulli de paramètre 1 5 p et mutuellement indépendantes. On a E(Xi ) = et V (Xi ) = . La fréquence de 1 6 36 1 1 Pn par linéarité apparus au cours de n lancers est donné par X = i=1 Xi donc E(X) = n 6 P 1 5 1 P et V (X) = 2 V ( n1 Xi ) = 2 n1 V (Xi ) = par indépendance. D’après l’inégalité de n n 36n 1 1 5 × 104 Bienaymé-Tchebychev, on a P ( X − < )>1− . On cherche donc n tel que 6 100 36n 5 × 104 5 × 104 > 0, 95, donc tel que 6 5 × 10−2 . On obtient n > 27778. 1− 36n 36n Remarque. Ces inégalités se généralisent, mais ne sont pas au programme de première année dans le cadre des variables aléatoires réelles admettant une densité. Mais comme la variance d’une variable à densité n’est pas définie en première année... Remarque. L’inégalité de Bienaymé-Tchebychev n’est pas très précise. Par exemple si on considère une variable aléatoire X de loi de Poisson de paramètre 1, on a P (|X − 1| > ε) 6 1 . Mais X est à valeurs entières, et on trouve que quelque soit ε ∈]0, 1], la probabilité de ε2 [X > 1 + ε] ∪ [X < 1 − ε] est au plus égale à... 1. Ce qui n’est pas vraiment intéressant. Remarque. On a de plus souvent l’impression qu’une variable aléatoire prend en moyenne des valeurs « proches » de son espérance quand elle existe. On va justifier cette idée sous certaines hypothèses dans les prochaines sections, mais il ne faut pas confondre « en moyenne », et « a une forte probabilité ». Rien ne dit que le(s) mode(s) d’une variable aléatoire discrète soient égaux à l’espérance si elle existe (un mode est un x ∈ X(Ω) tel que P (X = x) soit le maximum de tous les (P (X = xi ))i∈I . Par exemple pour la loi binomiale, l’espérance est np, mais le mode (qui est unique 9 27 9 on a np = et [(n + 1)p] = [ ] = 5 ce qui dans ce cas) est [(n + 1)p]. Si n = 5 et p = 10 2 5 n’est pas la même chose.

2 2.1

Convergence en probabilité Généralités

Dans cette section, nous allons montrer la loi faible des grands nombres, qui est un énoncé de convergence de variable aléatoire. Il y a beaucoup de notions de convergence en J. Gärtner.

3

ECS3 Carnot

Chapitre 31 — Convergences et approximations

2013/2014

probabilité (c’est-à-dire de manières dont on peut prendre des limites). La plus naturelle est la convergence presque-sûre ((Xn ) converge vers X lorsque pour tout ω dans une partie de probabilité 1 de Ω, on a lim Xn (ω) = X(ω)). Mais on peut aussi décider de s’intéresser à la convergence en moyenne, qui concerne les variables aléatoires qui ont une espérance ((Xn ) converge vers X lorsque lim E(|Xn − X|) = 0). Au programme des classes ECS ne figurent que la convergence en probabilité (l’objet de cette section) et la convergence en loi (abordée dans la section suivante). L’inégalité de Bienaymé-Tchebychev nous incite à définir la notion de convergence suivante : Définition 2.1.1 Une suite (Xn ) de variables aléatoires réelles discrètes définies sur un même espace probabilisé (Ω, A, P ) converge en probabilité vers une variable aléatoire réelle discrète X définie sur (Ω, A, P ) lorsque ∀ε > 0,

lim P (|Xn − X| > ε) = 0

n→+∞

P

On note dans ce cas Xn −→ X. La notion de convergence en probabilité est compatible avec la somme et la multiplicaP P P tion par un scalaire : si Xn −→ X et Yn −→ Y , et α, β ∈ R, alors αXn + βYn −→ αX + βY . Dans le cadre du programme officiel le seul outil général permettant de montrer des convergences en probabilité est l’inégalité de Bienaymé-Tchebychev (même si on a vu qu’elle n’était pas très précise). Remarquons pour finir qu’écrire ∀ε > 0, lim P (|Xn − X| > ε) = 0 ou ∀ε > n→+∞

0,

lim P (|Xn − X| > ε) = 0 revient au même. Exercice !

n→+∞

2.2

Loi faible des grands nombres

Le théorème suivant est le cas de la loi faible des grands nombres qui est au programme de cette année. Théorème 2.2.1 (Théorème de Bernoulli ) Soit (Xn ) une suite de variables aléatoires de loi binomiale de même paramètre (n, p), Xn . Alors (Xn ) converge en probabilité définies sur le même espace. On pose Xn = n vers la variable aléatoire certaine égale à p, i.e. ∀ε > 0, lim P ( Xn − p ) > ε) = 0 1 1 1 Démonstration : On a par linéarité E(Xn ) = × np = p et V (Xn ) = 2 V (Xn ) = 2 × n n n pq np(1 − p) = . n pq Soit ε > 0. L’inégalité de Bienaymé-Tchebychev donne P ( Xn − p > ε) 6 2 qui ε n tend vers 0 si n tend vers +∞.

Remarque. On peut obtenir une majoration indépendante du paramètre p en remarquant 1 que ∀p ∈]0, 1[, p(1 − p) 6 . 4

J. Gärtner.

4

ECS3 Carnot

Chapitre 31 — Convergences et approximations

2013/2014

Interprétation : comme on l’a déjà vu, la variable Xn représente la fréquence de succès lors de la répétition de n épreuves de Bernoulli indépendantes. L’approche « expérimentale » des probabilités présuppose que la probabilité est fortement lié à la fréquence d’apparition, ici p. Cette approche est justifiée par le théorème de Bernoulli, qui valide cette probabilité lorsque le nombre d’expériences est grand. La loi faible des grands nombres se démontre de la même manière. Elle est au programme de deuxième année, et nécessite de mieux connaître les couples de variables aléatoires. Théorème 2.2.2 (Loi faible des grands nombres) Soit (Xn ) une suite de variables aléatoires réelles discrètes définies sur un même espace probabilisé, de même loi admettant une espérance m et une variance σ 2 et mutuellement 1 Pn indépendantes. La suite de variables Xn = Xk converge en probabilité vers la n k=1 variable aléatoire certaine égale à m. On a de plus σ2 ∀ε > 0, P ( Xn − m > ε) 6 2 nε σ2 Démonstration : On a comme précédemment E(Xn ) = m et V (Xn ) = . L’inégalité de n Bienaymé-Tchebychev donne σ2 ∀ε > 0, P ( Xn − m > ε) 6 2 nε

3

Approximations

3.1

Convergence en loi

La notion la plus faible de convergence de suites de variables aléatoires est la convergence en loi. Elle ne dépend plus des variables aléatoires elles-même, mais uniquement de leur loi. Définition 3.1.1 Soit (Xn ) une suite de variables aléatoires réelles et X une variable aléatoire réelle, définies sur le même espace probabilisé (Ω, A, P ). On note F( Xn ) et FX leurs fonctions de répartition. On dit que la suite (Xn ) converge en loi vers X lorsque pour tout x ∈ R tel que FX est continue en x, on a lim FXn (x) = FX (x). n→+∞

L

On note Xn −→ X. Théorème 3.1.1 Soit (Xn ) une suite de variables aléatoires réelles discrètes définies sur un même espace probabilisé (Ω, A, P ) et X une variable aléatoire réelle discrète définie sur (Ω, A, P ).

On suppose que toutes ces variables aléatoires sont à valeurs dans ssi ∀k ∈ N, lim P (Xn = k) = P (X = k) n→+∞

J. Gärtner.

5

L N. Alors Xn −→ X

ECS3 Carnot

Chapitre 31 — Convergences et approximations

2013/2014

Démonstration :

– Supposons que pour tout k lim P (Xn = k) = P (X = k). Soit x ∈ n

R . Alors FXn (x) = 0 = FX (x) puisque les v.a.r. sont à valeurs dans N. On a donc −∗

bien lim FXn (x) = FX (x). n

si x > 0 est tel que FX est continue en x. Il y a un nombre fini d’entiers dans [0, x] P P (XP donc FXn (x) =P n 6 x) = k6x P (Xn = k). Comme c’est une somme finie, on peut écrire lim = lim = P (X 6 x). Donc lim FXn (x) = FX (x). n

n

n

L

– Si Xn −→ X. Soit k ∈ N. Alors par propriété des fonctions de répartitions de lois 1 1 à valeurs dans N, on a k + et k − qui sont des points de continuité de FX et 2 2 1 1 1 1 P (Xn = k) = P (k − < Xn 6 k + ) = FXn (k + ) − FXn (k − ) et on peut passer 2 2 2 2 à la limite, ce qui donne le résultat.

Le nom de cette convergence est justifié : la loi de Xn devient de plus en plus proche de la loi de X. Cette notion sera développée l’année prochaine. Pour cette année, deux types d’approximation à l’aide de convergence en loi sont à connaître. Ces approximations permettent en particulier d’améliorer la rapidité des calculs numériques. Attention, une suite de lois discrètes peut converger en loi vers une variable aléatoire à densité ! Exemple. Soit (Xn )n>1 une suite de variable aléatoire tel que Xn suit la loi uniforme sur n−1 1 2 , 1}. Alors (Xn ) converge en loi vers X de loi uniforme sur [0, 1]. {0, , , . . . , n n n k k+1 k+1 En effet Fn (x) = 0 si x < 0, si x ∈ [ , [ avec k ∈ [[ 0 ; n − 1 ]] on a Fn (x) = n n n+1 et si x > 1 on a Fn (x) = 1. k+1 k De plus pour tout x ∈ [0, 1] il existe un unique k ∈ [[ 0 ; n − 1 ]] tel que 6 x < n n nx k+1 nx + 1 i.e. k 6 nx < k + 1. On en déduit que < 6 et par encadrement n+1 n+1 n+1 lim Fn (x) = x si x ∈ [0, 1]. n

Bref lim Fn (x) = 0 si x < 0, 1 si x > 1, x si x ∈ [0, 1]. On reconnaît la fonction de répartition de la loi uniforme sur [0, 1].

3.2

Approximation de la loi binomiale par la loi de Poisson

Théorème 3.2.1 Soit λ ∈

R+ .

Soit (Xn ) une suite de variables aléatoires réelles discrètes telles que λ e−λ λk Xn ֒→ N(n, ). Alors pour tout k ∈ N, on a lim P (Xn = k) = . Autrement dit n n k! la suite (Xn ) converge en loi vers une variable aléatoire X qui suit la loi de Poisson de paramètre λ. Démonstration : Soit k ∈ N. Supposons n > k et rang). Alors

λ < 1 (ce qui est vrai à partir d’un certain n

n−k  n−k    k  λ λ n! λk n λ 1− 1− = P (Xn = k) = n n k! nk (n − k)! n k Si l ∈ [[ 0 ; k − 1 ]], n − l ∼ n donc n

n! n(n − 1) . . . (n − k + 1) nk ∼1 = ∼ n→+∞ nk nk (n − k)! n × ··· × n J. Gärtner.

6

ECS3 Carnot

Ainsi

Chapitre 31 — Convergences et approximations

2013/2014

 n−k λ 1− n n−k    λ (n − k)λ λ λ (n−k) ln(1− n ) ∼− Mais lim 1 − = lim e ∼ −λ donc . Or (n − k) ln 1 − n n n n n n n   λ λ lim(n − k) ln 1 − = −λ et par continuité de l’exponentielle, lim e(n−k) ln(1− n ) = e−λ . n n n Donc   n−k λ λk λk −λ 1− lim P (Xn = k) = lim e = n n k! n k! λk P (Xn = k) ∼ n k!

λ Interprétation : si n devient grand on a petit. Dans ce cas on voudra remplacer une n λ loi B(n, ) par une loi P(λ). En pratique, si on a une loi B(n, p) avec p petit, on l’interprète n λ comme un avec λ = np. On approche alors B(n, p) par P(λ). n En pratique lorsque – les évènements sont rares en fréquence : p 6 0, 1 – il y a une grande répétition : n > 30 – les évènements sont rares en moyenne : np 6 15 la loi B(n, p) peut être approchée par la loi P(np). L’énoncé d’un exercice peut toujours imposer cette approximation, même si les inégalités ci-dessus ne sont pas vérifiées. On obtient dans les deux cas la même espérance np = λ. Exercice. Pour gagner au loto, il faut trouver les 6 numéros tirés parmi les 49 possibles. On joue une fois par semaine au loto. Combien de semaines doit-on jouer pour avoir au moins une chance sur deux de gagner au moins une fois ? On donnera un calcul explicite, et une approximation à l’aide de la loi de Poisson.

généraliser npn → λ.

3.3

Approximation de la loi binomiale par la loi normale

Théorème 3.3.1 (TCL, admis) Soit (Xn ) une suite de variables aléatoires telle que Xn ֒→ B(n, p). Alors la suite (Xn∗ ) Xn − np (des variables centrées réduites associées Xn∗ = p converge en loi vers une np(1 − p) variable aléatoire de loi normale centrée réduite N (0, 1). p En pratique, on peut approcher la loi B(n, p) par la loi N (np, np(1 − p)) lorsque – n > 30 – np > 15 – np(1 − p) > 5. ou bien lorsqu’on vous incite à le faire... Remarque. Contrairement à l’approximation d’une loi binomiale par une loi de Poisson, on donne ici une approximation d’une loi à valeurs dans N par une loi à valeurs dans R. Pour éviter des problèmes d’arrondi, de discontinuité et autre, on applique en général ce 1 1 qu’on appelle la « correction de continuité ». Autrement dit on consiède que [k − , k + [ 2 2 J. Gärtner.

7

ECS3 Carnot

Chapitre 31 — Convergences et approximations

2013/2014

est l’intervalle des nombres réels qui « correspondent » à k. (C’est un choix comme un autre). Bref, on remplace pour k ∈ [[ 1 ; n − 1 ]] P (X = k) par P (k − 0, 5 6 X < k + 0, 5), P (X = 0) par P (X < 0, 5) et P (X = n) par P (X > n − 0, 5). 1 1 1 1 Exemple. Si X ֒→ B(40, ) on a 40 > 40, 40 × > 15 et 40 × × > 5. On peut 2 2 2 2 √ X − 20 ∗ suit la loi effectuer une approximation de la loi de X par la loi N (20, 10). X = √ 10 normale centrée réduite. 19, 5 − 20 20, 5 − 20 √ Par exemple P (X = 20) = P (19, 5 6 X < 20, 5) = P ( √ 6 X∗ < )≃ 10 10 19, 5 − 20 0, 5 20, 5 − 20 ) − Φ( √ ) = 2Φ( √ ) − 1. Φ( √ 10 10 10 On trouve à l’aide de l’approximation par la loi normale 0, 1272, la où le calcul direct donnerait 0, 1254.... Exercice. Reprendre l’exemple ci-dessus et calculer (avec correction de continuité) une approximation de P (17 6 X 6 25). Exercice. On dispose d’un dé équilibré. Quel est le nombre de lancers nécessaires pour pouvoir affirmer, avec un risque d’erreur inférieur à 5% que la fréquence d’apparition du 1 1 1 1 , + [? numéro 1 au cours de ces n lancers sera dans l’intervalle ] − − 6 100 6 100 On a déjà fait le calcul à l’aide de l’inégalité de Bienaymé-Tchebychev. En supposant que n est suffisamment grand (quelle valeur ?) utiliser une approximation par une loi normale pour trouver un meilleur minorant de n. Commentaire ? on remarquera que l’inégalité de Bienaymé-Tchebychev ne prend pas en compte la loi de X.

3.4

Approximation de la loi de Poisson par la loi normale

Théorème 3.4.1 (TCL admis) Soit (Sn ) une suite de variables aléatoires de loi de Poisson de paramètre nλ > 0. Alors Sn − nλ la suite √ converge en loi vers une variable aléatoire de loi N (0, 1). nλ √ Autrement dit si λ > 15 on peut effectuer une approximation de P(λ) par N (λ, λ). Remarque ; les approximations successives binomiale->poisson->normale sont en principe compatibles... et on peut encore appliquer la correction de continuité. Exemple. On effectue l’approximation de P(16) par N (16, 4). On trouve P (X = 16) ≃ 0, 0995 là ou le calcul direct donnerait 0, 0992.

3.5

Complément : Approximation de la loi hypergéométrique par loi binomiale

Rappelons que X ֒→ H(N, n, p) correspond à la modélisation du nombre de boules blanches tirées lors que l’on tire simultanément (ou sans remise) n boules dans une urne qui contient N boules, dont une proportion p de blanches et 1−p de noires. On a nécessairement N p ∈ N. Théorème 3.5.1

Soit n ∈ N∗ et p ∈]0, 1[ fixés. Soit (XN ) une suite de variables aléatoires réelles discrètes

J. Gärtner.

8

ECS3 Carnot

Chapitre 31 — Convergences et approximations

2013/2014

telles que XN suive la loi hypergéométrique de paramètres (N, n, p). Alors pour tout k ∈ [[ 0 ; n ]] on a   n k lim P (Xn = k) = p (1 − p)n−k N →+∞ k et (XN ) converge en loi vers une variable aléatoire X de loi binomiale de paramètres (n, p). Démonstration : Supposons n 6 N (ce qui est vrai à partir d’un certain rang) et k ∈ [[ 0 ; n ]]. Alors   N p N (1−p) (N p)! (N q)! n!(N − n)! k n−k P (XN = k) = × ×  = N N ! k!(N p − k)! (N q − n + k)!(n − k)! n   n! (N − n)!(N p)!(N q)! × = k!(n − k)! N !(N p − k)!(N q − n + k)!   n = AN k Comme n et k sont fixés, on s’intéresse à AN =

[(N p)(N p − 1) × · · · × (N p − k + 1)] × [(N q) × · · · × (N q − n + k + 1)] N (N − 1) × · · · × (N − n + 1)

On pose P1 = (N p)(N p − 1) × · · · × (N p − k + 1), P2 = (N q) × · · · × (N q − n + k + 1) et P3 = N (N − 1) × · · · × (N − n + 1). On a P1



(N p)k

N →+∞

P2 ∼(N q)n−k N

P3 ∼ N n

Ainsi

  n k n−k p q AN ∼ p q et P (XN = k) ∼ N →+∞ N k  comme cette expression ne dépend pas de N , on a lim P (XN = k) = nk pk q n−k . Si k ∈ / [[ 0 ; n ]], alors P (Xn = k) = 0 = P (X = k) si X ֒→ B(n, p). k n−k

Interprétation : Si on fixe n et p (le nombre de boules tirées et la proportion de boules blanches) et que N devient grand, en particulier devant n, on a de plus en plus de boules dans l’urne, mais la proportion de boules blanches est constante. Le fait de tirer quelques (n est très petit devant N ) boules sans remise ne modifie que très peu les proportions de boules noires/blanches dans l’urne. Tout se passe presque comme si le tirage avait lieu avec remise, donc comme si l’expérience suivait une loi binomiale de paramètre (n, p). En pratique lorsque N est grand devant n (typiquement N > 10n), la loi H(N, n, p) peut être approchée par la loi B(n, p), plus facile à calculer. L’énoncé d’un exercice peut toujours imposer cette approximation, même si on n’a pas N > 10n. Remarquons que l’on obtient dans les deux cas la même espérance np.

J. Gärtner.

9

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF