Notes de cours

January 14, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Notes de cours...

Description

Eléménts pour le calcul des probabilités 2016-2017 L2 MIASHS V. Monbet

2

Contents 1 Séries numériques 1.1 Suites numériques . . . . . . 1.1.1 Comportement d’une 1.1.2 Limite, convergence 1.2 Séries numériques . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

7 7 7 8 9

2 Variables aléatoires - Généralités 2.1 Les variables aléatoires ne sont pas des variables classiques 2.2 Qu’est-ce qu’une probabilité? . . . . . . . . . . . . . . . . 2.3 Variables aléatoires discrètes ou à densité . . . . . . . . . 2.4 Conditionnement . . . . . . . . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

13 13 13 14 15

3 Variables aléatoires discrètes 3.1 Loi d’une variable aléatoire discrète 3.2 Les lois classiques . . . . . . . . . . 3.2.1 Loi uniforme . . . . . . . . 3.2.2 Loi de Bernoulli . . . . . . 3.2.3 Loi binomiale . . . . . . . . 3.2.4 Loi géométrique . . . . . . . 3.2.5 Loi de Poisson . . . . . . . 3.3 Fonctions de répartition . . . . . . 3.4 Espérance et variance . . . . . . . 3.4.1 Espérance . . . . . . . . . . 3.4.2 Variance . . . . . . . . . . . 3.4.3 Lois classiques . . . . . . . 3.5 Autres moments . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

17 17 18 18 18 19 19 21 23 23 23 25 26 27

. . . suite . . . . . .

. . . .

. . . .

. . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

4 Variables aléatoires continues 29 4.1 Moments d’une variable à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 4.2 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 5 Loi des grands nombres

37

3

4

Préambule Plan/organisation du cours Le cours est organisé sur 10 semaines comportant chacune 2 × 1h30 d’enseignement. 1. Introduction du cours et Séries numeriques - Rappels et exercices 2. Variables aléatoires discrètes 1 3. Variables aléatoires discrètes 2 4. Variables aléatoires discrètes 3 [+ Contrôle continu] 5. Variables aléatoires continues 1 6. Variables aléatoires continues 2 7. Variables aléatoires continues 3 8. Théorème centrale limite et applications [+ Contrôle continu] 9. Inégalités, loi forte des grands nombres et applications 1 10. Inégalités, loi forte des grands nombres et applications 1

5

6

1 Séries numériques

Avant de parler des variables aléatoires discrètes, on a besoin de savoir manipuler les suites et les séries numériques. Soit (un ) une suite numérique. On s’intéresse au comportement Pde la suite des sommes partielles de (un ). C’est ce qu’on appelle l’étude de la série numérique un . Ce chapitre est une suite d’extraits choisis du polycopié de cours d’Arnaud Guyader (http://www.lsta.lab.upmc.fr/modules/resources/download/ labsta/Pages/Guyader/Series.pdf).

1.1

Suites numériques

On appelle suite numérique (un )n≥0 toute suite de nombre réels ou complexes. Pour simplifier les énoncés, on notera (un ) à ne pas confondre avec un .

1.1.1

Comportement d’une suite

1 - Définition (Monotonie, majoration, minoration) - Soit (un ) une suite de réels. On dit que (un ) est • croissante (respectivement strictement croissante, décroissante, strictement décroissante) si ∀n ≥ 0, un+1 ≥ un (respectivement >, ≤, 0, ∃n0 ∈ N, ∀n ≥ n0 |un − L| <  On note alors limn→∞ un = L, ou lim un = L ou un → L. Nous ne rappelons pas ici les propriétés classiques des limites : unicité si existence, stabilité par combinaison linéaire, produit, quotient lorsque la limite du dénominateur est non nulle, etc. Dans le cas d’une suite réelle non convergente, on distingue encore les divergences vers plus ou moins l’infini. 3 - Définition Limite infinie Soit (un ) une suite de réels. On dit que (un ) tend vers +∞ si ∀M > 0, ∃n0 ∈ N, ∀n ≥ n0 un > M

6 2

1. Tracer les premiers termes de la suite.

4

n + (−1)^n

8

10

Exercice Considérons la suite de terme un = n + (−1)n

0

2. Donner son comportement.

2

4

6

8

10

Index

3. Montrer que (un ) tend vers l’infini. Le cas des suites monotones est paisible, car on a toujours une limite. 4 - Proposition Suite monotone Soit (un ) une suite de réels. Supposons (un ) croissante. Ou bien (un ) est majorée, auquel cas elle est convergente. Ou bien elle ne l’est pas, auquel cas elle tend vers l’infini. 8

De même, une suite décroissante est convergente si elle est minorée, tend vers moins l’infini sinon. Ce résultat, assez anodin a priori, sera particulièrement utile dans l’étude des séries à termes positifs. 5 - Proposition Si (un ) admet une limite (finie ou infinie), toute sous-suite de (un ) admet la même limite.

1.2

Séries numériques

6 - Définition Série numérique, somme partielle P Soit (un )n≥0 une suite numérique. On appelle série de terme général un , notée n≥0 un P P ou simplement un , la suite des sommes partielles (sN )N ≥0 défnie par sN = N n=0 un .

Exemples • Série harmonique. A la suite

1 n n≥1



est associée la série harmonique

1 n≥1 n .

P

• Série géométrique. On part de la suite géométrique définie par u0 = 1 et un+1 = αun où α est un nombre réel fixé différent de 1. Les premières sommes partielles sont donc : 1, 1 + α, 1 + α + α2 , ·. On peut calculer explicitement les sommes partielles sN de cette suite géométrique par la formule valable en toutes circonstances : 7 - Formule sN =

PN

n=1 α

n

=

1−αN +1 1−α

Soit somme = (premier terme écrit − premier terme non écrit)/(1 − α). (preuve par réurrence). 8 - Définition P Nature d’une série, reste d’une série convergente On dit que la série un converge (resp. diverge) si la suite (sN ) des sommes partielles converge (resp. diverge). En cas de convergence, la limite s = limN →∞ sN est appelée somme de la série et notée s=

+∞ X

un

n=0

Dans ce cas, on peut définir le reste rN à l’ordre N par rN = s − sN , qui s’écrit aussi rN = lim

p→∞

N +p X n=N +1

9

un =

+∞ X n=N +1

un

Remarques • On parle de nature d’une série pour désigner la convergence ou la divergence de celle-ci. Par exemple, il est clair qu’on ne change pas la nature d’une série si on change un nombre fini de termes. Par contre, en cas de convergence, la somme est changée. • Les sommes partielles d’une série sont toujours définies, mais les restes ne le sont que lorsque la série est convergente : (rN ) est alors une suite de limite nulle. Exemple de la série géométrique D’après le calcul de la somme partielle sN , on voit que si la raison α est de module inférieur à 1, alors limN →∞ αN +1 = 0, donc la série converge et elle est de somme +∞ X

un =

n=0

1 1−α

Le reste à l’ordre N s’écrit : rn = αN +1 /(1 − α). La suite (rN ) tend à vitesse géométrique vers 0. 9 - Propriétés P P • Si λ 6= 0, les séries un et P+∞(λun ) sont de même nature, avec en cas de P+∞ convergence n=0 (λun ) = λ n=0 un . P P P • Si les séries unPet vn sont convergentes, alors la série (un + vn ) est conP P +∞ +∞ vergente, avec : +∞ n=0 vn . n=0 un + n=0 (un + vn ) = P P P • Si un est convergente et vn divergente, alors (un + vn ) est divergente.

Remarque. Si

P

un et

P

vn sont divergentes, on ne peut rien dire a priori sur la série somme.

10 - Proposition P Critère de triviale divergence Si la série un est convergente, alors son terme général (un ) tend vers zéro. Autrement dit, si (un ) ne tend pas vers zéro, la série diverge. On dit ce cas qu’elle diverge trivialement, ou grossièrement. P Preuve. Soit sN = N n=0 un la somme partielle. Si la série est convergence de somme s, alors limN →∞ sN = s, ainsi que limN →∞ sN −1 = s. Donc limN →∞ (sN − sN −1 ) = 0, c’est à dire limN →∞ uN = 0. Remarque. La proposition précédente donne une condition  de convergence.  P nécessaire PN Elle n’est nullement suffisante. Considérons la série téléscopique n≥1 ln n+1 . On a s = ln n+1 = N n≥1 n n  P n+1 ln(N + 1) donc (sN )N ≥1 est divergente : la série n≥1 ln n est divergente. Néanmoins, son terme général tend vers zéro:     n+1 1 lim ln = lim ln 1 + = ln(1) = 0 n→∞ n→∞ n n 10

P Exemple. Série harmonique n≥1 n1 La série harmonique est un exemple typique (à connaitre) de série divergente non trivialement. Pour montrer qu’elle diverge, considérons ses ommes partielles (sN ). On a s2N − sN =

1 1 1 1 + ··· + ≥N× = N +1 2N 2N 2

Or, si (sN ) convergeait vers s, on aurait aussi convergence de la sous-suite (s2N ) vers la même limite s, donc (s2N − sN ) tendrait vers 0, ce qui est exclut vu l’inégalité précédente.

11 - Proposition Sommation des P P relations de comparaison Soient un et vn deux séries à termes positifs. P P 1. Si un = o(vn ) et si vn converge alors un converge. P P 2. Si un = o(vn ) et si un diverge alors vn diverge. 3. Si un ∼ vn , alors les séries sont de même nature.

P P Preuve. Notons sN et σN les sommes partielles respectives de un et vn . a- Puisque un = o(vn ), il existe N0 tel que ∀n ≥ N0 , un ≤ vn . On en P déduit que ∀N ≥ N0 , sN ≤ sN0 + (σN − σN0 ) ≤ sN0 + (σ − sN0 ). Donc (sN ) est majorée et un converge. b- est la contraposée de a-. c- Puisque un /vn → 1, il existe N0 tel que ∀n ≥ N0 , 12 vn ≤ un ≤ 23 vn . On en déduit que ∀N ≥ N0

1 3 (σN − σN0 ≤ sN − sN0 ≤ (σN − σN0 ), 2 2

et donc que (sN ) est majorée si et seulement si (σN ) l’est, i.e. que la séries sont de même nature. P n2 +n P1 2 est divergente puisque nn3+n ∼ n1 et la série Exemple. La série n diverge. n3 +1 +1 12 - Théorème Critère P de Cauchy pour les séries. La série un est convergente si et seulement si la suite (sN ) des sommes partielles satisfait le criète de Cauchy : ∀ > 0, ∃N0 ∈ N, ∀N ≥ N0 , ∀p ≥ 0 |sN +p − sN | < 

13 - Définition P Série absolument convergente. Soit u n une série numérique. On dit que cette série P est absolument convergente si la série |un | est convergente. Une série convergente mais non absolument convergente est semi convergente. 11

14 - Théorème P Absolue convergence. Si la série un est absolument convergente alors elle est convergente et on a l’inégalité triangulaire généralisée : +∞ +∞ X X un ≤ |un | n=0

n=0

15 - Proposition Critère de convergence. Une série à termes positifs suite (sN ) des sommes partielles est majorée.

12

P

un converge si et seulement si la

2 Variables aléatoires - Généralités

2.1

Les variables aléatoires ne sont pas des variables classiques

Elles sont les "sorties" (numériques) d’un processus aléatoire. Par exemple jeter une pièce  1 si f ace X= . 0 si pile Mais on pourrait aussi considérer  X=

100 si f ace . 103 si pile

Définissons une autre variable Y = somme de la face visible après 7 tirs de dès Pourquoi définir des variables aléatoires? Pour pouvoir faire des maths ou des stat plus "confortablement". Par exemple P (somme de · · · est inférieure à30) il est plus confortable d’écrire P (Y ≤ 30) comme quand on définit des équations (x + 5 = 6) ou des fonctions (f (x) = x + 1).

2.2

Qu’est-ce qu’une probabilité?

On s’intéresse à une expérience aléatoire dont le résultat est appelé événement élémentaire ω. L’ensemble des résultats possibles, c’est-à-dire l’union des événements élémentaires, est noté Ω et appelé univers ou ensemble fondamental. Exemples 1. Lancer de dé : on s’intéresse au résultat du lancer d’un dé à 6 faces. On a donc ω = 1 ou ω = 2 ou · · · . L’espace fondamental est donc Ω = {1, 2, 3, 4, 5, 6}. Cet univers Ω est fini. 2. Infinité de lancers d’une pièce : on lance une infinité de fois une pièce dont l’une des faces est numérotée 0 et l’autre 1. Un événement élémentaire est donc cette fois une suite de 0 et de 1 : ω = {u1 , u2 , · · · } avec un =0 ou 1 pour tout n de N. L’espace fondamental est cette fois l’ensemble de toutes les suites possibles formées de 0 et de 1. Cet univers Ω est clairement infini. 13

Dans la suite, on va vouloir calculer la probabilité de certaines parties de l’espace fondamental Ω. Quand Ω est fini ou dénombrable ça se passe bien. Dans le cas contraire, l’espace de toutes les parties de Ω est "trop gros " et on doit se limiter un sous ensemble F de parties de Ω qui constituera l’ensemble des parties dont on peut calculer la probabilité. Quand Ω est fini ou dénombrable, F est l’ensemble de toutes les parties de Ω. 16 - Définition

Probabilité

On appelle probabilité sur F de Ω toute application P : F → [0, 1] telle que 1. P (Ω) = 1 2. Si An est une suite d’évènements incompatibles de F P

∪+∞ n=0 An



=

+∞ X

P (An )

n=0

On dit que (Ω, F, P ) est un espace probabilisé.

2.3

Variables aléatoires discrètes ou à densité

Les variables aléatoires peuvent être discrètes ou à densité. On parle parfois (abusivement) de "variables continues". Discrètes = l’ensemble dans lequel la variable prend ses valeurs est au plus dénombrable, c’est à dire qu’on peut énumérer tous les éléments sous la forme d’une séquence finie ou infinie (valeurs distinctes ou séparées) A densité (ou continue) = la variable peut prendre n’importe quelle valeur sur un intervalle. Quelques exemples • Soit

 X=

1 si f ace 0 si pile

La variable est-elle discrète ou continue? On peut compter le nombre de valeurs possibles, la variable esr discrète. • Soit Y = masse exacte d’un animal choisit au hasard au zoo de la flèche. Cette masse peut prendre n’importe quelle valeur en quelque chose proche de 0 (ex : bactérie) jusqu’à 3000 kg (masse d’un éléphant?). Ex : 23.759210 Ce n’est pas une valeur discrète : c’est une variable aléatoire continue. • Y = l’année de naissance d’un étudiant d’une classe. Ex : 1985, 1992, 2001. Les valeurs sont "séparées". → var discrète (ici pourrait être non dénombrable) Dans le cas de la masse de l’animal du zoo, on ne peut pas compter toutes les valeurs possibles. • Z = le nombre d’insectes qui vont naitre demain dans l’univers. On ne peut pas compter, mais les valeurs sont séparées (entières) : la variable est discrète. • X = le temps exact au 100 m aux jeux olympiques de 2016. On pourrait dire qu’on peut compter : 9.56, 9.57, 9.58. Mais on dit "exact", ce qui veut dire que le temps peut prendre n’importe quelle valeur (ex: 9.5723) : la variable est continue. 14

• X = le temps exact, arrondi au centième, au 100 m aux jeux olympiques de 2016. La variable est discrète. • Une usine produit de l’eau minérale en bouteille. On note Y la variable qui, à chaque bouteille prélevée au hasard, associe le taux de calcium de l’eau qu’elle contient. La variable aléatoire Y peut prendre toutes les valeurs dans [0, +∞[. C’est une variable continue. On peut donner des définitions. 17 - Définition Une variable aléatoire X est dite discrète si son image X(Ω) = {ω|ω ∈ Ω} est dénombrable.

18 - Définition Une variable aléatoire X : Ω → R est dite continue s’il existe une fonction f : R → R telle que pour tout intervalle I ⊂ R, Z P (X ∈ I) = f (x)dx La fonction f s’appelle alors densité de X (ou densité de la loi de X).

2.4

Conditionnement

La notion de conditionnement sera d’usage constant dans la suite puisqu’elle permet par exemple de tenir compte de l’information dont on dispose déjà pour évaluer la probabilité d’un nouvel événement. Même en l’absence de toute chronologie sur les événements, un détour par un conditionnement astucieux nous permettra souvent d’arriver à nos fins. 19 - Définition

Probabilité conditionnelle

Soient A et B deux évènements, avec P (A) > 0. La probabilité de B sachant A est définie par P (A ∩ B) P (B|A) = P (A)

Concrètement, l’expression "probabilité de B sachant A" signifie "probabilité que B se réalise sachant que A s’est déjà réalisé". 20 - Proposition

Formule des probabilités composées

Soient n évènements A1 , · · · , An tels que P (A1 ∩ · · · ∩ An−1 ) > 0 alors on a P (A1 ∩ · · · ∩ An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) · · · P (An |A1 ∩ · · · ∩ An−1 )

15

Preuve. On commence par remarquer que tous les conditionnements sont justifiés car 0 < P (A1 ∩ · · · ∩ An−1 ) < P (A1 ∩ · · · ∩ An−2 ) < · · · < P (A1 ) Ensuite, on observe qu’en développant les termes du produit via P (B|A) = termes se télescopent sauf le dernier. 21 - Proposition

P (A∩B) P (A)

tous les

Formule des probabilités totales

Soit un espace probabilisé muni d’un système complet d’évènements A1 , · · · , An alors pour tout évènement B, on a P (B) =

n X

P (B|Ai )P (Ai )

i=1

En pratique, on utilise très souvent cette formule des probabilités totales en conditionnant successivement par un événement et son contraire, c’est-à-dire en prenant tout simplement une ¯ ce qui donne partition de type (A, A), ¯ (A) ¯ P (B) = P (B|A)P (A) + P (B|A)P . 22 - Proposition

Formule de Bayes

Soit un espace probabilisé muni d’une partition A1 , · · · , An alors pour tout évènement B et pour tout indice j, on a P (B|Aj )P (Aj ) P (Aj |B) = Pn i=1 P (B|Ai )P (Ai )

Preuve. Il suffit d’écrire P (Aj |B) =

P (Aj ∩ B) P (B)

et d’utiliser la décomposition P (B ∩ Aj ) = P (B|Aj )P (Aj ) pour le numérateur et la formule des probabilités totales pour le dénominateur.

16

3 Variables aléatoires discrètes

3.1

Loi d’une variable aléatoire discrète

https://www.khanacademy.org/math/probability/random-variables-topic/ random_variables_prob_dist/v/discrete-probability-distribution Soit X le nombre de face après 3 lancers d’une pièce équilibrée. Les valeurs possibles sont HHH, HHT, HTH, THH, HTT, THT, HTT, TTT. Par exemple, on peut se demander quelle est P (X = k), k ∈ {0, 1, 2, 3} P (X = 0) = 1/8, P (X = 1) = 3/8, P (X = 2) = 3/8, P (X = 3) = 1/8

2/8 1/8 0

Probabilité

3/8

Voir aussi la figure 3.1.

0

1

2

3

valeurs

Figure 3.1: Exemple de loi discrète - probabilité du nombre de face après 3 lancés d’une pièce équilibrée. On a construit une distribution de probabilité discrète. 17

23 - Proposition Soit X une variable aléatoire discrète à valeurs dans X = (xi )i∈I et de loi (pi )i∈I (i) ∀i ∈ I, 0 ≤ pi ≤ 1 P (i) i∈I , pi = 1

Pour certains des exercices, on a besoin de la définition suivante. 24 - Définition On dit que deux évènements A et B sont indépendants si P (A ∩ B) = P (A)P (B).

Si A est tel que P (A) > 0, l’indépendance de A et B s’écrit encore P (B|A) = P (B) c’est à dire que le fait que A se soit réalisé ne change rien au fait que B se réalise.

3.2

Les lois classiques

On rappelle ici très brièvement quelles sont les lois discrètes les plus utilisées et on donne l’expression de leur loi.

3.2.1

Loi uniforme

On parle de loi uniforme dès lors qu’il y a équiprobabilité pour les valeurs prises par la variable aléatoire. 1 P (X = k) = pour tout k ∈ {1, · · · , n} n Exemple : Soit un dé équilibré à 6 faces. On note X le résultat du lancer. X suit une loi uniforme sur {1, · · · , 6}

3.2.2

Loi de Bernoulli

On parle de loi de Bernoulli lorsque la variable d’intérêt est binaire. Si X est une variable aléatoire de Bernoulli de paramètre π, on note X ∼ B(π) et on a P (X = 1) = π et P (X = 0) = 1 − π Exemple. On lance une pièce déséquilibrée dont la probabilité d’apparition de Pile est 3/4. En notant X la variable aléatoire valant 0 pour Face et 1 pour Pile, on a donc X ∼ B(3/4). 18

3.2.3

Loi binomiale

La loi binomiale doit son nom aux coefficients binomiaux intervenant dans sa définition. On dit que X suit une loi binomiale de paramètres n ∈ N∗ et π ∈]0, 1[, noté X ∼ B(n, π) si pour tout k ∈ {0, 1, 2, ·, n},   n P (X = k) = π k (1 − π)n−k k La formule du binôme de Newton1 permet de vérifier qu’on définit bien ainsi une loi de probabilité :  n  X n π k (1 − π)n−k = (π + (1 − π))n = 1 k k=0

Exemple. On lance n fois de suite une pièce déséquilibrée dont la probabilité d’apparition de Pile à chaque lancer est p. En notant X la somme des résultats Xi obtenus (Face valant 0 et Pile valant 1 comme ci-dessus), X représente donc simplement le nombre de Pile sur les n lancers et on a X ∼ B(n, p). 25 - Proposition Lien Bernoulli-binomiale Soient X1 , · · · , Xn , n variables indépendantes suivant la même loi de Bernoulli B(π) , alors la variable X1 + · · · + Xn suit une loi binomiale B(n, π). L’exercice suivant permet de montrer qu’une somme de variables aléatoires indépendantes de loi binomiale suit une loi binomiale. Exercice. Soient X1 , · · · , Xn+m , n + m variables indépendantes suivant la même loi de Bernoulli B(π). 1. Donner la loi de X = X1 + · · · + Xn . 2. Donner la loi de Y = Xn+1 + · · · + Xn+m . 3. Donner la loi de Z = X + Y .

3.2.4

Loi géométrique

La loi géométrique est la loi typique du temps d’attente avant apparition d’un certain événement. On dit que X suit une loi géométrique de paramètre π ∈]0, 1[, noté X ∼ G(π), si X est à valeurs dans N∗ avec P (X = n) = π(1 − π)n−1 pour tout n ∈ N∗ Le nom de cette loi vient bien sûr du fait que la suite (P (X = n))n≥1 est géométrique de raison 1 − π. Exercices. 1. Monter que P (X = n) = π(1 − π)n−1 pour tout n ∈ N∗ définit bien une probabilité. 2. On lance un dé équilibré et on appelle X l’indice de la première apparition du numéro 5. Ecrire la loi de X. 19

5

10

15

20

25

30

0.20 0.10 0.00

Loi géométrique de paramètre 1/2

0.12 0.08 0.04 0.00

Loi géométrique de paramètre 1/6

0

0

5

n

10

15

20

25

30

n

Figure 3.2: Exemples de lois géométriques de paramètre 1/6 (à gauche) et 1/2 (à droite).

26 - Proposition Absence de mémoire Si X suit une loi géométrique de paramètre π, alors ∀(m, n) ∈ N × N P (X > m + n|X > m) = P (X > n)

P (X > n) =

+∞ X

P (X = `) =

`=n+1

+∞ X

π(1 − π)`−1 = π

`=n+1

(1 − π)n = (1 − π)n 1 − (1 − π)

or P (X > m + n|X > m) =

P (X > m + n, X > m) P (X > m + n) = P (X > m) P (X > m)

et on obtient P (X > m + n|X > m) =

(1 − π)m + n = (1 − π)n (1 − π)m

Les lois géométriques possèdent une autre propriété remarquable, à savoir leur stabilité par minimisation.

1

(x + y)n =

Pn

k=0



n k



xk y n−k

20

27 - Proposition Minimum de lois géométriques Soient n variables indépendantes X1 , · · · , Xn suivant des lois géométriques de paramètres π1 , · · · , πn avec πi ∈]0, 1[ pour tout i ∈ {1, · · · , n}. Alors la variable aléatoire X = min(X1 , · · · , Xn ) suit elle même une loi géométrique, plus précisément X = min(X1 , · · · , Xn ) ∼ G(1 − (1 − π1 ) · · · (1 − πn )).

Regardons ce qui se passe dans le cas où n = 2. Comme X1 et X2 , X est à valeurs dans N∗ . Soit k ∈ N∗ fixé, on peut écrire grâce à l’indépendance de X1 et X2 P (X > k) = P (X1 > k, X2 > k) = P (X1 > k)P (X2 > k) = (1 − π1 )k (1 − π2 )k c’est à dire que P (X = k) = P (X > k) − P (X > k − 1) = (1 − π1 )k−1 (1 − π2 )k−1 ((1 − π1 )(1 − π2 ) − 1)

3.2.5

Loi de Poisson

On dit X suit une loi de Poisson de paramètre λ > 0, noté X ∼ P(λ) si X est à valeurs dans N et λn e−λ P (X = n) = pour tout n ∈ N n! On définit bien une loi de probabilité puisque λn = eλ et e−λ eλ = 1 n! On verra qu’on peut interpréter la loi de Poisson comme une loi d’événements rares. Nous avons vu en section précédente que les lois géométriques sont stables par minimisation. Les lois de Poisson, elles, le sont par sommation. 28 - Proposition Somme de variables de Poisson Soient n variables indépendantes X1 , · · · , Xn suivants de lois de Poisson de paramètres λ1 · · · , λn avec λi > 0 pour tout i ∈ {1, · · · , n}, alors la variables X = X1 + · · · + Xn suit une loi de poisson. Plus précisément X = X1 + · · · + Xn ∼ P(λ1 + λ2 ).

Considérons le cas de 2 variables. Soit n ∈ N fixé. Puisque X1 et X2 sont à valeurs dans N leur somme est égale à n si et seulement si il existe k ∈ {0, · · · , n} tel que X1 = k et X2 = n − k. C’est exactement ce que traduir l’égalité {X = n} = ∪nk=0 {X1 = k, X2 = n − k}. Pour connaître la loi de X = X1 + X2 il suffit de calculer P (X = n) pour tout n ∈ N. P (X = n) =

P ((∪nk=0 {X1

= k, X2 = n − k})

n X k=0

21

P (X1 = k, X2 = n − k)

or par l’indépendance de X1 et X2 , P (X = n) =

n X

P (X1 = k)P (X2 = n − k) =

k=0

 Finalement, en utilisant

n k

n X

e−λ1

k=0

 =

λk1 −λ2 λ2n−k e k! (n − k)!

n! k!(n−k)! ,

 n  (λ1 + λ2 )n e−(λ1 +λ2 ) X n λk1 λ2n−k = e−(λ1 +λ2 ) P (X = n) = k n! n! k=0

Généralisation : soit n variables indépendantes X1 , · · · , Xn suivant des lois de Poisson de paramètres respectifs λ1 , · · · , λn avec λi > 0 por tout i ∈ {1, · · · , n}, on montre le résultat par récurrence en posant Y1 = X1 + · · · + Xn−1 et Y2 = Xn . 29 - Proposition Lien binomiale-Poisson Soit (pn )n≥0 une suite de réels compris entre 0 et 1 telle que limn→+∞ npn = λ > 0. Pour tout n ≥ 0, soit Xn une variable aléatoire de loi binomiale B(n, pn ), alors ∀k ∈ N P (Xn = k) −→ e−λ n→+∞

λk k!

Preuve. Posons pn = λ/n. 1. La loi de Xn est la loi binomiale B (n, pn ) = B (n, λ/n). Donc  P (Xn = k) =

n k

   k  λ n−k λ 1− n n

2. Pour k fixé entre 0 et n, on a 

n k

  k  k     λ n! λ λk 1 k−1 λk = = 1− ··· 1 − −→ . n→+∞ k! n k!(n − k)! n k! n n

D’autre part,     λ n−k λ −k n ln(1−λ/n) 1− = 1− e . n n −k Puisque ln(1 − x) = −x + o(x), e−λ et 1 − nλ tend vers 1. D’où   λ n−k 1− −→ e−λ . n→+∞ n On obtient finalement 

n k

  k λ λk e−λ −→ n→+∞ n k!

Lorsque n devient grand, la loi binomiale "ressemble" à une loi de Poisson. 22

3. Le résultat reste vrai quand on suppose juste que limn→+∞ npn = λ car d’une part       1 k−1 λk (npn )k n k 1− ··· 1 − −→ pn = n→+∞ k! k k! n n et d’autre part (1 − pn )n−k = (1 − pn )−k en ln(1−pn ) −→ e−λ n→+∞

3.3

Fonctions de répartition

30 - Definition Soit X une variable aléatoire discrète. La fonction de répartition de X est la fonction définie par ( R → [0, 1] F = P x 7→ F (x) = P (X ≤ x) = i:xi ≤x pi

Exemple : construire la fonction de répartition d’un lancé de dé (1 seul dé). On peut déjà constater certaines propriétés communes aux fonctions de répartition : monotonie, limites en s, continuité à droite, présence de sauts. 31 - Propriétés Soit X une variable aléatoire discrète à valeurs dans X = (xi )i∈I . Sa fonction de répartition F a les propriétés suivantes : 1. F est croissante. 2. limx→−∞ F (x) = 0, limx→+∞ F (x) = 1. 3. F est continue à droite. 4. ∀x ∈ R, P (X = x) = F (x) − F (x− ) avec F (x) = limδ→0+ (F (x − δ)

3.4 3.4.1

Espérance et variance Espérance

Supposons que la valeurs d’une variable X dans une population de 5 personnes sont 5,5,5,4,2. On sait que la moyenne de la population est alors 5+5+5+4+2 . Mais ceci s’écrit encore 5 5+5+5+4+2 3+4+2 3 1 1 = = ×5+ ×4+ ×4 5 5 5 5 5 et c’est aussi P (X = 5) × 5 + P (X = 4) × 4 + P (X = 2) × 2 23

On parle de moyenne ou d’espérance et ce résultat se généralise. 32 - Définition Espérance P On dit que la variable X admet une espérance si la série i∈I xi pi est absolument convergente c’est à dire si X xi pi < +∞ i∈I

Si tel est le cas, on appelle espérance de X et on note E[X] la quantité X X E[X] = xi P (X = xi ) = xi p i i∈I

i∈I

Terminologie. Le terme “espérance” est historique et dû au fait que les probabilités sont nées des jeux d’argent. On peut penser en particulier aux paris du Chevalier de Méré (cf. exercice ...) celui-ci considérait par exemple, à raison, que miser sur l’apparition d’au moins un 6 sur 4 lancers successifs d’un dé était avantageux. Il avait donc l’espoir d’un gain positif en moyenne. Soit X une variable aléatoire de loi de Poisson de paramètre 1. Calculons sa moyenne. E[X] =

X k X k X 1 e−1 = 0 + e−1 = e−1 = 1 k! k! (k − 1)! k≥0

car e1 =

P

k≥1

k≥1

1 k≥0 k!

33 - Théorème Théorème de transfert Soit X une variable aléatoire discrète et φ : R → R une fonction, alors Y = φ(X) est encore une variable aléatoire discrète et son espérance vaut X E[Y ] = E[φ(X)] = φ(xi )pi , i∈I

sous réserve que cette série soit absolument convergente. L’intérêt pratique de ce résultat est le suivant : on n’a pas besoin de commencer par déterminer la loi de Y pour calculer son espérance, il suffit tout simplement de transférer la loi de X. Exercices, exemples. 1. Soit X une variable aléatoire discrète de loi uniforme sur l’ensemble X = {−2, −1, 0, 1, 2}. Calculer l’espérance de Y = X 2 . 2. Soit X une variable distribuée selon une loi de Poisson de paramètre λ. On admet que E[X] = λ. Exprimer en fonction de λ (a) E[3X + 5] h i 1 (b) E X+1 24

34 - Propriétés • L’espérance est linéaire : E[aX + b] = aE[X] + b • L’espérance est positive : X ≤ Y implique E[X] ≤ E[Y ]. • E[X] ≤ E[|X|]

3.4.2

Variance

L’espérance est une mesure de tendance centrale. Nous allons définir maintenant une mesure de dispersion autour de cette valeur centrale : la variance. 35 - Définition Variance et écart-type Soit X une variable aléatoire discrète admettant une espérance E[X]. La variance de X est définie par   X V ar(X) = E (X − E[X])2 = (xi − E[X])2 pi i∈I

sous réserve de convergence p de cette série. On appelle écart-type, noté σ(X), la racine de la variance σ(X) = V ar(X). P Puisque la série i∈I (xi − E[X])2 pi est à termes positifs, absolue convergence équivaut à convergence. A nouveau, lorsque X ne prend qu’un nombre fini de valeurs, la variance est toujours définie. De façon générale, la variance d’une variable mesure la moyenne des carrés des écarts à sa moyenne. Ainsi, plus la loi d’une variable est étalée autour de sa moyenne, plus sa variance est grande. D’autre part, si X représente une grandeur physique (donc ayant une dimension, par exemple une durée), alors l’écart-type a la même dimension que X, tandis que la variance a cette dimension au carré, ce qui la rend moins parlante en pratique. Le terme écart-type est d’ailleurs à comprendre au sens “écart typique” d’une variable à sa moyenne. 36 - Propriétés Soit X une variable aléatoire discrète , alors sous réserve que la variance de X soit définie 1. V ar(X) = E[X 2 ] − E(X)2 2. Si a et b sont deux réels, V ar(aX + b) = a2 V ar(X) 3. V ar(X) = 0 si et seulement X est constante.

25

Exercice : faire la preuve. Soit X une varaible aléatoire de loi de Poisson de paramètre 1. E[X 2 ] = E[X(X − 1)] + E[X] On connait déjà E[X], on peut donc se contenter de calculer E[X(X − 1)], ce qui donne grâce au théorème de transfert E[X(X − 1)] =

+∞ X n=0

+∞

+∞

n=0

n=2

X n(n − 1) X n(n − 1) e−1 = e−1 = e−1 n(n − 1) n! n! n!

soit encore −1

E[X(X − 1)] = e

+∞ X n=2

+∞

X 1 1 = e−1 =1 (n − 2)! (n)! n=0

Finalement V ar(X) = E[X(X − 1)] + E[X] − E[X]2 = 2 − 1 = 1 Ainsi une loi de Poisson de paramètre 1 a pour moyenne 1 et pour variance 1 également.

3.4.3

Lois classiques

Loi uniforme Soit X une variable aléatoire de loi uniforme sur {1, · · · , n}. En utilisant 1 + 2 + · · · + n = on montre que n+1 E[X] = . 2 En utilisant 12 + 22 + · · · + n2 =

n(n+1)(2n+1) , 6

n(n+1) 2

on obtient

V ar(X) =

n2 − 1 12

Loi de Bernoulli Soit X une variable aléatoire de loi de Bernoulli de paramètre π, E[X] = π et V ar(X) = π(1 − π) Loi binomiale Soit X une variable aléatoire de loi binomiale de paramètres (n, π), par le lien entre la loi de Bernoulli et la loi binomilae, on obtient que E[X] = nπ et V ar(X) = nπ(1 − π) Loi géométrique Soit X une variable aléatoire de loi géométrique de paramètre π E[X] =

1 1−π et V ar(X) = π π2

Preuve en exercice. 26

Loi de Poisson Soit X une variable aléatoire de loi de Poisson de paramètre λ E[X] = λ et V ar(X) = λ On a vu plus haut comment calculer l’espérance et la variance d’une loi de Poisson de paramètre 1. Ces preuves se généralisent au cas quelconque.

3.5

Autres moments

On peut généraliser les notions d’espérance et de variance. 37 - Définition Soit X une variable aléatoire discrète et m ∈ N∗ . Sous réserve qu’ils existent, on appelle 1. moment d’ordre m de X la quantité E[X m ] =

X

xm i pi

i∈I

2. moment centré d’ordre m de X la quantité X E[(X − E[X])m ] = (xi − E[X])m pi i∈I

Ainsi l’espérance est le moment d’ordre 1 et la variance est le moment centré d’ordre 2. On dit que X est centrée si son espérance est nulle et qu’elle est réduite si sa variance vaut 1. 38 - Proposition Soit X une variable aléatoire discrète, alors si X admet un moment d’ordre m elle admet aussi des moments de tout ordre n ∈ {1, · · · , m} Preuve - Effectuons une partition de l’ensemble I d’indices en deux sous ensembles  E0 = {i ∈ I : |xi | ≤ 1} E1 = {i ∈ I : |xi | > 1} P Soit maintenant n ∈ {1, · · · , m}, il faut montrer la convergence de la série i∈I |xi |n pi n



1 si i ∈ E0 |xi |m si i ∈ E1

∀i ∈ I, |xi | ≤ D’où il sort que X i∈I

|xi |n pi =

X i∈E0

|xi |n pi +

X

|xi |n pi ≤

i∈E1

27

X i∈E0

pi +

X i∈E1

|xi |m pi

Il suit X

|xi |n pi ≤

i∈I

X

pi +

i∈I

X

|xi |m pi = 1 + E[|X|m ] < +∞

i∈I

L’existence d’un moment d’ordre élevé assure une décroissance rapide de la queue de distribution de X à l’infini comme le montre l’inégalité de Markov 39 - Théorème Inégalité de Markov Soit X une variable aléatoire discrète, alors si X admet un moment d’ordre m ∈ N∗ , on a E [|X|m ] ∀t > 0, P (|X| ≥ t) ≤ tm

Preuve - On reprend l’idée de la preuve ci-dessus, avec cette fois  E0 = {i ∈ I : |xi | < t} E1 = {i ∈ I : |xi | ≥ t} P Et remarquons que P (|X| ≥ t) = i∈E1 pi , d’où l’idée de la décomposition : E [|X|m ] =

X

|xi |m pi +

i∈E0

X

X

|xi |m pi ≥

i∈E1

|xi |m pi

i∈E1

or pour tout i ∈ E1 , |xi |m ≥ tm , donc : E [|X|m ] ≥ tm

X

pi = tm P (|X| ≥ t).

i∈E1

40 - Corrolaire Inégalité de Chebychev Soit X une variable aléatoire discrète admettant une variance, alors ∀t > 0, P (|X − E[X]| ≥ t) ≤

V ar(X) t2

Preuve - L’inégalité de Chebychev découle naturellement de l’inégalité de Markov, avec m = 2 et X centrée. Interprétation. Si on pose t = sσ(X), on a P (|X − E[X]| ≥ sσ(X)) ≤

28

1 s2

4 Variables aléatoires continues

On rappelle qu’il existe deux types de variables aléatoires : discrètes (définies sur un espace dénombrable) et continues (définies sur un espace infini). Exemple de variable aléatoire continue : Y la température à midi demain. Quelle est la probabilité P(Y=15)? Remarque : 15 doit être la valeur exacte et non 14.9999 ou 15.0001. Donc la probabilité est 0. Ce n’est pas possible de répondre à la question pour une variable continue. On peut répondre à quelle est la probabilité P (|Y − 15| < 0.1)?

P (|Y − 15| < 0.1) = P (14.9 < Y < 15.1)

On a un intervalle. La probabilité est l’aire délimité par la densité et les lignes verticales 14.9 et 15.1. Rq : aire d’une ligne est 0 car la base est nulle.

41 - Définition Loi d’une variable continue La loi d’une variable aléatoire continue X : Ω → R est la probabilité PX sur R déterminée par PX (I) = PX (X ∈ I) pour tout intervalle I ⊂ R

29

42 - Définition Variable à densité Soit X une variable aléatoire à valeurs dans R. On dit que X est à densité, ou absolument continue, s’il existe une fonction f : R → R vérifiant 1. f ≥ 0 R +∞ 2. −∞ f (x)dx = 1 et telle que pour tout intervalle I de R Z P (X ∈ I) =

f (x)dx. I

Dans ce cas f est appelée densité de X.

Notons d’emblée que si X admet une densité, alors la probabilité qu’elle prenne une valeur donnée x0 est nulle puisque Z x0 P (X = x0 ) = f (x)dx = 0. x0

Exemples • Loi uniforme. Une variable se répartissant de façon uniforme sur le segment [0, 1] admet une densité définie par f (x) = 1 si x ∈ [0, 1] et 0 ailleurs. On a bien f ≥ 0 et Z

1

Z f (x)dx =

0

1

1dx = 1 0

Par ailleurs, pour tous points a < b de [0, 1], la probabilité de tomber entre a et b est Z

b

f (x)dx = b − a a

ce qui est bien conforme à l’idée de la loi uniforme : X a autant de chance de tomber dans [0, 1/3] que dans [2/3, 1]. • Loi exponentielle. Considérons f (x) = e−x si x ≥ 0 et f (x) = 0 si x < 0. Alors, on a de nouveau f ≥ 0 et Z

+∞

Z

+∞

f (x)dx = −∞

0

 +∞ e−x dx = −e−x 0 = 1

Donc f définie bien une densité. C’est celle de la loi exponentielle de paramètre 1. Cette loi est utilisée pour modéliser des durées de vie ou des temps d’attente entre l’arrivée de deux évènements. Comme dans le chapitre précédent, on peut définir très facilement la fonction de répartition d’une variable aléatoire absolument continue. Le lien entre intégrale et primitive en fait d’ailleurs un outil bien plus puissant que dans le cas discret. 30

43 - Définition Fonction de répartition La loi d’une variable aléatoire absolument continue X : Ω → R de densité f .La fonction de répartition est la fonction F définie par ( R → [0, 1] F : . Rx x 7→ F (x) = P (X ≤ x) = −∞ f (t)dt

44 - Propriétés Propriétés de la fonction de répartition Soit X une variable aléatoire absolument continue, de densité f . Sa fonction de répartition F a les propriétés suivantes : 1. F est croissante ; 2. limx→−∞ F (x) = 0, limx→+∞ F (x) = 1 ; 3. F est continue sur R.

45 - Proposition Lien entre fonction de répartition et densité Soit X une variable aléatoire absolument continue, de densité f et de fonction de répartition F . Alors en tout point où f est continue, F est dérivable et on a F 0 (x) = f (x). Réciproquement, on peut montrer que si une variable aléatoire X admet une fonction de répartition F , définie par F (x) = P (X ≤ x) qui est continue partout, dérivable sauf éventuellement en un nombre fini de points et de dérivée notée f aux points de dérivabilité, alors X est absolument continue et de densité f . Preuve de la proposition - Soit x0 un point de continuité de f . Il s’agit de montrer que la limite du taux de variation de F en x0 existe et vaut f (x0 ), c’est à dire : F (x0 + δ) − F (x0 ) →δ→0 f (x0 ) δ Soit encore F (x0 + δ) − F (x0 ) ∀ > 0, ∃δ > 0, |x − x0 | ≤ δ ⇒ − f (x0 ) ≤ . δ Soit donc  > 0 fixé. Puisque f est continue en x0 , il existe δ > 0 tel que |x − x0 | < δ implique |f (x) − f (x0 )| < . Il s’ensuit donc de façon générale : Z F (x0 + δ) − F (x0 ) 1 x0 +δ − f (x0 ) = |f (x) − f (x0 )|dx, δ δ x0 31

et pour |x − x0 | ≤ δ, il vient : F (x0 + δ) − F (x0 ) ≤ . − f (x ) 0 δ Exemples/exercices : donner la densité et la fonction de répartition des lois ci-dessous. • la loi uniforme sur [0, 1]   0 si x < 0 x si x ∈ [0, 1] 0 f (x) = 1[0,1] (x) et F (x) =  1 si x > 1 • la loi exponentielle de paramètre 1 f (x) = λe−λx et F (x) = 1 − e−λx • Supposons que X suive une loi uniforme sur [0, 1] et définissons la variable aléatoire Y par Y = X 2 . Y admet-elle une densité ? Si oui, quelle est-elle ? Pour répondre à cette question, une méthode consiste à passer par la fonction de répartition. √ √ √ √ F (y) = P (X 2 ≤ y) = P (− y ≤ X y) = P (X ≤ y) = y √ 1 Puisque y est dérivable sur ]0, 1[, il en va de même pour F avec F 0 (y) = 2√ y . On en déduit que Y est absolument continue, de densité f définie par  si y ≤ 0  0 1 √ si 0 < y < 1 f (y) =  2 y 0 si y ≥ 1

46 - Proposition Changement de variable Soit X une variable aléatoire à valeurs dans l’intervalle I et admettant une densité fX . Soit Y = φ(X), avec φ dérivable et bijective, variable aléatoire à valeurs dans l’intervalle J. Alors, Y admet pour densité fY définie par fY (y) =

fX (φ−1 (y)) |φ0 (φ−1 (y))|

en tout point y de J tel que φ0 (φ−1 (y)) 6= 0. Preuve. Il suffit de généraliser le raisonnement de l’exemple précédent. Notons FY la fonction de répartition de Y , définie pour tout réel y par FY (y) = P (Y ≤ y), alors la relation entre X et Y permet d’écrire, en supposant par exemple φ croissante : FY (y) = P (φ(X) ≤ y) = P (X ≤ φ−1 (y)) = FX (φ−1 (y)) en notant FX la fonction de répartition de X. Ainsi, en tout point y où la fonction y 7→ FX (φ−1 (y)) est dérivable, FY l’est aussi et FY0 (y) = FX0 (φ−1 (y))(φ−1 (y))0 = 32

fX (φ−1 (y)) φ0 (φ−1 (y))

avec φ0 (φ−1 (y)) > 0 puisque φ est croissante. Si φ est décroissante, les calculs précédents deviennent FY (y) = P (φ(X) ≤ y) = P (X ≥ φ−1 (y)) = 1 − FX (φ−1 (y)) d’où FY0 (y) = −FX0 (φ−1 (y))(φ−1 (y))0 = −

4.1

fX (φ−1 (y)) fX (φ−1 (y)) = φ0 (φ−1 (y)) |φ0 (φ−1 (y))|

Moments d’une variable à densité

47 - Définition Espérance On appelle espérance de la variable X la quantité Z E[X] = xf (x)dx R

sous réserve de convergence de cette intégrale.

Comme dans le cas discret, l’espérance de X peut être vue comme la moyenne des valeurs x pondérées par les probabilités infinitésimales f (x)dx. Exemples • Loi uniforme sur [0, 1]. Z

1

E(X) =

 x=

0

 1 x2 = 2 2

C’est bien la moyenne attendue par symétrie de la loi autour de 1/2. • Loi exponentielle . On fait une intégration par partie. Z E(X) = 0

+∞

 +∞ xe−x dx = −xe−x 0 +

Z

+∞

e−x dx = 1

0

48 - Théorème Théorème de transfert Soit X une variable aléatoire à densité et φ = R → R une fonction, alors l’espérance de φ(X) vaut Z E[φ(X)] φ(x)f (x)dx R

Exemple : calculer l’espérance de Y = X 2 avec X une loi uniforme sur [0, 1]. 33

49 - Definition Variance et écart-type Soit X une variable aléatoire de densité f et admettant une espérance E[X]. La variance de X est définie par Z 2 V ar(x) = E[(X − E[X]) ] = (x − E[X])2 f (x)dx R

sous réserve de convergence de cette p intégrale. On appelle alors écart-type, noté σ(x), la racine de la variance σ(X) = V ar(X)). C’est la même que dans le cas discret : de façon générale, la variance d’une variable mesure la moyenne des carrés des écarts à sa moyenne. Comme dans le cas discret on la propriétés suivantes • L’espérance est linéaire : E(X + λY ) = E(X) + λE(Y ) • Si X et Y sont deux variables aléatoires indépendantes et a et b deux constantes alors, V ar(aX + bY ) = a2 V ar(X) + b2 V ar(Y ).

4.2

Loi normale

La loi normale est sans conteste la loi la plus importante des probabilités et des statistiques. Ce rôle prépondérant est dû au Théorème Central Limite, dont nous dirons un mot en fin de section, mais dont l’exposé détaillé dépasse le cadre de ce cours. 50 - Définition Loi normale Soit µ et σ deux réels, avec σ > 0. On dit que X suit une loi normale, loi de Gauss, de paramètres µ et σ 2 , noté X ∼ N (µ, σ), si X admet pour densité f (x) = √

1 2πσ 2

e−

(x−µ)2 2σ 2

En particulier, si µ = 0 et σ = 1 on dit que X suit une loi normale centrée et réduite.

1. Quantile et variance - Supposons que X suive une loi normale de moyenne 12 et de variance 4. Trouver la valeur q telle que P (X > q) = 0.1. Indication pour le calcul : Φ(1.28) = 0.9 2. Soit X ∼ N (5, σ 2 ). Déterminer la variance σ 2 telle que P (X > 9) = 0.2 Indication pour le calcul : Φ(0.84) = 0.8 Théorème Central Limite La loi normale tire son nom de ce qu’elle apparaît de façon "naturelle" ou "normale" dans de très nombreux phénomènes. Ceci est dû au Théorème Central Limite. En voici la version la plus simple : si (Xn )n≥1 est une suite de variables aléatoires indépendantes et identiquement 34

distribuées admettant une variance, alors en notant Sn = X1 + · · · + X2 leurs sommes partielles, on a la convergence en loi suivante Sn − nE[X1 ] L p −−−→ ∞(0, 1) nV ar(X1 ) n→∞ c’est-à-dire que pour tout intervalle (a, b), on a P

! Z √1 x2 2π Sn − nE[X1 ] a≤ p ≤ b −−−→ e− 2 n→∞ nV ar(X1 ) a

Autrement dit, la somme d’un grand nombre de variables aléatoires i.i.d. se comporte comme une loi normale. L’aspect remarquable de ce résultat tient bien sûr au fait que la loi commune des Xn peut être n’importe quoi ! Celle-ci peut aussi bien être discrète qu’absolument continue, mixte ou singulière. La seule chose requise est l’existence de la variance. Avec la Loi des Grands Nombres, ce résultat peut être considéré comme le plus important en probabilités et statistiques.

35

36

5 Loi des grands nombres

Soit X une variable aléatoire et E(X) sa moyenne. On suppose qu’on a n observations de X et ¯ n la moyenne empirique. on note X ¯ n = X1 + · · · + Xn X n ¯ n → E(X) qaund n → ∞. Autrement dit si on considère un La loi des grand nombres dit qur X grand nombre d’exemple Exemple - X numbre de face parmi 100 tirage d’une pièce. E(X) = 100/2 = 50 ¯ n = (49 + 48 + 56 + ...)/n alors X ¯ n → 50 quand n → ∞. X Premières valeur d’une suite de tirages 48

56

56

43

43

42

53

50

56

50

48

47

51

46

49

55

55

51 50 49 48

moyenne empirique

52

49

0

20

40

60

80

100

n Loterie, casinos : si vous faites un grand nombre d’essais, vous tendez vers la moyenne. 37

49

52

···

Plus formellement, on donne le théorème de la loi faible des grands nombres. 51 - Théorème Loi faible des grands nombres Soient X1 , X2 , · · · , Xn une suite de variables aléatoire indépendantes et identiquement distribuées de même moyenne µ et de même variance σ 2 < ∞. On définit les sommes partielles n X Sn = Xi , n = 1, 2, 3, . . . i=1

Soit  > 0 alors

  Sn 1 σ2 P − µ ≥  ≤ n n 2

Ce résultat est une application directe de l’inégalité de Chebychev. 52 - Proposition Inégalité de Chebychev Soit X une variable aléatoire de moyenne µ et de vairance σ 2 finies. Pour tout  > 0 P (|X − µ| ≥ ) ≤

σ2 2

En effet P (|X − µ| ≥ ) = P (X − EX)2 ≥ 2 ≤ =



E (X − EX)2 par l’inégalité de Markov 2 σ2 2

On rappelle l’inégalité de Markov. 53 - Proposition Inégalité de Markov Soit X une variable aléatoire, pour tout  > 0, P (|Z| ≥ ) ≤

E|Z| 

Exercices sur les inégalités de Markov et Bienaime-Chebychev 1. On suppose que le nombre de pièces sortant d’une usine donnée en l’espace d’une semaine est une variable aléatoire d’espérance 50. 38

(a) Majorer la probabilité que la production de la semaine prochaine dépasse 75 pièces ; (b) On sait de plus que la variance de la production hebdomadaire est de 25. Peut-on majorer la probabilité que la production de la semaine prochaine soit comprise entre 40 et 60 pièces? 2. Soit X un variable aléatoire de loi uniforme sur {1, · · · , 9}. (a) Calculer son espérance et sa variance. (b) Majorez la quantité P (|X − 5| > 4. Que vaut en fait cette probablité? 3. On lance 10 fois une pièce équilibrée. Majorez la probabilité d’avoir moins de 2 piles ou moins de 2 faces. Que vaut réellement cette probabilité? 4. Sondage - Une population de personnes présente une propriété donnée avec une proportion inconnue p ∈]0, 1[. On choisit un échantillon de n personnes et l’on pose Xi = 1 si le i-ème individu présente la propriété étudiée, 0 sinon. On considère que les variables aléatoires Xi ainsi définies sont indépendantes et suivent une loi de Bernoulli de paramètre p. (a) Quelle est la loi suivie par Sn = X1 + · · · + Xn ? (b) Déterminer l’espérance et la variance de Sn /n. (c) Soit  > 0. Etablir   Sn 1 P − p ≥  ≤ n 4n2 (d) Pour  = 0.05, quelle valeur de n choisir pour que Sn /n soit voisin de p à  près avec une probabilité supérieure à 95%? 5. Soit X une variable aléatoire d’espérance µ et de varaince σ 2 . Montrer que P (µ − aσ < X < µ + aσ ≥ 1 −

1 α2

6. Let X1 , X2 , · · · , denote an iid sequence of random variables, each with expected value 75 and standard deviation 15. (a) How many samples n do we need to guarantee that the sample mean Mn (X) is between 74 and 76 with probability 0.99? (b) If each Xi has a Gaussian distribution, how many samples n0 would we need to guarantee Mn0 (X) is between 74 and 76 with probability 0.99? Exercices sur la loi des grands nombres. 1. La durée de vie d’un ampoule électrique peut être modélisée par une variable aléatoire X renant au hasard ses valeurs dans l’intervalle [0, θ] avec θ > 0. Afin d’optimiser l’agenda d’un réparateur, on chercher à estimer θ à partir d’un n-échantillon (X1 , · · · , Xn ) de même ¯n. loi que X. On propose d’estimer θ par θˆ = 2X (a) Calculer l’espérance puis la variance de θˆ   (b) En déduire que P θˆ − θ >  tend vers 0 quand n tend vers l’infini.

39

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF