MESURES ET ANALYSES STATISTIQUES DE DONNÉES

January 14, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download MESURES ET ANALYSES STATISTIQUES DE DONNÉES...

Description

MESURES ET ANALYSES STATISTIQUES DE DONNÉES Probabilités Master Génie des Systèmes Industriels, mentions ACCIE et RIM Université du Littoral - Côte d’Opale, La Citadelle Laurent SMOCH ([email protected]) Septembre 2012

Laboratoire de Mathématiques Pures et Appliquées Joseph Liouville Université du Littoral, zone universitaire de la Mi-Voix, bâtiment H. Poincarré 50, rue F. Buisson, BP 699, F-62228 Calais cedex

Table des matières 1 Le dénombrement 1.1 Notations . . . . . . . . . . . . . . . . . . . 1.1.1 Préliminaires . . . . . . . . . . . . . 1.1.2 Ensemble produit . . . . . . . . . . . 1.1.3 Notation factorielle . . . . . . . . . . 1.2 Le dénombrement . . . . . . . . . . . . . . . 1.2.1 Ensemble produit . . . . . . . . . . . 1.2.2 Nombre d’applications d’un ensemble 1.2.3 Parties d’un ensemble et cardinaux . 1.2.4 Arrangements . . . . . . . . . . . . . 1.2.5 Permutations . . . . . . . . . . . . . 1.2.6 Combinaisons . . . . . . . . . . . . . 1.2.7 Combinaisons avec répétition . . . . 1.2.8 Modèle fondamental : schéma d’urne 1.3 Exercices . . . . . . . . . . . . . . . . . . . 2 La probabilité 2.1 Le vocabulaire . . . . . . . . . . . . . 2.1.1 Expérience aléatoire et univers 2.1.2 Evénements . . . . . . . . . . . 2.1.3 Propriétés de P(Ω) . . . . . . . 2.1.4 Opérations sur les événements . 2.2 Probabilité . . . . . . . . . . . . . . . 2.2.1 Axiome de probabilité . . . . . 2.2.2 Conséquences . . . . . . . . . . 2.3 Ensembles probabilisés . . . . . . . . . 2.3.1 Ensembles finis probabilisés . . 2.3.2 Ensembles infinis dénombrables 2.4 Probabilité conditionnelle . . . . . . . 2.4.1 Définition . . . . . . . . . . . . 2.4.2 Exemple . . . . . . . . . . . . . 2.4.3 Indépendance en probabilité . . 2.4.4 La formule de Bayes . . . . . . 2.5 Exercices . . . . . . . . . . . . . . . . 3 Les 3.1 3.2 3.3 3.4

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . E de cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

variables aléatoires réelles Introduction - Exemple . . . . . . . . . . . . . . . . . . . Définitions et propriétés . . . . . . . . . . . . . . . . . . Types de variables aléatoires réelles . . . . . . . . . . . . Fonction de répartition d’une variable aléatoire discrète 3.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Représentation graphique - Exemple . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . p . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . . . dans . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . un . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

1 . . . . . . . . . . . . . . 1 . . . . . . . . . . . . . . 1 . . . . . . . . . . . . . . 1 . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . 2 ensemble F de cardinal n 2 . . . . . . . . . . . . . . 4 . . . . . . . . . . . . . . 5 . . . . . . . . . . . . . . 5 . . . . . . . . . . . . . . 6 . . . . . . . . . . . . . . 7 . . . . . . . . . . . . . . 7 . . . . . . . . . . . . . . 8

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

. . . . . .

. . . . . . . . . . . . . . . . .

13 13 13 13 13 14 14 14 15 15 15 16 17 17 18 18 19 20

. . . . . .

23 23 24 25 26 26 26

II

TABLE DES MATIÈRES

3.5

3.6

3.7

3.4.3 Représentation graphique - Cas général . . . . . . . . . . Fonction de répartition d’une variable aléatoire continue - Densité 3.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.2 Interprétation graphique . . . . . . . . . . . . . . . . . . . 3.5.3 Propriétés de la fonction de répartition . . . . . . . . . . . 3.5.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . Moments d’une variable aléatoire . . . . . . . . . . . . . . . . . . 3.6.1 Espérance mathématique . . . . . . . . . . . . . . . . . . 3.6.2 Variable centrée . . . . . . . . . . . . . . . . . . . . . . . . 3.6.3 Moments d’ordre k . . . . . . . . . . . . . . . . . . . . . . 3.6.4 Moments centrés d’ordre k . . . . . . . . . . . . . . . . . . 3.6.5 Variance et écart-type . . . . . . . . . . . . . . . . . . . . 3.6.6 Moments factoriels . . . . . . . . . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

28 29 29 29 30 30 31 31 32 32 32 32 34 34

4 Lois de probabilités discrètes usuelles 4.1 Loi et variable de Bernoulli . . . . . . . . . . . . . . . . . 4.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . 4.1.2 Moments . . . . . . . . . . . . . . . . . . . . . . . 4.2 Loi et variable binomiales . . . . . . . . . . . . . . . . . . 4.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Moments . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 Somme de deux variables binomiales indépendantes 4.2.4 Loi et variable fréquences . . . . . . . . . . . . . . 4.3 Loi et variable multinomiales . . . . . . . . . . . . . . . . 4.3.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Loi trinomiale . . . . . . . . . . . . . . . . . . . . . 4.3.3 Loi multinomiale . . . . . . . . . . . . . . . . . . . 4.4 Loi et variables hypergéométriques . . . . . . . . . . . . . 4.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Les moments . . . . . . . . . . . . . . . . . . . . . 4.4.3 Limite d’une variable hypergéométrique . . . . . . 4.5 Loi et variable de Poisson . . . . . . . . . . . . . . . . . . 4.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . 4.5.2 Les moments . . . . . . . . . . . . . . . . . . . . . 4.5.3 Somme de deux variables de Poisson indépendantes 4.5.4 Limite d’une variable binomiale . . . . . . . . . . . 4.6 Loi et variable géométriques . . . . . . . . . . . . . . . . . 4.6.1 Définition . . . . . . . . . . . . . . . . . . . . . . . 4.6.2 Moments . . . . . . . . . . . . . . . . . . . . . . . 4.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

41 41 41 41 42 42 42 43 43 44 44 44 45 45 45 46 46 46 47 47 48 48 48 48 49 49

5 Lois de probabilités continues usuelles 5.1 Loi et variable uniformes . . . . . . . . 5.1.1 Définition . . . . . . . . . . . . 5.1.2 Fonction de répartition . . . . . 5.1.3 Moments . . . . . . . . . . . . 5.2 La loi exponentielle . . . . . . . . . . . 5.2.1 Définition . . . . . . . . . . . . 5.2.2 Fonction de répartition . . . . . 5.2.3 Les moments . . . . . . . . . . 5.3 La loi de Laplace-Gauss ou loi normale

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

55 55 55 55 56 57 57 57 57 58

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

III

TABLE DES MATIÈRES

5.3.1 5.3.2 5.3.3 5.3.4 5.3.5 5.3.6 5.3.7 5.3.8 5.3.9

5.4

5.5

5.6

5.7

Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Représentation graphique . . . . . . . . . . . . . . . . . . . . . . . . . Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Variable normale centrée réduite . . . . . . . . . . . . . . . . . . . . . Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . Table de l’écart réduit . . . . . . . . . . . . . . . . . . . . . . . . . . . Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Relation entre la fonction de répartition et la densité de probabilité des loi normale centrée réduite . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.10 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.11 Somme de deux variables normales indépendantes . . . . . . . . . . . . 5.3.12 Approximation d’une loi binomiale par une loi normale . . . . . . . . . 5.3.13 Résumé sur les approximations de lois . . . . . . . . . . . . . . . . . . Loi et variable du χ2 (Khi-deux) de Pearson . . . . . . . . . . . . . . . . . . . 5.4.1 La distribution du χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2 Les données du problème . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.3 Ajustement d’une distribution observée à une distribution théorique . Loi de Student-Fischer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.2 Les courbes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.3 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.4 Les tables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Loi de Fischer-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6.2 Les courbes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6.3 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6.4 Les tables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . loi normale et . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

58 58 59 59 60 62 63 64 64 64 64 65 66 66 66 67 67 73 73 74 74 74 75 75 76 76 77 77

IV

TABLE DES MATIÈRES

Chapitre 1

Le dénombrement 1.1

Notations

1.1.1

Préliminaires

• Soit E un ensemble fini, le cardinal de E, noté Card(E) ou |E|, désigne le nombre de ses éléments. • P(E) désigne l’ensemble des parties de E (y compris l’ensemble E lui-même et l’ensemble vide noté ∅). Exemple 1.1.1 Si on se donne E = {0, 1, 2}, l’ensemble des parties de E est donné par P(E) = {∅; {0}; {1}; {2}; {0, 1}; {0, 2}; {1, 2}; E} • Soient A et B deux parties de E alors • A ∩ B = {x ∈ E/x ∈ A et x ∈ B} définit l’intersection de A et de B, • A ∪ B = {x ∈ E/x ∈ A ou x ∈ B} définit la réunion de A et de B, / A} définit le complémentaire de A dans E, • A = {x ∈ E/x ∈ • A − B = {x ∈ E/x ∈ A et x ∈ / B} = A ∩ B définit “A privé de B” (on écrit également A/B), • A4B = (A − B) ∪ (B − A) = (A ∩ B) ∪ (A ∩ B) définit la différence symétrique de A et de B. On a par conséquent A4B = {x ∈ E/(x ∈ A et x ∈ / B) ou (x ∈ / A et x ∈ B)} . Exemple 1.1.2 Si on se donne les ensembles E = {0, 1, 2, 3, 4, 5, 6}, A = {0, 1, 2}, B = {2, 3, 4} alors • A ∩ B = {2}, • A ∪ B = {0, 1, 2, 3, 4}, • A = {3, 4, 5, 6}, • B = {0, 1, 5, 6}, • A − B = A ∩ B = {0, 1}, • B − A = B ∩ A = {3, 4}, • A4B = {0, 1, 3, 4}.

1.1.2

Ensemble produit

Soient deux ensembles finis E et F . 1. On appelle ensemble produit ou produit cartésien de E par F , l’ensemble noté E × F = {(x, y)/x ∈ E, y ∈ F } Exemple 1.1.3 Soient les ensembles E = {0, 1, 2} et F = {a, b}. On a alors E × F = {(0, a); (0, b); (1, a); (1, b); (2, a); (2, b)}.

2

CHAPITRE 1. LE DÉNOMBREMENT

2. E 2 est le produit cartésien de E. E 2 = {(x, y)/x ∈ E, y ∈ E} Dans l’exemple précédent, on a E 2 = {(0, 0), (0, 1), (0, 2), (1, 0), (1, 1), (1, 2), (2, 0), (2, 1), (2, 2)} et F 2 = {(a, a), (a, b), (b, a), (b, b)}. 3. On peut généraliser la définition du produit cartésien. Soient p ensembles finis E1 ,E2 ,. . .,Ep alors E1 × E2 × . . . × Ep = {(x1 , x2 , . . . , xp )/x1 ∈ E1 , x2 ∈ E2 , . . . , xp ∈ Ep }

1.1.3

Notation factorielle

Soit n un entier naturel non nul (n ∈ N∗ ), on définit n! = 1 × 2 × 3 × . . . × n qui se lit “factorielle n”. Exemple 1.1.4 5! = 5 × 4 × 3 × 2 × 1 = 120. Par convention, on pose 0! = 1 .

 n! n! ∗ Exercice 1  Simplifiez a = (n − 1)! n ∈ N , b = (n − 2)! avec n ∈ N − {0; 1}.  Exercice 2  Écrire à l’aide de deux factorielles le produit 5 × 6 × 7 × 8.

1.2

Le dénombrement

1.2.1

Ensemble produit

1. Soient deux ensembles finis E et F de cardinaux respectifs n et p. Le cardinal du produit cartésien de E par F est donné par Card(E × F ) = Card(E) × Card(F ) En effet, E × F = {(x, y)/x ∈ E, y ∈ F }. Comme x et y peuvent prendre respectivement n et p valeurs, il y a n × p couples (x, y) possibles. Exemple 1.2.1 Soient les ensembles E = {0, 1, 2} et F = {a, b}. On a Card(E × F ) = 3 × 2 = 6. 2. Lorsque F = E, Card(E 2 ) = Card(E × E) = Card(E) × Card(E) = (Card(E))2 Exemple 1.2.2 Dans l’exemple précédent, on a Card(E 2 ) = 32 = 9 et Card(F 2 ) = 22 = 4. 3. On peut généraliser la définition du cardinal. Soient p ensembles finis E1 ,E2 ,. . .,Ep alors Card(E1 × E2 × . . . × Ep ) = Card(E1 ) × Card(E2 ) × . . . × Card(Ep )

1.2.2

Nombre d’applications d’un ensemble E de cardinal p dans un ensemble F de cardinal n

1. Le nombre d’applications de E dans F est np = (Card(F ))Card(E) Exemple 1.2.3 Soient E = {0, 1} et F = {a, b, c}. Le nombre d’applications de E dans F est 32 = 9. – Considérons une application de E dans F , représentée par la Figure 1.1. Cette application est caractérisée par le couple (a, a) avec la convention “0 a pour image a” et “1 a pour image a”. – Considérons maintenant une nouvelle application, représentée par la Figure 1.2. Cette application  0 → a est caractérisée par le couple (a, c) tel que . 1 → c

3

1.2. LE DÉNOMBREMENT

Figure 1.1

Figure 1.2 – Les neuf applications de E dans F sont donc caractérisées par les 9 couples (a, a), (b, b), (c, c), (a, b), (b, a), (a, c), (c, a), (b, c) et (c, b). Un couple (x, y) caractérise l’application 0→x 1→y x et y pouvant prendre les valeurs a, b, c.  Exercice 3  Soit un ensemble de 5 éprouvettes que l’on veut répartir dans trois rangements. Chaque

rangement pouvant contenir 0, 1 ou plusieurs éprouvettes, quel est le nombre de répartitions distinctes ?

 Exercice 4  À l’intérieur d’un laboratoire, un numéro de téléphone fixe est composé d’un indica-

tif (2 numéros) et d’une suite ordonnée de 8 numéros. Pour un indicatif donné, combien y a-t-il de numéros possibles ?

2. p-listes ordonnées avec remise Soit un ensemble F = {e1 , e2 , . . . , en } de cardinal n. On appelle p-liste d’éléments de F , une liste ordonnée de p éléments de F (appelée encore p-uplet) de la forme (x1 , x2 , . . . , xp ), les xi étant deux éléments distincts ou non de F . Ces p-uplets sont au nombre de np puisqu’il y a n choix possibles pour les p éléments. Exemple 1.2.4 Soit F = {e1 , e2 , e3 }. – Les 2-listes ordonnées avec remise (ce qui signifie que les éléments peuvent se répéter) ou 2-uplets sont au nombre de 32 = 9 c’est-à-dire qu’il existe 9 couples (x, y) formés par deux éléments distincts ou non de F . Ces éléments sont (e1 , e1 ), (e1 , e2 ), (e2 , e1 ), (e1 , e3 ), (e3 , e1 ), (e2 , e2 ), (e2 , e3 ), (e3 , e2 ), (e3 , e3 ). – Les 3-listes ordonnées avec remise (ou 3-uplets, ou triplets) sont au nombre de 33 = 27, on peut citer entre-autres (e1 , e1 , e1 ), (e2 , e1 , e3 ), (e3 , e2 , e3 ).  Exercice 5  Combien peut-on former de sigles d’entreprises de deux lettres ? de trois lettres ? de

quatre lettres ?

4

CHAPITRE 1. LE DÉNOMBREMENT

 Exercice 6  On extrait à l’aveugle 3 pièces métalliques d’un conteneur qui en compte 9 : 4 pièces

de type A, 3 pièces de type B, 1 pièce de type C et 1 pièce de type D. Combien y a-t-il de résultats permettant d’obtenir successivement avec remise (a) 3 pièces de type A ? (b) aucune pièce de type B ? (c) 3 pièces de type C ? (d) dans cet ordre : 2 pièces de type A et 1 pièce de type B ? (e) 2 pièces de type A et 1 pièce de type B ? (f) 1 pièce de type A, 1 pièce de type B et 1 pièce de type C ?

1.2.3

Parties d’un ensemble et cardinaux

1. Le nombre de parties d’un ensemble E de cardinal n est 2n . Card(E) = n ⇒ Card(P(E)) = 2n . Exemple 1.2.5 On a vu dans un exemple précédent que P(E) = {∅; {0}; {1}; {2}; {0, 1}; {0, 2}; {1, 2}; E} si E = {0, 1, 2}, ce qui confirme bien que Card(P(E)) = 23 = 8. 2. Si A et B sont deux parties de E, Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B)  Exercice 7  Parmi les 20 employés d’une entreprise, 8 connaissent l’anglais, 5 l’allemand, 3 les deux

langues. Dénombrez ceux qui connaissent au moins une langue. 3. Le complémentaire d’une partie A de E est défini par

A = {A E avec Card(A) = Card(E) − Card(A) . Exemple 1.2.6 Soient E = {0, 1, 2, 3, 4} et A = {2, 4} alors A = {0, 1, 3} et Card(A) = 5 − 2 = 3.  Exercice 8  Un sondage d’opinion, relatif à l’ambiance d’un cours de “Mesures et analyses statis-

tiques de données”, a été réalisé parmi 83 étudiants de Master 1 GSI en 2012 et donne les résultats suivants : Très satisfaits

Assez satisfaits

Assez déçus

Très déçus

Filles de moins de 23 ans

9

6

2

2

Filles de 23 ans et plus

7

9

4

2

Garçons de moins de 23 ans

6

6

4

3

Garçons de 23 ans et plus

2

4

6

11

On pose : F les femmes, P les étudiants de 23 ans et plus, D les étudiants assez déçus ou très déçus, A les étudiants assez déçus ou assez satisfaits. On note F , A, D les ensembles complémentaires de F , A et D. Déterminez le nombre d’éléments des ensembles suivants en précisant ce qu’il représente : (a) F , P , D et A, (b) F ∩ P ∩ D ∩ A, (c) (F ∩ D) ∪ (P ∩ A), (d) F ∩ (P ∩ D ∩ A).

5

1.2. LE DÉNOMBREMENT

1.2.4

Arrangements

1. Soient un ensemble F de cardinal n et p un entier naturel tel que 1 ≤ p ≤ n. On appelle arrangement, d’ordre p, des éléments de F , un p-uplet (x1 , x2 , . . . , xp ) où les éléments xi sont des éléments distincts de F . Déterminons le nombre d’arrangements d’ordre p, noté Apn : – si p > n : Apn = 0 – si p ≤ n : pour x1 , il y a n choix possibles. x1 étant choisi, il y a n − 1 choix possibles pour x2 et ainsi de suite. Enfin, x1 , x2 , . . . , xp−1 étant choisis, il reste n − (p − 1) = n − p + 1 choix possibles pour xp . Le nombre d’arrangements d’ordre p est donc Apn = n(n − 1)(n − 2) . . . (n − p + 1) Cette égalité peut se réécrire Apn = n(n − 1)(n − 2) . . . (n − p + 1) ×

(n − p)(n − p − 1) . . . 2 × 1 , (n − p)(n − p − 1) . . . 2 × 1

ce qui signifie que Apn =

n! (n − p)!

2. Cas particuliers : Avec la convention 0! = 1 le résultat précédent implique A0n = 1 et Ann = 1  Exercice 9  L’équipe de direction d’un laboratoire de chimie de 20 membres est constituée d’un

directeur, d’un directeur technique et d’un directeur Recherche et Développement. Combien d’équipes de direction peut-on constituer, sachant qu’une même personne ne peut cumuler les postes ?

 Exercice 10  Soit le mot F IABILIT E. À l’aide de ce mot, combien d’anagrammes et combien de

mots - au sens large - de 5 lettres distinctes peut-on former ?

1.2.5

Permutations

1. On appelle permutation d’un ensemble F de cardinal n, un arrangement d’ordre n de F . Le nombre de ces permutations est donné par Pn = Ann = n!. 2. Permutation avec répétition Exemple 1.2.7 Déterminons le nombre d’anagrammes du mot F IN I. Si on considère les deux I comme différents, I1 et I2 , les 4 lettres de F I1 N I2 étant distinctes, il existe 4! = 24 anagrammes. Dans ces 24 mots, les mots F I1 N I2 et F I2 N I1 apparaissent. Chaque mot est 4! comptabilisé deux fois. Le nombre d’anagrammes de F IN I est donc = 12. 2! Exemple 1.2.8 Déterminons le nombre d’anagrammes du mot EN SEM BLE. Si on numérote les trois E, on obtient E1 N SE2 M BLE3 . Les huit lettres étant distinctes, il existe 8! anagrammes de E1 N SE2 M BLE3 . Dans ces 8! mots, le mot EN SEM BLE apparaît 3! = 6 fois, 8! chaque mot est donc comptabilisé 3! fois. Le nombre d’anagrammes de EN SEM BLE est donc . 3! Exemple 1.2.9 Déterminons le nombre d’anagrammes du mot M AT HEM AT IQU ES. 13! En procédant comme précédemment, on obtient anagrammes. 2!2!2!2! 3. Cas général Soit une famille E de cardinal n, définie par E = {a1 , a2 , . . . , ak }, la lettre a1 étant répétée r1 fois, la lettre a2 r2 fois, la lettre ak rk fois avec r1 + r2 + . . . + rk = n. Le nombre de permutations est alors

6

CHAPITRE 1. LE DÉNOMBREMENT

n! r1 !r2 ! . . . rk !  Exercice 11  Supposons qu’un protocole d’expérimentation soit constitué de 10 étapes.

(a) Si on considère que toutes les étapes sont différentes, combien de protocoles distincts peut-on réaliser ? (b) Si 4 et 6 de ces étapes sont identiques, combien de protocoles distincts peut-on obtenir ?

1.2.6

Combinaisons

1. Soit un ensemble F ayant n éléments distincts. On appelle combinaison d’ordre p de F toute partie à p éléments (0 ≤ p ≤ n). Remarque 1.2.1 Deux combinaisons distinctes d’ordre p diffèrent par la nature de leurs éléments et non pas par l’ordre. Exemple 1.2.10 Soit F = {a, b, c, d}. Les combinaisons d’ordre 3 de F sont {a, b, c}, {a, b, d}, {a, c, d}, {b, c, d}. Exemple 1.2.11 Avec les éléments a, b, c, on peut constituer – une combinaison de 3 éléments : {a, b, c}, – six arrangements de 3 éléments : (a, b, c), (a, c, b), (b, a, c), (b, c, a), (c, a, b) et (c, b, a).   n p et est défini par Le nombre de combinaisons d’ordre p est noté Cn ou p Cnp

Apn n! n(n − 1)(n − 2) . . . (n − p + 1) = = = p! p!(n − p)! p!

Les Cnp sont encore appelés coefficients binomiaux.  Exercice 12  Un support de tubes à essais contient 2 tubes de 20 mL, 4 tubes de 10 mL, 4 tubes de

5 mL et 6 tubes de 2 mL. On prend au hasard 5 tubes sur le support. De combien de façons différentes peut-on obtenir un total de 40 mL ?

2. Propriétés des nombres Cnp – On a le résultat Cnp = Cnn−p pour n ≥ 0 et 0 ≤ p ≤ n. En particulier, Cn0 = Cnn = 1 et Cn1 = Cnn−1 = n. – On a également p p−1 Cnp = Cn−1 + Cn−1 pour n ≥ 1 et 1 ≤ p ≤ n.

3. Binôme de Newton On a la formule (x + y)n =

n X

Cnp xp y n−p

pour n ≥ 0.

p=0

Exemple 1.2.12 (x + y)5 = C50 x0 y 5 + C51 x1 y 4 + C52 x2 y 3 + C53 x3 y 2 + C54 x4 y 1 + C55 x5 y 0 . = y 5 + 5y 4 x + 10y 3 x2 + 10y 2 x3 + 5yx4 + x5  Exercice 13  Développez à l’aide de la formule du binôme les expressions suivantes où a est un

nombre réel quelconque

7

1.2. LE DÉNOMBREMENT

(a) E = (a + 1)4 (b) F = (a − 3)5 4. Le triangle de Pascal p Ce triangle permet par simple addition de récupérer les coefficients Cnp à partir des Cn−1 . HH p 0 H HH n 0 1 2 3 4 5 .. .

1 1 1 1 1 1 .. .

1 2

1 2 3 4 5

3

4

5 ···

p−1

p

p−1 Cn−1

p Cn−1

1 3 1 6 4 1 10 10 5 1 ..

n−1

.

Cnp

n

1.2.7

Combinaisons avec répétition

Soit un ensemble F de cardinal n. On nomme combinaison d’ordre p, avec répétition des éléments de E, une liste de p éléments tous extraits de E, les répétitions étant autorisées mais l’ordre dans la liste n’intervient pas. Le nombre de combinaisons avec répétition, d’ordre p, est noté p n−1 = = Cn+p−1 Γpn = Cn+p−1

(n + p − 1)! p!(n − 1)!

Exemple 1.2.13 5 clients vous commandent 5 composants électroniques parmi les 8 que vous fabriquez. Quel est le nombre de commandes globales distinctes dans les cas suivants ? 8! – Les composants sont tous différents : C85 = = 56. 5!3! 5 5 = 792. – Les composants sont tous quelconques : C8+5−1 = C12

1.2.8

Modèle fondamental : schéma d’urne

Il est très pratique dans les exercices de considérer l’ensemble E impliqué comme une urne contenant n boules numérotées de 1 à n, chacune des boules s’interprétant comme un élément de E, et de laquelle on tire p boules. On aura très souvent les cas suivants : – Tirages successifs avec remise : On tire au hasard une boule dans l’urne puis on la remet dans l’urne avant d’effectuer le tirage suivant. Si on effectue ainsi p tirages avec remise, le résultat global s’interprète comme une p-liste. Il y a donc np tirages avec remise (de p éléments) possibles. – Tirages successifs et sans remise : On tire au hasard une boule dans l’urne que l’on conserve, la boule n’est donc pas remise dans l’urne qui contient ainsi après chaque tirage une boule de moins. Si on effectue ainsi p tirages sans remise (p ≤ n), le résultat global s’interprète comme une p-liste d’éléments 2 à 2 distincts ou encore comme un arrangement de p éléments de E. Il y a donc Apn tirages sans remise (de p éléments) possibles. – Tirages simultanés : On tire simultanément p boules de l’urne (et non plus successivement, cela revient à dire que l’ordre du tirage des boules est sans importance). Un tel tirage s’interprète comme un sousensemble de E et donc comme une combinaison de p éléments de E. Il y a donc Cnp tirages simultanés (de p éléments) possibles.

8

CHAPITRE 1. LE DÉNOMBREMENT

1.3

Exercices

 Exercice 14  Soit Ω un ensemble. On note P l’ensemble de ses parties.

1. Considérons l’ensemble Ω1 = {1}. Déterminez l’ensemble P(Ω1 ). 2. Considérons l’ensemble Ω2 = {1, 2}. Déterminez l’ensemble P(Ω2 ). 3. Considérons l’ensemble Ω3 = {1, 2, 3}. Déterminez l’ensemble P(Ω3 ).  Exercice 15  Une classe de Master 1 se compose de 20 garçons et 8 filles.

1. De combien de façons peut-on désigner trois garçons pour tenir les rôles des 3 premiers de la promotion ? 2. De combien de façons peut-on désigner trois garçons et deux filles pour tenir les 5 premiers rôles de la promotion ?  Exercice 16  Afin de tester leur résistance, 4 appareils électriques d’un même type sont mis et laissés en

fonctionnement pendant un laps de temps conséquent. Chaque appareil peut subir une défaillance complète (appelée défaillance catalectique, un court-circuit en est un exemple), une défaillance partielle n’entraînant pas d’arrêt, ou aucune défaillance. 1. De combien de manières dictinctes les 4 appareils peuvent-ils se comporter ?

2. Parmi toutes les réponses possibles, quelles sont celles qui imposeront de revoir la fabrication des appareils, c’est-à-dire 3 “défaillances catalectiques” ou plus ?  Exercice 17  Un programme informatique génère de manière aléatoire des nombres compris entre 1 à

20. On lance le programme.

1. Calculez les cardinaux des événements suivants : A : “obtenir un nombre pair”, B : “obtenir un nombre impair”, C : “obtenir un nombre divisible par 3”, D : “obtenir un nombre au moins égal à 2”. 2. Déterminez B ∩ C et en déduire Card(B ∪ C).  Exercice 18  Les 8 analytes (de type I ou II) de 4 échantillons différents ont été soumis à une spectro-

photométrie d’absorption atomique permettant de mesurer leur teneur en plomb. On suppose que les 32 mesures sont distinctes, elles sont ensuite ordonnées au sein de leur échantillon, de la plus grande teneur à la plus petite (par exemple, T2,4 désigne la 2e plus forte teneur en plomb d’un analyte provenant de l’échantillon 4). On récupère alors 3 mesures au hasard. 1. Combien y a-t-il de résultats possibles ? 2. Calculez les cardinaux des événements suivants : A : “une seule 2e plus forte teneur en plomb”, B : “une seule 2e plus forte teneur en plomb provenant de l’échantillon 1 ou 2”, C : “uniquement les 3e plus fortes teneurs en plomb”, D : “au moins une plus forte teneur en plomb”, E : “une 4e plus forte teneur en plomb et une 3e plus forte teneur provenant de l’échantillon 3 ou 4”, F : “une seule 2e plus forte teneur en plomb et deux teneurs provenant du 3e échantillon”.

 Exercice 19  3 lots P1 , P2 , P3 de Streptomycine ont été titrés par dosage au maltol. Les résultats sont

classés dans 6 intervalles numérotés de 1 à 6. On note la classe d’appartenance de chacun des lots P1 , P2 , P3 dans cet ordre et on forme un nombre de 3 chiffres, P1 indiquant le chiffre des centaines, P2 celui des dizaines et P3 celui des unités.

1.3. EXERCICES

11

1. Combien y a-t-il de nombres possibles ? 2. Calculez les cardinaux des événements suivants : A : “les trois chiffres du nombre sont égaux”, B : “les trois chiffres du nombre sont différents”, C : “deux des trois chiffres au moins sont égaux”, D : “le nombre formé est pair”, E : “le nombre formé commence par 3”, F : “le nombre formé est divisible par 9”.  Exercice 20  Un consultant en maintenance industrielle doit visiter 5 entreprises dans les villes suivantes :

Arras, Boulogne, Cherbourg, Digne et Epernay.

1. Combien de circuits différents peut-il réaliser ? 2. Il commence son voyage par Arras. Combien de circuits différents peut-il réaliser ? 3. Il commence son voyage par Arras et doit terminer par Epernay. Combien de circuits différents peut-il réaliser ?  Exercice 21  Résoudre dans l’ensemble des entiers naturels les équations suivantes :

1. A3n = 210n 2. Cn2 = 6 3. Cn1 + Cn2 + Cn3 = 5n  Exercice 22  On effectue 20 fois une même expérience qui n’a que deux issues possibles : soit elle réussit,

soit elle échoue.

1. Combien y a-t-il de suites d’observations des réussites et échecs ? 2. Combien y a -t-il de suites d’observations comptant 5 réussites ?

12

CHAPITRE 1. LE DÉNOMBREMENT

Chapitre 2

La probabilité 2.1 2.1.1

Le vocabulaire Expérience aléatoire et univers

La théorie des probabilités fournit des modèles mathématiques permettant l’étude d’expériences dont on ne peut prévoir le résultat avec certitude. Une telle expérience est appelée expérience aléatoire. On appelle univers, noté Ω, tout ensemble dont les éléments représentent tous les résultats possibles d’une expérience aléatoire. L’ensemble des résultats possibles est connu.

2.1.2

Evénements

Soit Ω un univers correspondant à une certaine expérience aléatoire. Il sera noté généralement Ω = {w1 , w2 , . . . , wp } Les wi , éléments de Ω, sont des éventualités. Le singleton {wi } est appelé événement élémentaire. Une partie de Ω est appelée événement, c’est un élément de P(Ω) (qui on le rappelle, définit l’ensemble des parties de Ω). Exemple 2.1.1 Dans le cas du “lancer d’un dé à 6 faces ”, les éventualités sont 1, 2, 3, 4, 5, 6, les événements élémentaires {1}, {2}, {3}, {4}, {5} et {6}. Les événements sont les parties de Ω, par exemple, l’événement “obtenir un nombre pair ” peut s’écrire A = {2, 4, 6}. On a également les définitions suivantes : soit A un événement de Ω, – on dit que A se réalise si le résultat obtenu à l’issue de l’expérience aléatoire est un élément de A. ¯ – Soit A un événement de Ω. On appelle événement contraire de A (ou complémentaire), noté A, l’ensemble des éléments de Ω qui n’appartiennent pas à A. Autrement dit, l’événement A¯ se réalise lorsque l’événement A ne se réalise pas. – Soient A et B deux événements de Ω. On appelle intersection de A et B le sous-ensemble des éléments de Ω qui appartiennent à la fois à A et à B et on le note A ∩ B. Autrement dit, l’événement A ∩ B se réalise lorsque les événements A et B se réalisent. – Soient A et B deux événements de Ω. On appelle réunion de A et B le sous-ensemble des éléments de Ω qui appartiennent à A ou à B et on le note A ∪ B. Autrement dit, l’événement A ∪ B se réalise lorsque au moins l’un des événements A et B se réalise.

2.1.3

Propriétés de P(Ω)

1. Ω ∈ P(Ω), Ω est appelé événement certain. 2. ∀A ∈ P(Ω) ⇒ A ∈ P(Ω) En particulier Ω ∈ P(Ω) ⇒ Ω = ∅ ∈ P(Ω). L’ensemble vide est appelé événement impossible.

14

CHAPITRE 2. LA PROBABILITÉ

3.



A ∈ P(Ω) ⇒ B ∈ P(Ω)



A ∪ B ∈ P(Ω) A ∩ B ∈ P(Ω)

4. A ∩ B = A ∪ B 5. A ∪ B = A ∩ B 6. A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C), A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)

2.1.4

Opérations sur les événements

Les opérations sur les ensembles ont une interprétation en matière d’événements. 1. A ⊂ B : la réalisation de A implique celle de B. 2. A ∪ B désigne l’événement “A ou B”, il se produit si au moins un des événements est réalisé. 3. A ∩ B désigne l’événement “A et B”, il se produit si A et B sont tous les deux réalisés. 4. Soient deux parties disjointes A et B, c’est-à-dire telles que A ∩ B = ∅. Les événements A et B sont dits incompatibles. 5. Soit \un système d’événements Ai , i ∈ I. Les événements Ai sont dits globalement incompatibles si Ai = ∅. i∈I

Remarque 2.1.1 Si les Ai sont deux à deux incompatibles alors ils sont globalement incompatibles, par contre la réciproque est fausse. Exemple 2.1.2 Avec 3 événements A1 , A2 et A3 :

Figure 2.1 on a donc bien A1 ∩ A2 ∩ A3 = ∅ mais A1 ∩ A2 6= ∅, ce qui illustre la remarque précédente.

2.2 2.2.1

Probabilité Axiome de probabilité

Soient une expérience aléatoire et Ω l’univers associé, P(Ω) l’ensemble des événements. On définit une probabilité comme une application qui à un événement associe un nombre qui mesure les chances de réalisation de cet événement. Mathématiquement parlant, une probabilité est une application p : P(Ω) → R+ A 7→ p(A) ∈ [0; 1] On dit que p(A) est la probabilité de l’événement A. L’application p vérifie les axiomes suivants 1. p(Ω) = 1 2. si A ∩ B = ∅ (les événements sont incompatibles) alors p(A ∪ B) = p(A) + p(B). Remarque 2.2.1 Le couple (Ω, P(Ω)) est probabilisé par la définition de la probabilité p. Pour probabiliser (Ω, P(Ω)), il existe une infinité de probabilités possibles. Le choix de la probabilité résulte d’hypothèses faites sur l’épreuve aléatoire.

15

2.3. ENSEMBLES PROBABILISÉS

2.2.2

Conséquences

1. p(∅) = 0 Preuve : On a ∅ ∪ ∅ = ∅ et ∅ ∩ ∅ = ∅ donc p(∅) = p(∅) + p(∅) ⇒ p(∅) = 0.

2. p(A) + p(A) = 1 Preuve :  A∩A=∅ ⇒ p(Ω) = 1 = p(A) + p(A). A∪A=Ω 3. A ⊂ B ⇒ p(A) ≤ p(B) Preuve :  A ∪ (B − A) = b ⇒ p(B) = p(A) + p(B − A). Comme p(B − A) ∈ R+ on a p(A) ≤ p(B). A ∩ (B − A) = ∅ 4. A ⊂ Ω ⇒ 0 ≤ p(A) ≤ 1 Preuve : ∅ ⊂ A ⊂ Ω ⇒ p(∅) ≤ p(A) ≤ p(Ω) donc 0 ≤ p(A) ≤ 1.

5. p(A ∪ B) = p(A) + p(B) − p(A ∩ B) Preuve :  A ∪ B = B ∪ (A/B) ⇒ p(A ∪ B) = p(B) + p(A/B) d’après le deuxième axiome de la probabilité, B ∩ (A/B) = ∅  (A/B) ∪ (A ∩ B) = A ⇒ p(A) = p(A ∩ B) + p(A/B), (A/B) ∩ (A ∩ B) = ∅ p(A ∪ B) − p(B) = p(A/B) = p(A) − p(A ∩ B) donc p(A ∪ B) = p(A) + p(B) − p(A ∩ B).

6. p(A ∪ B ∪ C) = p(A) + p(B) + p(C) − p(A ∩ B) − p(A ∩ C) − p(B ∩ C) + p(A ∩ B ∩ C) Preuve : En posant B∪C = X on obtient p(A∪B∪C) = p(A∪X) = p(A)+p(X)−p(A∩X) d’après le résultat précédent. Or p(X) = p(B∪C) = p(B)+p(C)−p(B∩C) et A∩X = A∩(B∪C) = (A∩B)∪(A∩C). Par conséquent, p(A∩X) = p(A∩B)+p(A∩C)−p(A∩B ∩A∩C) = p(A∩B)+p(A∩C)−p(A∩B ∩C). En remplaçant cette expression dans p(A ∪ B ∪ C) on obtient l’égalité. Remarque 2.2.2 – Dans le cas où les événements A, B et C sont incompatibles deux à deux, on obtient p(A ∪ B ∪ C) = p(A) + p(B) + p(C) – On peut généraliser cette propriété à n événements incompatibles deux à deux ! [ X p Ai = p(Ai ) avec Ai ∩ Aj = ∅ pour i 6= j i∈I

2.3 2.3.1

i∈I

Ensembles probabilisés Ensembles finis probabilisés

1. Soit Ω un ensemble fini de cardinal n ∈ N? donné par :

16

CHAPITRE 2. LA PROBABILITÉ

Ω = {w1 , w2 , . . . , wn } On définit une probabilité de la façon suivante • pi = p ({wi }) ≥ 0 n X • pi = 1 i=1

Remarque 2.3.1 Si A est une partie de Ω, p(A) =

X

p ({wi }).

wi ∈A

2. On dit qu’on a équiprobabilité sur Ω si tous les événements élémentaires ont la même probabilité, autrement dit si p({ω1 }) = p({ω2 }) = . . . = p({ωn }). Remarque 2.3.2 Si on a équiprobabilité sur Ω alors, d’après la définition d’une probabilité, on a 1 p({ω1 }) = p({ω2 }) = . . . = p({ωn }) = . n et, pour tout événement A, p(A) =

k Card(A) = n Card(Ω)

où, on le rappelle, Card(A) désigne le nombre d’éléments contenus dans l’ensemble A. Remarque 2.3.3 Considérons l’expérience aléatoire qui consiste à lancer un dé cubique. Supposons que le dé soit équilibré (ou non truqué ou non pipé), dans ce cas, si pi est la probabilité d’obtenir la 1 face i avec i ∈ {1, 2, . . . , 6}, p1 = p2 = p3 = p4 = p5 = p6 = . 6 3 Soit A l’événement “le numéro de la face supérieure du dé est pair”. Alors p(A) = de par l’équipro6 babilité des événements élémentaires. En effet, p(A) = p({2} ∪ {4} ∪ {6}) = p({2}) + p({4}) + p({6}) car les événements (élémentaires) {2}, {4} et {6} sont incompatibles deux à deux.

2.3.2

Ensembles infinis dénombrables probabilisés

Un ensemble Ω est un ensemble dénombrable infini s’il existe une bijection de N ou de N∗ dans Ω. Il peut s’écrire sous la forme : Ω = {w1 , w2 , w3 , . . . , wn , . . . . . .} On définit X une probabilité p sur (Ω, P(Ω)) en attribuant à chaque wi une probabilité pi = p({wi }) ≥ 0 telle que pi = 1. i∈N∗

Exemple 2.3.1 On réalise une expérience qui n’a que deux issues possibles (l’échec ou la réussite) jusqu’à ce qu’elle réussisse. On s’intéresse au nombre de réalisations nécessaires à la réussite. Ce nombre est variable, Ω = N∗ donc Ω est un ensemble infini dénombrable. 1 • p1 = p ({1}) = , la “réussite” apparaît lors de la première réalisation, 2 1 1 1 • p2 = p ({2}) = × = , la “réussite” apparaît lors de la deuxième réalisation, 2 2 4 .. .  n−1    n 1 1 1 • pn = p ({n}) = = , la “réussite” apparaît lors de la n-ième réalisation 2 2 2 donc les(n − 1) premières réalisations ont donné un “échec” .. .

17

2.4. PROBABILITÉ CONDITIONNELLE

Ainsi,

X

pi =

i∈N∗

1 + 2

 2  n 1 1 + ... + + . . .. 2 2

Pour déterminer cette somme, on rappelle la formule n  i X 1 i=1

En effet,

n X

2

=

 n+1 1 2 . 1 1− 2

1 − 2

pi est la somme des n premiers termes d’une suite géométrique de raison

i=1

 n+1 n  i X X 1 1 = 0 donc pi = lim = De plus, lim n→∞ 2 n→+∞ 2 ∗ i=1

i∈N

2.4 2.4.1

1 2 1−

1 2

1 . 2

= 1.

Probabilité conditionnelle Définition

1. Étant donné un espace probabilisé (Ω, P(Ω), p), A étant un événement de probabilité non nulle, considérons l’application notée pA telle que pA : P(Ω) → R+ X 7→ pA (X) =

p(A ∩ X) p(A)

2. L’application pA est une probabilité. En effet, p(A) p(A ∩ Ω) = =1 • pA (Ω) = p(A) p(A) p(A ∩ (X ∪ Y )) • Si X ∩ Y = ∅, pA (X ∪ Y ) = mais on peut remarquer que A ∩ (X ∪ Y ) = (A ∩ X) ∪ p(A) (A ∩ Y ) et (A ∩ X) ∩ (A ∩ Y ) = A ∩ X ∩ Y = X ∩ Y = ∅. Par conséquent, p(A ∩ X) + p(A ∩ Y ) p(A ∩ X) p(A ∩ Y ) pA (X ∪ Y ) = = + . p(A) p(A) p(A) Finalement, si X ∩ Y = ∅ alors pA (X ∪ Y ) = pA (X) + pA (Y ). p(A ∩ X) 3. pA (X) = est encore notée p(X/A) et est appelée probabilité conditionnelle de X sachant p(A) A ou probabilité de X sachant A ou probabilité de X une fois A réalisé. Remarque 2.4.1 – L’application pA est une probabilité, elle vérifie donc les propriétés de la probabilité, en particulier • pA (∅) = 0 • pA (X) + pA (X) = 1 – Si p(A) 6= 0 et p(B) 6= 0 alors pA (B) =

p(A ∩ B) p(A ∩ B) = p(B/A) et pB (A) = = p(A/B) p(A) p(B)

Donc p(A ∩ B) = p(A) × p(B/A) = p(B) × p(A/B) – Pour trois événements A, B et C, on a : p(A) × p(B/A) × p(C/A ∩ B) = p(A) ×

p(B ∩ A) p(A ∩ B ∩ C) × p(A) p(A ∩ B)

18

CHAPITRE 2. LA PROBABILITÉ

donc p(A ∩ B ∩ C) = p(A) × p(B/A) × p(C/A ∩ B)

2.4.2

Exemple

Un technicien doit régler de toute urgence un problème électrique sur une machine. La partie défaillante étant hors de vue mais pas hors d’atteinte, notre réparateur a la possibilité de déconnecter 3 fusibles noirs (numérotés N1 , N2 , N3 ) et 2 fusibles rouges (numérotés R1 , R2 ), indiscernables au toucher malheureusement pour lui. Il doit déconnecter deux fusibles rouges successivement pour régler le problème. On a les éventualités suivantes : (N1 , R1 ) ; (N1 , R2 ) ; (N2 , R1 ) ; (N2 , R2 ) ; (N3 , R1 ) ; (N3 , R2 ) ; (R1 , N1 ) ; (R2 , N1 ) ; (R1 , N2 ) ; (R2 , N2 ) ; (R1 , N3 ) ; (R2 , N3 ) ; (R1 , R2 ) ; (N1 , N2 ) ; (N1 , N3 ) ; (N2 , N3 ) ; (R2 , R1 ) ; (N2 , N1 ) ; (N3 , N1 ) ; (N3 , N2 ) On dénombre donc 20 résultats possibles. On peut retrouver ce nombre en utilisant des techniques de dénombrement : notre problème peut être asssimilé à un arrangement d’ordre 2 des 5 fusibles. On en dénombre 5! A25 = = 5 × 4 = 20. 3! • On considère les événements : – A : “déconnecter un fusible rouge au premier essai”. – B : “déconnecter un fusible rouge au second essai”. 2 2 1 2 1 8 2 On a p(A) = , p(A ∩ B) = × = = , p(B) = = . Ainsi, en utilisant la définition de la 5 5 4 20 10 20 5 2 1 p(A ∩ B) = 20 = . probabilité conditionnelle, p(B/A) = 8 p(A) 4 20 • Sans utiliser la définition de p(B/A), l’événement A étant réalisé (on a déconnecté un fusible rouge au premier essai) dans les 8 cas suivants (R1 , N1 ) ; (R1 , N2 ) ; (R1 , N3 ) ; (R1 , R2 ) ; (N1 , R1 ) ; (N2 , R1 ) ; (N3 , R1 ) ; (R2 , R1 ), 2 1 quelle est la probabilité de B ? p(B/A) = = c’est-à-dire que sur les 8 cas de réalisation de A, 2 cas 8 4 donnent la réalisation de B, les cas (R1 , R2 ) et (R2 , R1 ).

2.4.3

Indépendance en probabilité

1. Étant donné un espace probabilisé (Ω, P(Ω), p), on dit que deux événements A et B sont indépendants si et seulement si p(A ∩ B) = p(A) × p(B) 2. Propriétés équivalentes : Si p(A) 6= 0 et p(B) 6= 0, – les événements A et B sont indépendants si et seulement si p(A) = p(A/B) ⇔ p(B) = p(B/A), – la réalisation de A n’influence pas B ; de même la réalisation de B n’influence pas A. Remarque 2.4.2 On ne confondra pas “indépendance en probabilité” et“événements incompatibles” qui se traduisent respectivement par p(A ∩ B) = p(A)p(B) et A ∩ B = ∅. 3. Généralisation : Trois événements sont dits globalement indépendants en probabilité s’ils sont deux à deux indépendants en probabilité c’est-à-dire si • p(A ∩ B) = p(A)p(B) • p(B ∩ B) = p(B)p(C) • p(A ∩ C) = p(A)p(C)

19

2.4. PROBABILITÉ CONDITIONNELLE

4. Soient A et B deux événements indépendants alors A et B sont indépendants. En effet p(A ∩ B) = p(B) × p(A/B) or p(A/B) = 1 − p(A/B) donc p(A ∩ B) = p(B)[1 − p(A/B)] = p(B)[1 − p(A)] car A et B sont indépendants. Enfin, p(A ∩ B) = p(B)p(A) ce qui signifie que A et B sont indépendants. Remarque 2.4.3 Il en est de même pour A et B, A et B.  Exercice 23  Une formation en Master GSI compte 4 garçons et 6 filles en première année, 6 garçons

en seconde année. Combien doit-il y avoir de filles de seconde année si l’on veut que “sexe” et “année” soient des facteurs indépendants lors du choix au hasard d’un étudiant ?

2.4.4

La formule de Bayes

1. Soient (Ω, P(Ω), p) un espace probabilisé et un [ système complet d’événements B1 , B2 , . . . , Bn deux à deux incompatibles (Bi ∩ Bj = ∅ pour i 6= j et Bi = Ω), on dit que les (Bi )i∈I forment une i∈I partition de Ω. Soit A un événement de probabilité non nulle, on peut alors écrire la formule de Bayes donnant la probabilité pour que Bi se réalise sachant A : p(Bi ) × p(A/Bi ) p(Bi /A) = X p(Bj ) × p(A/Bj ) j∈I

! Preuve : A = A ∩ Ω = A ∩

[

Bi

i∈I

pour i 6= j. Par conséquent, p(A) = s’écrire sous la forme p(Bi /A) =

=

[

(A ∩ Bi ). De plus, (A ∩ Bi ) ∩ (A ∩ Bj ) = A ∩ (Bi ∩ Bj ) = A ∩ ∅ = ∅

Xi∈I

X

i∈I

i∈I

p(A ∩ Bi ) =

p(Bi ) × p(A/Bi ). Or on sait que p(Bi /A) peut

p(Bi ) × p(A/Bi ) p(A ∩ Bi ) = d’où la formule de Bayes. p(A) p(A)

2. Dans le cas d’un système complet de deux événements B1 et B2 (B1 ∩ B2 = ∅, B1 ∪ B2 = Ω), p(B1 ) × p(A/B1 ) • p(B1 /A) = p(B1 ) × p(A/B1 ) + p(B2 ) × p(A/B2 ) p(B2 ) × p(A/B2 ) • p(B2 /A) = p(B2 ) × p(A/B2 ) + p(B1 ) × p(A/B1 ) 3. Dans le cas d’un système complet de trois événements B1 , B2 et B3 (B1 ∩ B2 = B2 ∩ B3 = B1 ∩ B3 = ∅, B1 ∪ B2 ∪ B3 = Ω), on a par exemple p(B1 /A) =

p(B1 ) × p(A/B1 ) . p(B1 ) × p(A/B1 ) + p(B2 ) × p(A/B2 ) + p(B3 ) × p(A/B3 )

 Exercice 24  On suppose que les essais d’un test médical sur une population ont conduit à admettre

pour un individu les probabilités suivantes, le test servant à dépister une certaine maladie.

– Probabilité pour qu’un malade ait un test positif (donc probabilité pour que le test soit positif sachant que la personne est malade) : p(T /M ) = 0, 95. – Probabilité pour qu’un non-malade ait un test négatif (donc probabilité pour que le test soit négatif sachant que la personne est saine) : p(T /M ) = 0, 95. – Probabilité pour qu’un individu soit atteint de la maladie p(M ) = 0, 01. Quelle est la probabilité pour qu’un individu qui a donné lieu à un test positif soit atteint de la maladie ?

20

CHAPITRE 2. LA PROBABILITÉ

2.5

Exercices

 Exercice 25  On mesure les longueurs des boulons d’une certaine boîte de 100.

On obtient les résultats suivants : Longueur en cm

[4; 4, 2[

Effectifs

17

[4, 2; 4, 4[ 24

[4, 4; 4, 6[

[4, 6; 5[

51

8

On tire au hasard un boulon. Calculez les probabilités des événements suivants : 1. Le boulon mesure moins de 4, 2 cm. 2. Le boulon mesure plus de 4, 4 cm. Un boulon est utilisable si sa longueur est comprise entre 4, 2 et 4, 6 cm. 3. Quelle est la probabilité qu’un boulon soit utilisable ? 4. On achète 50 boîtes de 100 boulons. Combien peut-on espérer de boulons utilisables ?  Exercice 26  Deux ateliers, notés A et B, d’une même entreprise produisent chaque jour respectivement

1000 et 800 puces électroniques d’un même modèle. 2% des pièces produites par l’atelier A et 3% des pièces produites par l’atelier B sont défectueuses. 1. Complétez le tableau suivant qui décrit la production journalière . Nombre de puces défectueuses

Nombre de puces non défectueuses

Total

Nombre de puces produites par l’atelier A Nombre de puces produites par l’atelier B Total

1800

2. Un jour donné, on choisit au hasard une puce parmi les 1800 puces produites par les deux ateliers. On est dans une situation d’équiprobabilité. On considère les événements suivants : A : “la puce choisie provient de l’atelier A”, B : “la puce choisie provient de l’atelier B”, D : “la puce choisie est défectueuse”, D : “la puce choisie n’est pas défectueuse”. Déterminez exclusivement à l’aide du tableau précédent les probabilités suivantes : (a) p(D), p(A ∩ D), p(A/D). (b) p(D), p(B ∩ D), p(B/D). 3. Vérifiez que p(A ∩ D) = p(A/D) × p(D) et que p(B ∩ D) = p(B/D) × p(D).  Exercice 27  Dans un lot de pièces fabriquées, il y a 3% de pièces défectueuses. Le mécanisme de contrôle

des pièces est aléatoire. Si la pièce est bonne, elle est acceptée avec une probabilité de 0, 96 et si elle est défectueuse elle est refusée avec une probabilité de 0, 98. Calculez les probabilités suivantes : p0 : pour qu’une pièce soit mauvaise et acceptée,

21

2.5. EXERCICES

p1 : pour qu’il y ait une erreur dans le contrôle, p2 : pour qu’une pièce soit acceptée, p3 : pour qu’une pièce soit mauvaise, sachant qu’elle est acceptée.  Exercice 28  Trois machines A, B et C produisent respectivement 60%, 30% et 10% de la production

des pièces d’une entreprise. La machine A (respectivement B et C) produit 2% (respectivement 3% et 4%) d’objets défectueux. 1. On choisit une pièce au hasard à la sortie de l’usine. Calculez la probabilité de l’événement : “La pièce est défectueuse”. 2. On choisit une pièce au hasard à la sortie de l’usine et on voit qu’elle est défectueuse. Calculez la probabilité de l’événement : “Cette pièce a été fabriquée par la machine B”.

 Exercice 29  Monsieur et Madame A ont quatre enfants. On suppose que la probabilité de naissance d’un

garçon est la même que celle d’une fille. Calculez la probabilité des événements suivants : A : “Monsieur et Madame A ont quatre filles”, B : “Monsieur et Madame A ont trois filles et un garçon”, C : “Monsieur et Madame A ont deux filles et deux garçons”, D : “Monsieur et Madame A n’ont pas de fille”, E : “Monsieur et Madame A ont au moins une fille”, F : “Monsieur et Madame A ont au moins une fille et un garçon”.

 Exercice 30  Soit (Ω, A, p) un espace de probabilité et soient A ∈ A et B ∈ A tels que

1 p(A) = , 3

1 p(B) = , 2

1 p(A ∩ B) = . 5

Calculez p(A ∪ B), p(A), p(B), p(A ∩ B), p(A ∪ B), p(A ∩ B).  Exercice 31  Une urne contient cinq boules, trois rouges, numérotées 1, 2, 3 et deux noires, numérotées 1

et 2. On tire au hasard et simultanément deux boules de cette urne. Les tirages sont équiprobables.

1. Quelle est la probabilité de l’événement A : “les deux boules tirées sont de la même couleur ” ? 2. Quelle est la probabilité de l’événement B : “la somme des numéros portés sur chacune des deux boules tirées est égale à 3 ” ? 3. Quelle est la probabilité de B sachant que A est réalisé ?  Exercice 32  Une urne A contient 4 boules rouges et 2 boules bleues. Une urne B contient 5 boules rouges

et 6 boules bleues et une urne C contient 1 boule rouge et 9 boules bleues. On jette un dé parfait numéroté de 1 à 6. – Si le résultat est impair, on tire au hasard une boule de A. – Si le résultat est ’2’ ou ’4’, on tire au hasard une boule de B. – Si le résultat est ’6’, on tire au hasard une boule de C. Sachant que la boule tirée est bleue, quelle est la probabilité qu’elle ait été tirée de l’urne C ?

 Exercice 33  Dans un jeu de 52 cartes, on choisit simultanément 3 cartes.

1. Déterminez le nombre de tirages possibles. 2. Calculez la probabilité des événements suivants : A : “le tirage contient le roi de coeur”, B : “le tirage contient un roi exactement”, C : “le tirage contient un coeur exactement”, D : “le tirage contient deux coeurs dont le roi”, E : “le tirage contient au moins un coeur” (pensez au complémentaire),

2.5. EXERCICES

F : “le tirage contient exactement deux coeurs et exactement un roi”.  Exercice 34  On tire 3 boules d’un sac contenant 9 boules : 4 vertes, 3 rouges, 1 blanche et 1 noire

1. successivement avec remise. Calculez la probabilité des événements suivants : A : “le tirage contient 3 boules vertes”, B : “le tirage ne contient aucune boule rouge”, C : “le tirage contient 3 boules blanches”, D : “le tirage contient dans cet ordre : 2 boules vertes et 1 boule rouge”, E : “le tirage contient 2 vertes et 1 rouge”, F : “le tirage contient 1 verte, 1 rouge et 1 noire”. 2. Mêmes questions si le tirage se fait successivement sans remise. 3. Mêmes questions si le tirage se fait simultanément.

21

22

CHAPITRE 2. LA PROBABILITÉ

Chapitre 3

Les variables aléatoires réelles 3.1

Introduction - Exemple

Une épreuve consiste à jeter deux dés discernables A et B. On considère la somme des numéros apparus sur la face supérieure des dés. On peut symboliser les résultats à l’aide du tableau ci-dessous : HH B 1 A HH H

H

2

3

4

5

6

1

2

3

4

5

6

7

2

3

4

5

6

7

8

3

4

5

6

7

8

9

4

5

6

7

8

9

10

5

6

7

8

9

10

11

6

7

8

9

10

11

12

L’univers Ω correspondant à cette expérience aléatoire est défini par Ω = {(i, j), i = 1, 2, 3, 4, 5, 6 et j = 1, 2, 3, 4, 5, 6}, avec Card(Ω) = 62 = 36 où chaque événement élémentaire est équiprobable. On dispose donc d’un espace probabilisé (Ω, P(Ω), p). Considérons l’application X:Ω → R (i, j) 7→ i + j L’ensemble des valeurs prises par X est appelé univers image et vaut X(Ω) = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}. On définit ainsi une fonction de probabilité pX associée à la variable X, déduite de p par pX (x) = p({X = x}) = p({X −1 (x)}) Par exemple, pX (3) = p({X = 3}) = p({(1, 2), (2, 1)}) =

2 1 = . 36 18

X est une variable aléatoire réelle car associée à une épreuve aléatoire réelle (à valeurs dans R) et sa fonction de probabilité pX est déduite de p. xi

2

3

4

5

6

7

8

9

10

11

12

Total

p({X = xi })

1 36

2 36

3 36

4 36

5 36

6 36

5 36

4 36

3 36

2 36

1 36

1

24

CHAPITRE 3. LES VARIABLES ALÉATOIRES RÉELLES

En notant pi = p({X = xi }) on a

X

pi = 1.

i

Remarque 3.1.1 À la même épreuve aléatoire on peut associer plusieurs variables aléatoires par exemple Y (i, j) = i.j, Z(i, j) = sup(i, j), . . .

3.2

Définitions et propriétés

1. Une variable aléatoire réelle définie sur un espace probabilisé (Ω, p(Ω), p) est une application de Ω dans R définie par X:Ω → R ωi 7→ X(ωi ) = xi L’ensemble des valeurs prises par la variable aléatoire X s’appelle l’univers image et est défini par X(Ω) = {x1 , x2 , . . . , xn }. ωi étant un des résultats possibles de l’expérience, X(ωi ) est en quelque sorte la caractéristique de ωi qui nous intéresse. Comme on ne peut pas prévoir avec certitude quel ωi on obtiendra à l’issue de l’expérience aléatoire, on ne peut pas non plus prévoir avec certitude quelle valeur prendra X(ωi ). C’est pourquoi la fonction X est souvent interprétée comme une “grandeur aléatoire”. On note {X = xi } = {ωi ∈ Ω/X(ωi ) = xi } Chaque événement {X = xi } a une probabilité pi de se produire p({X = xi }) = pX (xi ) = pi 2. On appelle loi de probabilité de la variable aléatoire X l’application f : X(Ω) → [0; 1] xi 7→ f (xi ) = p({X = xi }) Définir la loi de probabilité d’une variable aléatoire revient à déterminer la probabilité de chacun des événements {X = xi } c’est-à-dire pi = p({X = xi }). On vérifiera alors que X

pi = 1

i

3. On peut citer les propriétés essentielles suivantes : Si X et Y sont deux variables aléatoires définies sur un même espace probabilisé (Ω, P(Ω), p) alors X.Y ,

X +Y,

aX + bY ,

X + a,

aX,

X2

sont des variables aléatoires (a et b étant deux réels). Exemple 3.2.1 Soit l’épreuve consistant à jeter un dé équilibré, Ω = {1, 2, 3, 4, 5, 6} est l’univers associé à cette expérience. La distribution de probabilité est équiprobable (puisque le dé est équilibré). Soient les variables aléatoires définies comme suit : ( • X : Ω → R 1 si ωi ∈ {1, 2, 3, 5} ωi 7→ X(ωi ) = . 0 si ωi ∈ {4, 6} L’univers image de la variable X est X(Ω) = {0, 1}. Sa loi de probabilité est définie par 4 2 pX (1) = p({X = 1}) = p({1, 2, 3, 5}) = = , 6 3 2 1 pX (0) = p({X = 0}) = p({4, 6}) = = . 6 3

25

3.3. TYPES DE VARIABLES ALÉATOIRES RÉELLES

• Y : Ω → R . ωi 7→ Y (ωi ) = ωi2 L’univers image de la variable Y est Y (Ω) = {1, 4, 9, 16, 25, 36}. Sa loi de probabilité est définie par Valeurs de Y : yi 1 4 9 16 25 36 Total p({Y = yi }) = pi

1 6

1 6

1 6

1 6

1 6

1 6

1

Considérons la variable Z = X + 2. Cette variable a pour distribution de probabilité Valeurs de Z : zi

2

3

Total

1 2 1 3 3 Considérons la variable T = 2X. Cette variable a pour distribution de probabilité p({Z = zi }) = pi

Valeurs de T : ti

0

2

Total

1 2 1 3 3 Considérons les variables U = X + Y et V = X × Y . On a les résultats suivants : p{T = ti } = pi

ωi

1

2

3

4

5

6

p(ωi )

1 6

1 6

1 6

1 6

1 6

1 6

X(ωi )

1

1

1

0

1

0

Y (ωi )

1

4

9

16

25

36

(X + Y )(ωi )

2

5

10

16

26

36

(X × Y )(ωi )

1

4

9

0

25

0

L’univers image de la variable U = X + Y est U (Ω) = {2, 5, 10, 16, 26, 36}, celui de la variable V est V (Ω) = {0, 1, 4, 9, 25}. Les distributions des variables aléatoires U et V sont :

3.3

U =X +Y

2

5

10

16

26

36

Total

pU

1 6

1 6

1 6

1 6

1 6

1 6

1

V =X ×Y

0

1

4

9

25

Total

pV

2 1 = 6 3

1 6

1 6

1 6

1 6

1

Types de variables aléatoires réelles

Soit X une variable aléatoire réelle, on envisage trois types de variables aléatoires réelles. • discrète finie, si l’ensemble X(Ω) est fini. Les variables précédentes en sont des exemples. • discrète infinie, si l’ensemble X(Ω) est infini dénombrable. Exemple 3.3.1 Soit l’expérience aléatoire qui consiste à lancer une pièce de monnaie, on considère la variable aléatoire X qui désigne le rang d’apparition du premier “face” obtenu. L’univers image est N? . L’événement {X = k} est obtenu en lançant k fois la pièce, les k − 1 premiers résultats étant “pile”, le k-ième face. D’où

26

CHAPITRE 3. LES VARIABLES ALÉATOIRES RÉELLES

 k−1  k 1 1 1 1 1 1 × = × ... × × = 2 2 2 2 2 2 | {z } k−1 fois • continue, si X(Ω) est un intervalle de R ou une réunion d’intervalles. Cette distinction est importante car les techniques développées pour étudier les variables aléatoires sont très différentes selon que les variables sont discrètes ou continues. p({X = k}) =

3.4

Fonction de répartition d’une variable aléatoire discrète

3.4.1

Définition

Soit une variable aléatoire X définie sur un espace probabilisé (Ω, P(Ω), p). La fonction de répartition de X est définie par F : R → [0; 1] a 7→ F (a) = p({X ≤ a})

3.4.2

Représentation graphique - Exemple

Une boîte contient 4 boules numérotées de 1 à 4. Une deuxième boîte contient 3 boules numérotées de 1 à 3. On prélève au hasard une boule de la première boîte puis une boule de la seconde boîte. Soit X la variable aléatoire représentant la valeur absolue de la différence des nombres indiqués sur les boules tirées. On se propose de – déterminer la loi de probabilité de la variable X, – représenter graphiquement sa fonction de répartition. 1. Si B1 et B2 sont respectivement les boules tirées dans la première et dans la deuxième boîte, on a le tableau ci-dessous : HH B HH 2 1 2 3 B1 H H 1

0

1

2

2

1

0

1

3

2

1

0

4

3

2

1

L’univers associé à l’expérience décrite précédemment est défini par Ω = {(i, j), i = 1, 2, 3, 4 et j = 1, 2, 3}. La variable aléatoire X est définie par X:Ω → R (i, j) 7→ |i − j| où i et j sont respectivement les numéros des boules des urnes B1 et B2 . L’univers image de la variable X est X(Ω) = {0, 1, 2, 3}. – L’événement {X = 0} est obtenu de 3 façons : 1 1 1 • en tirant les boules no 1 des boîtes 1 et 2 dont la probabilité est × = , les événements liés 4 3 12 aux deux boîtes étant indépendants, 1 • en tirant les boules no 2 des boîtes 1 et 2 dont la probabilité est aussi , 12 1 . • en tirant les boules no 3 des boîtes 1 et 2 de probabilité 12 1 1 1 3 1 Par conséquent, p({X = 0}) = + + = = . 12 12 12 12 4 – L’événement {X = 1} est obtenu avec les couples (1, 2), (2, 1), (3, 2), (2, 3) et (4, 3). Donc

27

3.4. FONCTION DE RÉPARTITION D’UNE VARIABLE ALÉATOIRE DISCRÈTE 1 1 5 × = . 4 3 12 – L’événement {X = 2} est obtenu avec les couples (3, 1), (1, 3) et (4, 2). Donc 1 1 3 1 p({X = 2}) = 3 × × = = . 4 3 12 4 1 1 1 – L’événement {X = 3} est obtenu avec le couple (4, 1). Donc p({X = 3}) = × = . 4 3 12 On en déduit la distribution de probabilité de la variable X : p({X = 1}) = 5 ×

xi

0

1

2

3

Total

pi

3 12

5 12

3 12

1 12

1

2. Représentation graphique de la fonction de répartition. On peut distinguer plusieurs cas selon la valeur prise par a : • a < 0, F (a) = p({X ≤ a}) = p({X < 0}) = p(∅) = 0 • 0 ≤ a < 1, F (a) = p({X ≤ a}) = p({0 ≤ X < 1}) = p({X = 0}) =

3 1 = 12 4

• 1 ≤ a < 2, F (a) = p({X ≤ a}) = p({0 ≤ X < 2}) = p({X = 0}) + p({X = 1}) =

5 2 3 + = 12 12 3

• 2 ≤ a < 3, F (a) = p({X ≤ a}) = p({0 ≤ X < 3}) = p({X = 0}) + p({X = 1}) + p({X = 2}) = • a ≥ 3, F (a) = p({X ≤ a}) = p({0 ≤ X ≤ 3}) = p(Ω) = 1 d’où la représentation graphique

0.6 0.4 0.0

0.2

F(x)=p(X > > > >

x > > > > > > Z

xlab =”t”, ylab =”f(t)”, las = 1, xaxt =”n”, type =”l”) polycurve 2}, • G = {X 2 − 5X + 4 < 0}.

 Exercice 42  Un dé cubique non truqué admet 3 faces portant un “1”, 2 faces portant un “2” et une

face portant un “3”. On le lance deux fois de suite et on considère la variable aléatoire X associant à chaque tirage la somme des points lus sur la face supérieure du dé obtenue à chacun des deux lancers. Donnez la distribution de probabilité de X.

 Exercice 43  Soit X une variable aléatoire définie sur un espace probabilisé (Ω, P(Ω), p) avec la distri-

bution de probabilité suivante :           2 3 2 1 2 −6, , −3, , 0, , 3, , 4, . 10 10 10 10 10

Calculez E(X), V (X) et σ(X), en déduire la variable centrée réduite X 0 associée à X.  Exercice 44  Une urne contient 5 boules dont 2 blanches et 3 noires. On tire une boule de l’urne, sans

la remettre, 3 fois de suite. Calculez l’espérance mathématique, la variance et l’écart-type de la variable aléatoire X correspondant au nombre de boules blanches tirées.

 Exercice 45  On considère une expérience aléatoire consistant à jeter une boule sur la roulette d’un casino.

On peut admettre que la boule se déplace sur un cercle de centre O et s’immobilise en un point M . Si A est ~\ ~ ) est une variable aléatoire prenant ses valeurs un point du cercle, la mesure en radians de l’angle (OA, OM dans l’intervalle [0; 2π[. Si on suppose que la boule a “autant de chances” de s’arrêter sur un point que sur un autre, on montre que X est une variable aléatoire continue à densité et que la densité de X est une fonction f définie sur R par :   1 si x ∈ [0; 2π[ f (x) = . 2π  0 sinon 1. Déterminez la fonction de répartition de X. 2. Calculez les probabilités pour que X soit compris entre 0 et

π et entre 0 et π. 2

39

3.7. EXERCICES



 0  x+1 Exercice 46 On considère la fonction f définie par : f (x) =   

−x + 1

si x < −1 ou x > 0 si x ∈ [−1; 0] . si x ∈ [0; 1]

1. Montrez que f est une densité de probabilité d’une variable aléatoire X. 2. Déterminez la fonction de répartition de X, on la note F . 3. Écrivez en fonction de F puis calculer p({X < −0, 5}), p({−0, 5 ≤ X ≤ 0, 5}), p({X > 0, 25}). 4. Montrez que X admet une espérance et une variance que l’on déterminera.

40

CHAPITRE 3. LES VARIABLES ALÉATOIRES RÉELLES

Chapitre 4

Lois de probabilités discrètes usuelles 4.1 4.1.1

Loi et variable de Bernoulli Définition

Soit une épreuve aléatoire comportant deux issues, deux événements élémentaires appelés souvent succès et échec dont les probabilités respectives sont p et q avec p + q = 1. On définit alors Ω = {S, E} avec p(S) = p et p(E) = q. Soit la variable aléatoire X : Ω 7→ {0, 1} telle que X(S) = 1

;

X(E) = 0

La variable X est appelée variable de Bernoulli dont la loi de probabilité est xi

0

1

Total

pi

q

p

1

p i xi

0

p

E(X) = p

pi x2i

0

p

E(X 2 ) = p

On note cette loi X

B(p)

Remarque 4.1.1 Cette loi ne dépend que d’un paramètre p, la probabilité de succès.

4.1.2

Moments

1. Espérance : 2. Variance : 3. Écart-type :

E(X) = p V (X) = p − p2 = p(1 − p) = pq σ(X) =



pq

Exemple 4.1.1 Un entreprise possède 10 chaînes de fabrication C1 , C2 ,. . . ,C10 . Elle sait qu’une chaîne possède un problème mais elle ignore laquelle, elle choisit alors une chaîne au hasard. On considère la variable aléatoire X prenant la valeur 1 si la chaîne testée et la chaîne défaillante et 0 sinon. Dans ce cas X est une 1 variable de Bernoulli de paramètre . L’espérance et la variance de cette variable valent respectivement 10

42

CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

4.2 4.2.1

Loi et variable binomiales Définition

Soit une épreuve de Bernoulli. À n répétitions indépendantes de cette épreuve de Bernoulli sont associées n variables aléatoires X1 , X2 ,. . . ,Xn indépendantes. On considère la variable aléatoire X = X1 + X2 + . . . + Xn . Cette variable X désigne le nombre de succès lors de n épreuves. L’univers image de la variable X est {0, 1, 2, . . . , n}. On a p({X = k}) = Cnk pk q n−k . Preuve : L’événement {X = k} est obtenu par le résultat de k succès et n − k échecs. On peut avoir par exemple S . . S} E . . E} | .{z | .{z k fois (n−k) fois

de probabilité pk q n−k , mais il existe Cnk événements comportant k succès et (n − k) échecs d’où le résultat. La variable ainsi définie suit une loi binomiale et on note :

X

B(n, p)

On a bien défini une loi de probabilité puisque pour p ∈]0; 1[, Cnk pk (1 − p)n−k ≥ 0, ∀k ∈ {0, 1, . . . , n} et n X pk (1 − p)n−k = p + (1 − p) = 1 d’après la formule du binôme. k=1

Remarque 4.2.1 Si une variable aléatoire X représente le nombre de succès dans une série de n expériences de Bernoulli identiques et indépendantes alors X suit une loi binomiale de paramètres n et p où p représente la probabilité de succès lors d’une épreuve de Bernoulli.

4.2.2

Moments

1. Espérance : E

n X

! Xi

i=1

=

n X

E(Xi ) = np

i=1

2. Variance : les variables Xi étant indépendantes, ! n n X X V Xi = V (Xi ) = npq i=1

i=1

σ(X) =

3. Écart-type :

Remarque 4.2.2 On a le rapport



npq

p({X = k + 1}) C k+1 pk+1 q n−k−1 n−k p = n k k n−k = × p({X = k}) k+1 q Cn p q

p({X = k + 1}) =

d’où

n−k p × × p({X = k}) k+1 q

relation qui permet de disposer de p({X = k + 1}) lorsqu’on a déja p({X = k}). Remarque 4.2.3 Dans une population très nombreuse, on estime que la probabilité pour qu’une personne soit atteinte d’une maladie donnée est 0, 1. On choisit au hasard 1000 personnes de cette population (avec l’éventualité de choisir plusieurs fois la même personne). On note X la variable aléatoire représentant le nombre de personnes atteintes de la maladie parmi les 1000. X représente le nombre de succès (c’est-à-dire être atteint par la maladie) dans une suite de 1000 épreuvess de Bernoulli (la personne est atteinte ou pas)

43

4.2. LOI ET VARIABLE BINOMIALES

4.2.3

Somme de deux variables binomiales indépendantes

Soient X1 et X2 telles que X1 B(n1 , p) et X2 B(n2 , p), X1 et X2 étant supposées indépendantes. Alors, la variable Z = X1 + X2 suit une loi binomiale B(n1 + n2 , p). Preuve : L’univers image de la variable Z est {0, 1, 2, . . . , n1 + n2 }. L’événement {X1 + X2 = k} est obtenu de la façon suivante : {X1 = 0} ∩ {X2 = k} {X1 = 1} ∩ {X2 = k − 1} .. . {X1 = p} ∩ {X2 = k − p} .. . {X1 = k} ∩ {X2 = 0} k [

Ainsi, {X1 + X2 = k} =

({X1 = i} ∩ {X2 = k − i}). Les variables X1 et X2 étant indépendantes, on a

i=1

( p({X1 + X2 = k}) = p

k [

)! ({X1 = i} ∩ {X2 = k − i})

=

k X

p({X1 = i})p({X2 = k − i}).

i=0

i=1

Par conséquent, p({X1 + X2 = k}) =

k X

Cni 1 pi q n1 −i Cnk−i pk−i q n2 −k+i = 2

k X

Cni 1 Cnk−i pk q n1 +n2 −k = pk q n1 +n2 −k 2

k X

i=0

i=0

Il est très simple de montrer que

k X

Cni 1 Cnk−i . 2

i=0

Cni 1 Cnk−i = Cnk1 +n2 . En effet, choisir k éléments parmi ceux de deux 2

i=0

groupes contenant respectivement n1 et n2 éléments revient à choisir i éléments du premier groupe et k − i éléments du deuxième groupe, d’où p({Z = k}) = p({X1 + X2 = k}) = Cnk1 +n2 pk q n1 +n2 −k . Par conséquent, Z = X1 + X2 B(n1 + n2 , p). Remarque 4.2.4 On peut généraliser cette propriété à l variables binomiales indépendantes.

4.2.4

Loi et variable fréquences

X Soit X B(n, p). On définit la variable Fn = . n X désigne le nombre de succès obtenus au cours des n épreuves, Fn le nombre de succès divisé par le nombre d’épreuves soit la fréquence du succès. Fn est la variable fréquence associée à X : n

X1 + X2 + . . . + Xn 1X Fn = = Xi . n n i=1

 L’univers image de Fn est



  k n k 1 0, , . . . , , . . . , . On a {X = k} = Fn = donc n n n n   k p Fn = = Cnk pk q n−k n

Concernant les moments   de cette variable, X 1 np • E(Fn ) = E = E(X) = = p donc n n n E(Fn ) = p 1

npq

pq

44

CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

pq V (Fn ) = n

r et

σ(Fn ) =

pq n

Remarque 4.2.5 Soit X B(n, p), X désigne le nombre de succès et Y = n − X le nombre d’échecs. Par conséquent, p({X = k}) = p({Y = n − k}) = Cnk pk q n−k .  Exercice 47  Pour réaliser le montage d’un système électronique, on dispose de résistances issues d’une

production importante, où l’on sait que le pourcentage P de défectueuses est de 5%. On doit utiliser 4 résistances. 1. Quelle est la probabilité d’en avoir 3 de mauvaises ? 2. Quelle est la probabilité d’en avoir un nombre inférieur ou‘égal à 3 de mauvaises ?

4.3 4.3.1

Loi et variable multinomiales Exemple

On jette 50 fois une pièce de monnaie truquée. “Pile” apparaît avec une probabilité 0, 3, “face” avec une probabilité 0, 6, la pièce retombe sur la tranche avec une probabilité de 0, 1. Quelle est la probabilité d’obtenir 20 “pile”, 25 “face”, 5 tranches ? Cet événement peut être obtenu de la façon suivante . . F} T . . T} P . . P} F | .{z | .{z | .{z 20 fois

25 fois

5 fois

et sa probabilité vaut (0, 3)20 (0, 6)25 (0, 1)5 . Le nombre de ces 50-uplets est égal au nombre de façons de disposer 20 fois la lettre P , 25 fois la lettre F et 5 fois la lettre T dans un mot de longueur 50. Ce nombre 20 C 25 C 5 = C 20 C 25 , la probabilité de cet événement vaut par conséquent est C50 30 5 50 30 20 C 25 (0, 3)20 (0, 6)25 (0, 1)5 . C50 30

4.3.2

Loi trinomiale

Soit une épreuve aléatoire à 3 issues A de probabilité p, B de probabilité q et C de probabilité r avec p + q + r = 1. Pour n répétitions indépendantes de cette épreuve, on cherche la probabilité d’obtenir k fois A, i fois B et donc n − k − i fois C. Cette probabilité vaut : n−k−i k i n−k−i i Cnk Cn−k Cn−k−i p qr n−k−i i or Cn−k−i = 1 et Cnk Cn−k =

n! . Conclusion, cette probabilité vaut : k!i!(n − k − i)! p=

n! pk q i rn−k−i k!i!(n − k − i)!

Exemple 4.3.1 Une équipe de football gagne un match avec une probabilité de 0, 3, le perd avec une probabilité de 0, 4, fait match nul avec une probabilité de 0, 3. Sur les 36 matchs joués dans l’année, on cherche la probabilité d’obtenir 15 succès, 18 échecs et 3 nuls. Cette probabilité vaut 15 18 3 p = C36 C21 C3 (0, 3)15 (0, 4)18 (0, 3)3 =

36!(0, 3)15 (0, 4)18 (0, 3)3

.

45

4.4. LOI ET VARIABLES HYPERGÉOMÉTRIQUES

4.3.3

Loi multinomiale

Supposons qu’il y ait dans une urne N boules de r couleurs distinctes C1 , C2 ,. . . ,Cr . Soit ni le nombre ni de boules de couleur Ci et pi = la proportion de boules de la couleur Ci dans l’urne. On a N r r X X N= ni = n1 + n2 + . . . + nr et pi = 1. i=1

i=1

Supposons que l’on effectue un tirage de n boules, chaque boule étant remise dans l’urne avant le tirage de la boule suivante ; les tirages répétés des boules sont des épreuves indépendantes. On cherche la probabilité d’obtenir l’événement A défini par • m1 boules de la couleur C1 • m2 boules de la couleur C2 .. . • mi boules de la couleur Ci .. . • mr boules de la couleur Cr avec m1 + m2 + . . . + mr = n. Cet événement est réalisé par exemple avec le n-uplet C1 . . . C1 | {z }

m1 boules C1

C2 . . . C2 . . . Cr . . . Cr | {z } | {z }

m2 boules C2

mr boules Cr

mr 1 m2 de probabilité pm 1 p2 . . . pr . Le nombre de ces n-uplets est égal au nombre de façons de disposer m1 fois la lettre C1 , m2 fois la lettre C2 ,. . . , mr fois la lettre Cr dans un mot de longueur n = m1 + m2 + . . . + mr d’où la probabilité de l’événement A : m2 mr (p1 )m1 (p2 )m2 . . . (pr )mr . p(A) = Cnm1 Cn−m . . . Cm r 1 m2 mr On a la relation Cnm1 Cn−m = . . . Cm r 1

n! , par conséquent, m1 !m2 ! . . . mr !

p(A) =

n! (p1 )m1 (p2 )m2 . . . (pr )mr m1 !m2 ! . . . mr !

Exemple 4.3.2 Une urne est composée de 10% de boules rouges, 20% de boules blanches, 40% de boules vertes, 30% de noires. Le nombre de boules de l’urne est N > 20. On effectue un tirage avec remise de 12 boules. Quelle est la probabilité d’obtenir 3 boules rouges, 5 boules blanches, 3 boules vertes et une boule noire ? p=

4.4 4.4.1

12! (0, 1)3 (0, 2)5 (0, 4)3 (0, 3)1 . 3!5!3!1!

Loi et variables hypergéométriques Définition

Soit une urne contenant N boules dont a boules blanches et b boules noires avec a + b = N . On effectue n tirages d’une boule sans remise (ou on prélève simultanément n boules) avec n ≤ N . Le tirage sans remise est dit exhaustif. Soit X la variable aléatoire représentant le nombre de boules blanches obtenues. La variable X est dite hypergéométrique. On utilise la notation

46

CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

Cette loi dépend de trois paramètres et p({X = k}) =

Cak Cbn−k n CN

En effet, {X = k} est l’ensemble des parties à k éléments parmi a donc Card({X = k}) = Cak Cbn−k . Remarque 4.4.1 Si p est la proportion des boules blanches de l’urne, q celle des noires, on a p = avec p + q = 1 donc a = pN , b = qN et p({X = k}) =

4.4.2

k C n−k CpN qN n CN

=

k C n−k CpN (1−p)N n CN

b a et q = N N

. La loi est notée H(N, p, n).

Les moments

On admettra les propriétés suivantes : – L’espérance mathématique est donnée par : E(X) = np la formule est identique à celle de la loi binomiale. – La variance est définie par : V (X) = npq avec ρ =

N −n = npqρ N −1

N −n définissant le coefficient d’exhaustivité. N −1

Remarque 4.4.2 Généralement n > 1 donc ρ < 1. La variance d’une variable hypergéométrique (tirages sans remise) est inférieure à la variance de la variable binomiale (tirages avec remise). Exemple 4.4.1 Chaque matin, un professeur interroge 4 étudiants pour tester leur connaissance du cours. Une indiscrétion lui permet de savoir que dans la classe composée de 45 étudiants, 10 ne connaissent pas le 10 cours. On se trouve dans la situtation d’un ensemble E comprenant 45 éléments dont une proportion est 45 de type 1 (les étudiants ne connaissent pas le cours), le professeur interroge 4 étudiants successivement, sans interroger deux fois le même (ce qui correspond à 4 tirages successifs sans remise d’un élément de E) alors la  variable aléatoire X représentant le nombre d’éléments de type 1 obtenu suit une loi hypegéométrique  10 H 45, 4, . 45

4.4.3

Limite d’une variable hypergéométrique

Soit X une variable hypergéométrique, X

H(N, p, n). Lorsque N tend vers +∞,

H(N, p, n) → B(n, p). En effet, le nombre N de boules étant infiniment grand, la non-remise de la boule tirée ne modifie presque pas la proportion de boules blanches. Dans la pratique, si N >10n H(N, p, n) −−−−−−−→ B(n, p).

4.5

Loi et variable de Poisson

On rappelle la formule lim

n X xk

=

X xk

= ex

47

4.5. LOI ET VARIABLE DE POISSON

4.5.1

Définition

On dit que la variable aléatoire X suit une loi de Poisson de paramètre λ (λ ∈ R+∗ ) si et seulement si l’univers image de X est N et e−λ λk p({X = k}) = k! On note cette variable

Puisque

X i∈N

pi =

X

e−λ

i∈N

P(λ)

X

X λi λi e−λ λk = e−λ = e−λ eλ = 1 et ∀k ∈ N, ≥ 0, on a bien une loi de probabilité. i! i! k! i∈N

Remarque 4.5.1 La loi de Poisson est encore appelée loi des événements rares. On peut admettre que le nombre de pannes survenant sur une machine donnée au cours d’une période donnée suit une loi de Poisson, ou encore le nombre d’accidents qui se produisent à un carrefour donné pendant une période donnée.

4.5.2

Les moments

– Espérance : on a la relation E(X) = λ Preuve : Soit X

P(λ) alors E(X) =

X

ke−λ

k∈N

En réalisant un changement d’indice, E(X) = λe−λ

k∈N

+∞ i X λ i=0

i!

+∞

k=1

k=1

= λe−λ eλ = λ.

– Variance et écart-type : on a les résultats suivants



V (X) = λ et σ(X) =

λ

Preuve : Déterminons E(X(X − 1)) = E(X 2 ) − E(X). X k(k − 1)λk e−λ X λk e−λ E(X(X − 1)) = = = e−λ λ2 k! (k − 2)! k∈N

+∞

X λk X λk X λk−1 λk k = e−λ = e−λ = λe−λ . k! k! (k − 1)! (k − 1)!

k∈N/{0,1}

gement d’indice dans la somme et E(X(X − 1)) = e−λ λ2

X λi i∈N

i!

X k∈N/{0,1}

λk−2 . On effectue un chan(k − 2)!

= e−λ λ2 eλ = λ2 .

Ainsi E(X 2 ) − E(X) √= λ2 ⇔ E(X 2 ) = λ2 + λ. Par conséquent, V (X) = λ2 + λ − λ2 = λ donc V (X) = λ et σ(X) = λ. Remarque 4.5.2 pk e−λ λk (k − 1)! λ λ • = −λ (k−1) = ce qui signifie que pk = pk−1 . pk−1 k k e λ k! • Il existe des tables (voir annexe A1) donnant pk = p({X = k}) pour différentes valeurs de k et des n X tables donnant pk (voir annexe A2 et A3) c’est-à-dire la valeur de la fonction de répartition de X k=0

P. Pour le calcul de p({X > k}), il suffit d’utiliser la relation p(A) + p(A) = 1 avec k X A = {X > k} et A = {X ≤ k} ce qui permet de calculer p({X > k}) = 1 − p({X ≤ k}) = 1 − pj . en n pour X

j=0

Exemple 4.5.1 Dans une entreprise. on admet que le nombre de pièces défectueuses produites par minute est une variable aléatoire X avec X P(3). Déterminons la probabilité de l’événement A : “le nombre de pièces défectueuses produites en 1 minute est supérieur à 3”.

48

CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

4.5.3

Somme de deux variables de Poisson indépendantes

Soient X1 P(λ1 ) et X2 P(λ2 ), X1 et X2 étant indépendantes. La variable X = X1 + X2 suit alors une loi de Poisson de paramètre λ = λ1 + λ2 X = X1 + X2

P(λ1 + λ2 )

Preuve : L’univers image de X est N. L’événement {X = X1 + X2 = k} est réalisé pour les événements suivants {X1 = 0} ∩ {X2 = k} ou {X1 = 1} ∩ {X2 = k − 1} ou . . . ou {X1 = k} ∩ {X2 = 0}. Donc k [ {X = X1 + X2 = k} = ({X1 = i} ∩ {X2 = k − i}). i=0

Les variables X1 et X2 étant indépendantes, on a p({X1 = i} ∩ {X2 = k − i}) = p({X1 = i}) × p({X2 = k − i}). Par conséquent, k k X X λk−i λi p({X = k}) = p({X1 = i} ∩ {X2 = k − i}) = e−λ1 1 × e−λ2 2 i! (k − i)! i=0

i=0

k X λi1 λk−i −(λ1 +λ2 ) 2 ⇔ p({X = k}) = e i!(k − i)! i=0

or Cki =

k k X k! e−(λ1 +λ2 ) X i i k−i Cki λi1 λ2k−i on a donc p({X = k}) = Ck λ1 λ2 . Comme (λ1 + λ2 )k = i!(k − i)! k! i=0

i=0

e−(λ1 +λ2 ) p({X = k}) = (λ1 + λ2 )k et la variable X suit une loi de Poisson de paramètre λ1 + λ2 . k! Remarque 4.5.3 On peut généraliser ce résultat à n variables de Poisson indépendantes.

4.5.4

Limite d’une variable binomiale

– Soit X une variable binomiale B(n, p). Si p tend vers zéro lorsque n tend vers +∞ de telle sorte que np ait une limite finie λ, la loi binomiale B(n, p) tend vers une loi de Poisson P(λ). – Dans la pratique on approxime la loi binomiale B(n, p) par une loi de Poisson P(λ) avec λ = np si n ≥ 30, p < 0, 1 et np ≤ 10. – L’intérêt de cette approximation est l’utilisation des tables de la loi de Poisson, plus commodes que celles de la loi binomiale.

4.6 4.6.1

Loi et variable géométriques Définition

Soit une épreuve aléatoire à deux issues, succès et échec, de probabilités respectives p et q avec p + q = 1. On répète cette épreuve (épreuves indépendantes) jusqu’à obtenir le premier succès. On considère la variable aléatoire X donnant le rang du premier succès ou encore le nombre d’épreuves nécessaires à l’obtention d’un premier succès Lorsque X est une variable géométrique, l’univers image est N∗ . L’événement {X = k} est obtenu par la réalisation de k − 1 échecs puis d’un succès. p({X = k}) = q k−1 p On notera alors :

49

4.7. EXERCICES

On peut vérifier qu’on a bien défini une loi de probabilité. On a besoin pour cela du rappel suivant : Rappel : Si |x| ≤ 1 alors lim

n→+∞

n X

xk =

k=0

1 . 1−x

On a par conséquent ∀k ∈ N? , q k−1 p ≥ 0 et

n X

q k−1 p = p

X

n→+∞

j = 0n−1 q j −−−−−→ p

k=1

+∞ X 1 = 1 donc q k−1 p = 1−q k=1

1.

Exemple 4.6.1 On considère une urne contenant des boules blanches en proportion p et des boules noires en proportion q = 1 − p, on tire une infinité de fois une boule avec remise. La variable aléatoire X représente le rang où on obtient une boule blanche pour la première fois.

4.6.2

Moments

– L’espérance mathématique est définie par E(X) =

1 p

Preuve : E(X) = X admet une espérance si et seulement si la série

X

kp({X = k}) est absolument

k

convergente. La série étant à termes positifs, la convergence absolue est éqivalente à la convergence. Rappel : Si x ∈] − 1; 1[ alors lim n→

On a par conséquent

n X k=0

n X

kxk−1 =

k=1

kp({X = k}) =

n X

1 . (1 − x)2 kq k−1 p = p

k=0

n X

n→+∞

kq k−2 −−−−−→ p

k=0

p 1 1 = 2 = (1 − q)2 p p

– La variance et l’écart-type sont respectivement définis par √

q V (X) = 2 p

et

σ(X) =

q p

On admettra ce résultat.

4.7

Exercices

 Exercice 48  Une boîte contient 4 boules rouges, 3 boules vertes et 7 boules jaunes. On tire simultanément

2 boules de la boîte et on suppose que les tirages sont équiprobables. 1. On considère les événements suivants : A : “obtenir 2 boules de la même couleur”, B : “obtenir 2 boules de couleurs différentes”. Calculez les probabilités p(A) et p(B).

2. On répète 10 fois l’épreuve précédente en remettant les 2 boules tirées dans la boîte, après chaque tirage. Les 10 épreuves aléatoires élémentaires sont donc indépendantes. On note X la variable aléatoire qui, à chaque partie de 10 épreuves, associe le nombre de fois où l’événement A est réalisé. (a) Expliquez pourquoi X suit une loi binomiale. Donner les paramètres de cette loi. (b) Donnez une loi de probabilité de X en complétant, après l’avoir reproduit, le tableau suivant, dans lequel on fera figurer des valeurs approchées arrondies avec un seul chiffre différent de zéro. k

0

···

p({X = k})

···

···

50

CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

 Exercice 49  On envisage l’installation d’une pompe à chaleur en relève de chaudière dans un hôtel “deux

étoiles” en construction. On se propose d’étudier si le contrat de maintenance forfaitaire annuel proposé par l’installateur, après la période de garantie d’un an, est plus avantageux que la facturation au prix réel des interventions ponctuelles. Une étude statistique permet au constructeur d’affirmer que la probabilité de l’événement “la pompe à chaleur tombe en panne une fois pendant un mois donné” est 0, 125. Dans un but de simplification, on admet que, pendant un mois donné, la pompe à chaleur ne peut tomber en panne qu’au plus une fois et que les pannes éventuelles survenues deux mois d’une même année sont indépendantes. On note X la variable aléatoire qui, à chaque année (de douze mois), associe le nombre de pannes survenues à la pompe. 1. Expliquez pourquoi X suit une loi binomiale. Donner les paramètres de cette loi. 2. Calculez la probabilité des événements suivants : A : “il n’y a pas de panne dans l’année”, B : “il y a au plus deux pannes dans l’année”. 3. Calculez l’espérance mathématique, notée E(X), de la variable aléatoire X. Que représente E(X) ? 4. Les résultats d’une étude statistique menée auprès de nombreux utilisateurs de ce modèle de pompe à chaleur n’ayant souscrit de contrat de maintenance annuel permettent d’admettre que le coût d’une intervention est de 320 euros. Soit Y la variable aléatoire qui à chaque année associe le montant total en euros des frais de réparation de la pompe à chaleur. (a) Écrivez une relation entre les variables Y et X. (b) Déterminez l’espérance mathématique, notée E(Y ), de la variable Y . Que représente E(Y ) ? (c) Le contrat de maintenance forfaitaire annuel de la pompe à chaleur est proposé par l’installateur au prix de 685 euros TTC. Quelle est la solution de maintenance la plus intéressante sur une longue période ? 5. On approche la loi binomiale du 1. par une loi de Poisson de paramètre λ = np où n et p sont les paramètres de cette loi binomiale. En utilisant la loi de Poisson, déterminez les probabilités respectives de deux événements A et B de la question 2. 6. On considère que, pour un événement, l’approximation d’une loi binomiale par une loi de Poisson est p − p0 justifiée lorsque l’erreur relative est, en valeur absolue, inférieure à 10% (p étant la probabilité de p cet événement mesurée avec la loi de Poisson). Pour chacun des deux événements précédents, déterminez si l’approximation de la loi binomiale du 1. par la loi de Poisson du 5. est justifiée.

 Exercice 50  La probabilité qu’une imprimante de modèle PRINT ne puisse transcrire correctement un

caractère est 0, 0005 ; on suppose que les qualités de transmission des caractères sont indépendantes. On désigne par X la variable aléatoire qui à tout lot de 10000 caractères associe le nombre de caractères transcrits incorrectement par l’imprimante. 1. Quelle est la loi de probabilité de X ? 2. On admet que la loi de probabilité suivie par X peut être approchée par une loi de Poisson dont on déterminera le paramètre. Quelle est la probabilité que, parmi 10000 caractères à imprimer, (a) tous soient transcrits correctement ? (b) au moins 9998 soient transcrits correctement ? (c) plus de 5 caractères soient transcrits incorrectement ?

 Exercice 51  Dans une urne, il y a 10 boules blanches et 18 boules rouges indiscernables au toucher.

On considère l’épreuve qui consiste à extraire, au hasard, l’une après l’autre et sans remise, deux boules de

51

4.7. EXERCICES

1. Déterminer la probabilité de l’événement suivant : E : “la première boule tirée est blanche”. 2. On répète 5 fois de suite l’épreuve précédente. Après chaque épreuve, les 2 boules tirées sont remises dans l’urne : les 5 épreuves élémentaires précédentes sont donc indépendantes. Soit X la variable aléatoire qui, à chaque partie de 5 épreuves, associe le nombre de fois que se produit l’événement E. (a) Expliquer pourquoi X suit une loi binomiale et préciser les paramètres de cette loi. (b) Calculer la probabilité de l’événement F : “E se produit exactement 2 fois”.  Exercice 52  Soit X une variable aléatoire qui suit une loi de Poisson de paramètre 4. Déterminez la

probabilité d’avoir 7 ≤ X ≤ 9.

 Exercice 53  3% des bouteilles d’eau fabriquées par une usine sont défectueuses. On appelle X la variable

aléatoire qui, à tout lot de 100 bouteilles prises au hasard, associe le nombre de bouteilles défectueuses. On admet que X suit une loi de Poisson de paramètre 3. Trouvez la probabilité de chacun des 3 événements suivants : 1. “Un tel lot n’a aucune bouteille défectueuse” 2. “Un tel lot a deux bouteilles défectueuses” 3. “Un tel lot a trois bouteilles défectueuses”

 Exercice 54  Une urne contient 6 boules blanches et 4 boules noires.

1. On tire dans cette urne trois fois 1 boule avec remise de cette boule après tirage. On note X le nombre de boules blanches obtenues. Déteminez la loi de X puis donner les valeurs de E(X) et V (X). 2. On tire dans cette urne trois fois une boule sans remise de cette boule après tirage. On note Y le nombre de boules blanches obtenues. Déterminez la loi de Y puis donner les valeurs de E(Y ) et V (Y ).  Exercice 55  On considère une urne contenant 3 boules blanches et 7 boules noires. On tire successive-

ment et sans remise les dix boules de l’urne. On note X1 le numéro du tirage où l’on obtient une boule blanche pour la première fois. Déterminez la loi de X1 .

 Exercice 56  Le système de navigation d’un navire comporte un équipement E dont la fiabilité est ex-

ponentielle avec un MTBF (mean time between failures - temps moyen entre pannes) théorique égal à 500 heures. Ce navire doit effectuer une mission de 2500 heures sans ravitaillement technique. 1. Si l’on veut la certitude pratique (98%) de la continuité de la fonction assurée par E, combien au départ doit-on emporter d’équipements E ?

2. On suppose maintenant que l’on puisse réparer à bord l’équipement E et l’on estime que le temps d’indisponibilité pour la réparation n’excède pas 250 heures. Combien doit-on emporter d’équipements E pour avoir la certitude (à 100% près par hypothèse) de la continuité de la fonction assurée par E ? N.B. On estime que la réparation ne dégrade pas le M T BF = 500 heures.

52

CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

ANNEXE A1 - Probabilités individuelles de la loi de Poisson P(λ). e−λ λk Cette table donne p({X = k}) = pour X P(λ) : k! HH H

k

λ HH H

0 1 2 3 4 5 6 H HH

k

λ H H H

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

0, 1

0, 2

0, 3

0, 4

0, 5

0, 6

0, 7

0, 8

0, 9

0, 9048 0, 0905 0, 0045 0, 0002

0, 8187 0, 1637 0, 0164 0, 0011 0, 0001

0, 7408 0, 2222 0, 0333 0, 0033 0, 0003

0, 6703 0, 2681 0, 0536 0, 0072 0, 0007 0, 0001

0, 6065 0, 3033 0, 0758 0, 0126 0, 0016 0, 0002

0, 5488 0, 3293 0, 0988 0, 0198 0, 0030 0, 0004

0, 4966 0, 3476 0, 1217 0, 0284 0, 0050 0, 0007 0, 0001

0, 4493 0, 3595 0, 1438 0, 0383 0, 0077 0, 0012 0, 0002

0, 4066 0, 3659 0, 1647 0, 0494 0, 0111 0, 0020 0, 0003

1, 0

1, 5

2, 0

2, 5

3, 0

3, 5

4, 0

4, 5

5, 0

0, 3679 0, 3679 0, 1839 0, 0613 0, 0153 0, 0031 0, 0005 0, 0001

0, 2231 0, 3347 0, 2510 0, 1255 0, 0471 0, 0141 0, 0035 0, 0008 0, 0001

0, 1353 0, 2707 0, 2707 0, 1804 0, 0902 0, 0361 0, 0120 0, 0034 0, 0009 0, 0002

0, 0821 0, 2052 0, 2565 0, 2132 0, 1336 0, 0668 0, 0278 0, 0099 0, 0031 0, 0009 0, 0002

0, 0492 0, 1454 0, 2240 0, 2240 0, 1680 0, 1008 0, 0504 0, 0216 0, 0081 0, 0027 0, 0008 0, 0002 0, 0001

0, 0302 0, 1057 0, 1850 0, 2158 0, 1888 0, 1322 0, 0771 0, 0385 0, 0169 0, 0066 0, 0023 0, 0007 0, 0002 0, 0001

0, 0183 0, 0733 0, 1465 0, 1954 0, 1954 0, 1563 0, 1042 0, 0595 0, 0298 0, 0132 0, 0053 0, 0019 0, 0006 0, 0002 0, 0001

0, 0111 0, 0500 0, 1125 0, 1898 0, 1898 0, 1708 0, 1281 0, 0824 0, 0463 0, 0232 0, 0104 0, 0043 0, 0016 0, 0006 0, 0002 0, 0001

0, 0067 0, 0337 0, 0842 0, 1404 0, 1755 0, 1755 0, 1462 0, 1044 0, 0653 0, 0363 0, 0181 0, 0082 0, 0034 0, 0013 0, 0005 0, 0002 0, 0001

53

4.7. EXERCICES

ANNEXE A2 - Probabilités individuelles et cumulées de la loi de Poisson P(λ). e−λ λk Cette table donne p({X = k}) = pour X k! λ

1

2

P(λ) et F (k) =

k X l=0

3

e−λ

λl : l!

4

5

k

p(k, λ)

F (k)

p(k, λ)

F (k)

p(k, λ)

F (k)

p(k, λ)

F (k)

p(k, λ)

F (k)

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

0, 3679 0, 3679 0, 1839 0, 0613 0, 0153 0, 0031 0, 0005 0, 0001

0, 3679 0, 7358 0, 9197 0, 9810 0, 9963 0, 9994 0, 9999 1, 0000

0, 1353 0, 2707 0, 2707 0, 1804 0, 0902 0, 0361 0, 0120 0, 0034 0, 0009 0, 0002

0, 1353 0, 4060 0, 6767 0, 8571 0, 9473 0, 9834 0, 9955 0, 9989 0, 9998 1, 0000

0, 0498 0, 1494 0, 2240 0, 2240 0, 1680 0, 1008 0, 0504 0, 0216 0, 0081 0, 0027 0, 0008 0, 0002 0, 0001

0, 0498 0, 1991 0, 4232 0, 6472 0, 8152 0, 9161 0, 9665 0, 9881 0, 9962 0, 9989 0, 9997 0, 9999 1, 0000

0, 0183 0, 0733 0, 1465 0, 1954 0, 1954 0, 1563 0, 1042 0, 0595 0, 0298 0, 0132 0, 0053 0, 0019 0, 0006 0, 0002 0, 0001

0, 0183 0, 0916 0, 2381 0, 4335 0, 6288 0, 7851 0, 8893 0, 9489 0, 9786 0, 9919 0, 9972 0, 9991 0, 9997 0, 9999 1, 0000

0, 0067 0, 0337 0, 0842 0, 1404 0, 1755 0, 1755 0, 1462 0, 1044 0, 0653 0, 0363 0, 0181 0, 0082 0, 0036 0, 0013 0, 0005 0, 0002 0, 0001

0, 0067 0, 0404 0, 1247 0, 2650 0, 4405 0, 6160 0, 7622 0, 8666 0, 9319 0, 9682 0, 9863 0, 9945 0, 9980 0, 9993 0, 9998 0, 9999 1, 0000

λ

6

7

8

9

10

k

p(k, λ)

F (k)

p(k, λ)

F (k)

p(k, λ)

F (k)

p(k, λ)

F (k)

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

0, 0025 0, 0149 0, 0446 0, 0892 0, 1339 0, 1606 0, 1606 0, 1377 0, 1033 0, 0688 0, 0413 0, 0225 0, 0113 0, 0052 0, 0022 0, 0009 0, 0003 0, 0001

0, 0025 0, 0174 0, 0620 0, 1512 0, 2851 0, 4457 0, 6063 0, 7440 0, 8472 0, 9161 0, 9574 0, 9799 0, 9912 0, 9964 0, 9986 0, 9995 0, 9998 1, 0000

0, 0009 0, 0064 0, 0223 0, 0521 0, 0912 0, 1277 0, 1490 0, 1490 0, 1304 0, 1014 0, 0710 0, 0452 0, 0264 0, 0142 0, 0071 0, 0033 0, 0014 0, 0006 0, 0002 0, 0001

0, 0009 0, 0073 0, 0296 0, 0818 0, 1730 0, 3007 0, 4497 0, 5987 0, 7291 0, 8305 0, 9015 0, 9466 0, 9730 0, 9872 0, 9943 0, 9976 0, 9990 0, 9996 0, 9999 1, 0000

0, 0003 0, 0027 0, 0107 0, 0286 0, 0573 0, 0916 0, 1221 0, 1396 0, 1396 0, 1241 0, 0993 0, 0722 0, 0481 0, 0296 0, 0169 0, 0090 0, 0045 0, 0021 0, 0009 0, 0004 0, 0002 0, 0001

0, 0003 0, 0030 0, 0138 0, 0424 0, 0996 0, 1912 0, 3134 0, 4530 0, 5925 0, 7166 0, 8159 0, 8881 0, 9362 0, 9658 0, 9827 0, 9918 0, 9963 0, 9984 0, 9993 0, 9997 0, 9999 1, 0000

0, 0001 0, 0011 0, 0050 0, 0150 0, 0337 0, 0607 0, 0911 0, 1171 0, 1318 0, 1318 0, 1186 0, 0970 0, 0728 0, 0504 0, 0324 0, 0194 0, 0109 0, 0058 0, 0029 0, 0014 0, 0006 0, 0003 0, 0001

0, 0001 0, 0012 0, 0062 0, 0212 0, 0550 0, 1157 0, 2068 0, 3239 0, 4557 0, 5874 0, 7060 0, 8030 0, 8758 0, 9261 0, 9585 0, 9780 0, 9889 0, 9947 0, 9976 0, 9989 0, 9996 0, 9998 0, 9999 1, 0000

p(k, λ)

F (k)

0, 0005 0, 0023 0, 0076 0, 0189 0, 0378 0, 0631 0, 0901 0, 1126 0, 1251 0, 1251 0, 1137 0, 0948 0, 0729 0, 0521 0, 0347 0, 0217 0, 0128 0, 0071 0, 0037 0, 0019 0, 0009 0, 0004 0, 0002 0, 0001

0, 0005 0, 0028 0, 0104 0, 0293 0, 0671 0, 1302 0, 2203 0, 3329 0, 4580 0, 5381 0, 6968 0, 7916 0, 8645 0, 9166 0, 9513 0, 9730 0, 9857 0, 9928 0, 9965 0, 9984 0, 9993 0, 9997 0, 9999 1, 0000

54

CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

ANNEXE A3 - Probabilités individuelles et cumulées de la loi de Poisson P(λ). e−λ λk Cette table donne p({X = k}) = pour X k! λ k 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32

11

12

P(λ) et F (k) =

l=0

13

p(k, λ)

F (k)

p(k, λ)

F (k)

0, 0002 0, 0010 0, 0037 0, 0102 0, 0224 0, 0411 0, 0646 0, 0888 0, 1085 0, 1194 0, 1194 0, 1094 0, 0926 0, 0728 0, 0534 0, 0367 0, 0237 0, 0145 0, 0084 0, 0046 0, 0024 0, 0012 0, 0006 0, 0003 0, 0001

0, 0002 0, 0012 0, 0049 0, 0151 0, 0375 0, 0786 0, 1432 0, 2320 0, 3405 0, 4599 0, 5793 0, 6887 0, 7813 0, 8541 0, 9075 0, 9442 0, 9679 0, 9824 0, 9908 0, 9954 0, 9978 0, 9990 0, 9996 0, 9999 1, 0000

0, 0001 0, 0004 0, 0018 0, 0053 0, 0127 0, 0255 0, 0437 0, 0655 0, 0874 0, 1048 0, 1144 0, 1144 0, 1056 0, 0905 0, 0724 0, 0543 0, 0383 0, 0255 0, 0161 0, 0097 0, 0055 0, 0030 0, 0016 0, 0008 0, 0004 0, 0002 0, 0001

0, 0001 0, 0005 0, 0023 0, 0076 0, 0203 0, 0458 0, 0895 0, 1550 0, 2424 0, 3472 0, 4616 0, 5760 0, 6816 0, 7721 0, 8445 0, 8988 0, 9371 0, 9626 0, 9787 0, 9884 0, 9939 0, 9969 0, 9985 0, 9993 0, 9997 0, 9999 1, 0000

k X

e−λ

λl : l!

14

15

p(k, λ)

F (k)

p(k, λ)

F (k)

p(k, λ)

F (k)

0, 0002 0, 0008 0, 0027 0, 0070 0, 0152 0, 0281 0, 0457 0, 0661 0, 0859 0, 1015 0, 1099 0, 1099 0, 1021 0, 0885 0, 0719 0, 0550 0, 0397 0, 0272 0, 0177 0, 0109 0, 0065 0, 0037 0, 0020 0, 0010 0, 0005 0, 0002 0, 0001

0, 0001 0, 0010 0, 0037 0, 0107 0, 0259 0, 0540 0, 0997 0, 1658 0, 2517 0, 3532 0, 4631 0, 5730 0, 6751 0, 7636 0, 8355 0, 8905 0, 9302 0, 9574 0, 9751 0, 9680 0, 9925 0, 9962 0, 9982 0, 9992 0, 9997 0, 9999 1, 0000

0, 0001 0, 0004 0, 0013 0, 0037 0, 0087 0, 0174 0, 0304 0, 0473 0, 0663 0, 0844 0, 0984 0, 1060 0, 1060 0, 0989 0, 0866 0, 0713 0, 0554 0, 0409 0, 0286 0, 0191 0, 0121 0, 0074 0, 0043 0, 0024 0, 0013 0, 0007 0, 0003 0, 0002 0, 0001

0, 0005 0, 0018 0, 0055 0, 0142 0, 0316 0, 0620 0, 1093 0, 1756 0, 2600 0, 3584 0, 4644 0, 5704 0, 6693 0, 7559 0, 8272 0, 8826 0, 9235 0, 9521 0, 9712 0, 9833 0, 9907 0, 9950 0, 9974 0, 9987 0, 9994 0, 9997 0, 9999 1, 0000

0, 0002 0, 0007 0, 0019 0, 0048 0, 0104 0, 0194 0, 0324 0, 0486 0, 0663 0, 0829 0, 0956 0, 1024 0, 1024 0, 0960 0, 0847 0, 0706 0, 0558 0, 0418 0, 0299 0, 0204 0, 0133 0, 0083 0, 0050 0, 0029 0, 0016 0, 0009 0, 0004 0, 0002 0, 0001 0, 0001

0, 0002 0, 0009 0, 0028 0, 0076 0, 0180 0, 0374 0, 0698 0, 1184 0, 1847 0, 2676 0, 3622 0, 4656 0, 5680 0, 6640 0, 7487 0, 8193 0, 8751 0, 9169 0, 9468 0, 9672 0, 9805 0, 9888 0, 9938 0, 9967 0, 9983 0, 9992 0, 9996 0, 9998 0, 9999 1, 0000

Chapitre 5

Lois de probabilités continues usuelles 5.1 5.1.1

Loi et variable uniformes Définition

On dit que la loi de probabilité d’une variable aléatoire réelle est uniforme sur un segment [a; b], avec 0 ≤ a < b, si sa densité de probabilité f est définie par  

1 f (x) = b−a  0

pour x < a ou x > b

U([a; b]). f admet la représentation graphique de la Figure 5.1.

0

f(x)

1 (b − a)

On note alors X

pour x ∈ [a; b]

a

b x

Figure 5.1

On a bien une densité de probabilité puisque • f (x) ≥ 0 ∀x ∈ R, • f est continue sur ] − ∞; a[∪]a; b[∪]b; +∞[, Z +∞ Z a Z b Z +∞ • f (t)dt = f (t)dt + f (t)dt + f (t)dt = 0 + 1 + 0 = 1. −∞

5.1.2

−∞

a

b

Fonction de répartition Z

1. On sait que F (x) = p({X ≤ x}) =

x

f (t)dt donc si X

U([a; b]),

56

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

 0   x−a F (x) =   b−a 1

pour x < a pour a ≤ x ≤ b pour x > b

Preuve : On distingue Z xtrois cas : Z x – si x < a, F (x) = f (t)dt = 0dt = 0, −∞Z −∞Z Z x x a 1 x−a – si a ≤ x ≤ b, F (x) = f (t)dt = 0dt + dt = , b−a b−a Z a −∞ Z b a Z x −∞ Z x 1 0dt + f (t)dt = – si x > b, F (x) = 0dt = 0 + 1 + 0 = 1. dt + a b−a −∞ −∞ b

0

F(x)

1

2. Représentation graphique

a

b x

Figure 5.2

5.1.3

Moments

U([a; b]) alors  b Z +∞ Z b t t2 a+b dt = = . • E(X) = tf (t)dt = 2(b − a) a 2 −∞ a b−a   a2 + ab + b2 a + b 2 (b − a)2 • V (X) = − = . 3 2 12  b Z b 2 t t3 b3 − a3 a2 + ab + b2 2 En effet, on a E(X ) = dt = = = . 3(b − a) a 3(b − a) 3 a b−a Si X

Exemple 5.1.1 On considère la fonction f définie par :  0 pour x < 0 ou x > 1 f (x) = . 1 pour 0 ≤ x ≤ 1  Il apparaît en intégrant que  0 pour x < 0 x pour 0 ≤ x ≤ 1 F (x) =  1 pour x > 1 1 1 On trouve E(X) = et V (X) = . 2 12 Remarque 5.1.1 Dans l’exemple précédent, comme dans toute variable aléatoire absolument continue, on Z a

a p({X = 0}) = 0. En effet, ∀a ∈ R,

f (t)dt = 0.

57

5.2. LA LOI EXPONENTIELLE

5.2

La loi exponentielle

5.2.1

Définition

Une variable aléatoire X suit une loi exponentielle de paramètre λ (λ ∈ R+? ) si X est une variable aléatoire absolument continue dont la densité de probabilité est définie par  0 pour x < 0 f (x) = λe−λx pour x ≥ 0 E(λ). La fonction f admet la représentation graphique de la Figure 5.3.

f(x)

On note alors X

0 x

Figure 5.3 On a • •

bien une densité de probabilité puisque f (x) ≥ 0 ∀x ∈ R, + −? fZ est continue sur Z R et RZ , +∞



0

f (t)dt = −∞

+∞

0dt +

λe

Z−∞ +∞

A → +∞ donc

−λt

Z

dt. Or, si A > 0,

0

A

−λA λe−λt dt = [−eλt ]A → 1 quand 0 = 1−e

0

f (t)dt = 1. −∞

La loi exponentielle peut être considérée comme l’équivalent en continu de la loi géométrique dans le cas discret. En effet, elle modélise un temps d’attente du premier succès dans un processus de Poisson.

5.2.2 Si X

Fonction de répartition E(λ), on a

 F (x) =

0 1 − λe−λx

pour x < 0 pour x ≥ 0

dont la représentation graphique est donnée à la Figure 5.4.

5.2.3

Les moments

E(λ), Z +∞ Z 1. E(X) = tf (t)dt = Si X

−∞

+∞

λte−λt dt =

0

1 à l’aide d’une intégration par parties. λ

1 1 2. V (X) = 2 et σ(X) = . λ λ En effet, on sait que V (X) = E(X 2 ) − (E(X))2 . Comme E(X 2 ) = 2

intégrations par parties, on obtient E(X ) =

2

Z 0

.

+∞

λt2 e−λt dt, à l’aide de deux

58

0

F(x)

1

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

0 x

Figure 5.4

5.3 5.3.1

La loi de Laplace-Gauss ou loi normale Définition

On appelle variable aléatoire normale ou gaussienne toute variable aléatoire absolument continue dont la densité de probabilité f est définie par − 1 f (x) = √ e σ 2π

(x − m)2 2σ 2

m étant une constante réelle, σ une constante réelle strictement positive. On utilise la notation suivante X

N (m, σ)

Remarque 5.3.1 On admettra que f est bien une densité de probabilité (la difficulté étant de montrer que Z +∞ f (t)dt = 1). −∞

5.3.2

Représentation graphique

La courbe représentative de f est donnée par la Figure 5.5.

Figure 5.5

59

5.3. LA LOI DE LAPLACE-GAUSS OU LOI NORMALE

Remarque 5.3.2 – La courbe, dite courbe en cloche, a un axe de symétrie qui est la droite d’équation x = m. 1 – La densité f a un maximum atteint pour x = m valant √ . σ 2π – La courbe est d’autant plus pointue que σ est petit. Rappels : Pour déterminer le(s) point(s) d’inflexion d’une fonction, on calcule sa dérivée seconde et on détermine le signe de cette dernière. Si le signe change pour une abscisse particulière, la fonction y admet un point d’inflexion. Déterminons le(s) point(s) d’inflexion de f . Le calcul de la dérivée première donne : − 1 −2 f 0 (x) = √ (x − m)e 2 σ 2π 2σ

(x − m)2 2σ 2 =−

1 √

σ 3 2π

(x − m)2 2σ 2 . (x − m)e −

Le calcul de la dérivée seconde donne : f 00 (x) = −

σ3

1 √

(x − m)2 (x − m)2  − (x − m)2 − 1 2σ 2 2σ 2 . 1− e = √ [(x − m − σ)(x − m + σ)]e σ2 2π σ 5 2π 

On a le tableau de signes suivant : x f 00 (x)

−∞

m−σ

m+σ −

+

+∞ +

Par conséquent, la courbe admet deux points d’inflexion pour x = m + σ et x = m − σ. Exemple 5.3.1 Les variables normales sont très fréquentes, par exemple la variable aléatoire réelle “poids” d’un français adulte, la variable aléatoire “quotient intellectuel” d’une population donnée.

5.3.3

Les moments

L’espérance et la variance d’une variable normale sont respectivement données par : E(X) = m et V (X) = σ 2

5.3.4

Variable normale centrée réduite

Si m = 0 et σ = 1, la variable normale est appelée variable normale centrée réduite et est notée Z ou Γ, on note alors Z

N (0, 1)

La courbe représentative de la fonction g est donnée par la Figure 5.6. Sa densité de probabilité est la fonction 2 1 −x g définie par g(x) = √ e 2 . 2π – Cette fonction g est paire, la courbe a un axe de symétrie qui est la droite des ordonnées. En x = 0, la 1 fonction g vaut g(0) = √ . 2π – Les points d’inflexion de la fonction g se trouvent en x = −1 et x = 1. 2 1 −x – En général, les valeurs de g(x) = √ e 2 sont données à l’aide d’une table pour x ≥ 0.

60

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

Figure 5.6

Figure 5.7

5.3.5

Fonction de répartition

Si on note Π la fonction de répartition de la loi normale centrée réduite Z associée à X, Z z Π(z) = g(x)dx = p({Z ≤ z}) −∞

cette fonction est représentée graphiquement à la Figure 5.7. Il existe des tables qui donnent la valeur de Π(z) pour z ≥ 0 (voir annexe A). Π(z) désigne l’aire du domaine plan en jaune (voir Figure 5.8).

Figure 5.8

Exemple 5.3.2 Π(0) = 0, 5 ce qui est évident puisqu’on considère exactement la moitié de l’aire totale (qui

5.3. LA LOI DE LAPLACE-GAUSS OU LOI NORMALE

– Pour z > 0 on a la relation

Π(z) + Π(−z) = 1

On peut observer cette propriété à l’aide de la Figure 5.9.

Figure 5.9 Exemple 5.3.3 p({Z ≤ −1}) = Π(−1) = 1 − Π(1) = 1 − 0, 8413 = 0, 1587. – Soit z ∈ R, on a la relation

p({Z > z}) = 1 − p({Z ≤ z}) = 1 − Π(z)

On peut observer cette propriété à l’aide de la Figure 5.10.

Figure 5.10 Exemple 5.3.4 p({Z > 1}) = 1 − Π(1) = 0, 1587. – Soient a, b ∈ R vérifiant a < b alors

p({a ≤ Z ≤ b}) = Π(b) − Π(a)

On peut observer cette propriété à l’aide de la Figure 5.11. Exemple 5.3.5 p({1 ≤ Z ≤ 2}) = Π(2) − Π(1) = 0, 9772 − 0, 8413 = 0, 1359. – Soit z > 0 alors

p({−z ≤ Z ≤ z}) = Π(z) − Π(−z) = 2Π(z) − 1

On peut observer cette propriété à l’aide de la Figure 5.12.

61

62

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

Figure 5.11

Figure 5.12

5.3.6

Table de l’écart réduit

Soit un intervalle centré en 0 de probabilité 1 − α, on note −Zα et Zα ses bornes. Alors p({−Zα ≤ z ≤ Zα }) = 1 − α = 2Π(Zα ) − 1 ou encore Π(Zα ) = 1 −

α 2

Par conséquent, p({z > Zα }) = p({z < −Zα }) =

α 2

Il existe une table (ne figurant pas dans les annexes) qui pour α fixé donne Zα , ce qui permet d’obtenir les bornes d’un intervalle centré en 0 dont la probabilité est connue. Exemple 5.3.7 Pour α = 0, 03 on obtient Zα = 2, 170090 ce qui signifie • p({−2, 17090 ≤ Z ≤ 2, 17090}) = 0, 97 • p({Z > 2, 17090}) = 0, 015 • p({Z < −2.17090}) = 0, 015

5.3. LA LOI DE LAPLACE-GAUSS OU LOI NORMALE

63

Figure 5.13

5.3.7

Exemples

X − 30 N (0, 1). 3 Déterminons les probabilités p({X = 28}), p({X ≤ 33}), p({X ≤ 27}), p({27 ≤ X ≤ 33}) et p({X > 33}).

1. Soient X

N (m = 30, σ = 3) et sa variable Z centrée réduite associée vérifiant Z =

• p({X = 28}) = 0. 33 − 30 • X ≤ 33 ⇔ Z ≤ = 1 donc p({X ≤ 33}) = p({Z ≤ 1}) = Π(1) = 0, 8413. 3   27 − 30 • {X ≤ 27} = Z ≤ = −1 donc p({X ≤ 27}) = p({Z ≤ −1}) = Π(−1) = 1 − Π(1) = 3 0, 1587. • {27 ≤ X ≤ 33} = {−1 ≤ Z ≤ 1} par conséquent p({27 ≤ X ≤ 33}) = p({−1 ≤ Z ≤ 1}) = Π(1) − Π(−1) = 2Π(1) − 1 ce qui donne p({27 ≤ X ≤ 33}) = 2 × 0, 8413 − 1 = 0, 6826. • p({X > 33}) = 1 − p({X ≤ 33}) = 1 − Π(1) = 0, 1587. 2. Soit une variable aléatoire réelle dont on sait qu’elle suit une loi normale. On sait de plus que p({X ≤ 3}) = 0, 5517 et p({X > 7}) = 0, 0166. Déterminons les paramètres m et σ de la loi normale que suit X. N (m, σ) ⇔ Z =

X −m σ

N (0, 1) donc     3−m 3−m 3−m et p({X ≤ 3}) = p Z≤ = 0, 5517. Alors Π = 0, 5517 or • X≤3⇔Z≤ σ σ σ 3−m Π(0, 13) = 0, 5517 donc = 0, 13. σ     7−m 7−m 7−m • X>7⇔Z> et p({X ≤ 7}) = 0, 9834 = p Z≤ . Ainsi Π = 0, 9834 or σ σ σ 7−m Π(2, 13) = 0, 9834 donc = 2, 13. σ Afin de déterminer m et σ, on résout le système    7 − m = 2, 13σ 4 = 2σ σ = 2 ⇔ ⇔ . 3 − m = 0, 13σ m = 3 − 0, 13σ m = 3 − 0, 26 = 2, 74 On a X

64

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

5.3.8

Remarques

X −m N (0, 1) donc : σ • {m − σ ≤ X ≤ m + σ} = {−1 ≤ Z ≤ 1} et p({m − σ ≤ X ≤ m + σ}) = Π(1) − Π(−1) = 2Π(1)−1 = 0, 6826. On peut alors affirmer que 68, 26% de la population étudiée appartient à l’intervalle [m − σ; m + σ].

On sait que X

N (m, σ) ⇔ Z =

• {m − 2σ ≤ X ≤ m + 2σ} = {−2 ≤ Z ≤ 2} et p({m − 2σ ≤ X ≤ m + 2σ}) = 2Π(2) − 1 = 0, 9544. On peut alors affirmer que 95, 44% de la population étudiée appartient à l’intervalle [m − 2σ; m + 2σ]. • {m − 3σ ≤ X ≤ m + 3σ} = {−3 ≤ Z ≤ 3} et p({m − 3σ ≤ X ≤ m + 3σ}) = 2Π(3) − 1 = 0, 9973. On peut alors affirmer que 99, 73% de la population étudiée appartient à l’intervalle [m − 3σ; m + 3σ].

5.3.9

Relation entre la fonction de répartition et la densité de probabilité des loi normale et loi normale centrée réduite

– Soit X N (m, σ) de densité f . La fonction de répartition F est définie par F (x) = p({X ≤ x}) et vérifie alors la relation F0 = f – Soit Z

N (0, 1) de fonction de répartition Π et de densité g alors Π0 = g

   x−m x−m – On a l’égalité {X ≤ x} = Z ≤ ainsi que la relation F (x) = Π . Par dérivation, σ     σ 1 x−m 1 x−m F 0 (x) = Π0 ⇔ f (x) = g , σ σ σ σ ce qui permet l’utilisation de la table de densité de probabilité de la loi N (0, 1) pour calculer les valeurs de la densité de probabilité de N (m, σ). 

5.3.10

Propriétés

Soit X

N (m, σ) et k une constante. On a les résultats suivants :

– la variable kX suit une loi normale N (km, |k|σ), – la variable k + X suit une loi normale N (k + m, σ).

5.3.11

Somme de deux variables normales indépendantes

Soient deux variables X1

N (m1 , σ1 ) et X2 X1 + X2

N (m2 , σ2 ) indépendantes. Alors, q N (m1 + m2 , σ12 + σ22 )

et X1 − X2

N (m1 − m2 ,

q

σ12 + σ22 )

Preuve : Ces propriétés sont obtenues en utilisant les résultats suivants E(X1 + X2 ) = E(X1 ) + E(X2 ) ; E(X1 − X2 ) = E(X1 ) − E(X2 ) p p σ(X1 + X2 ) = σ 2 (X1 ) + σ 2 (X2 ) ; σ(X1 − X2 ) = σ 2 (X1 ) + σ 2 (X2 ). Plus généralement, soient n variables aléatoires indépendantes deux à deux telles que Xi

N (mi , σi ),

65

5.3. LA LOI DE LAPLACE-GAUSS OU LOI NORMALE

la variable X =

n X

ai Xi suit une loi normale N (m, σ)

i=1

de moyenne m =

n X

v u n uX ai mi et d’écart-type σ = t a2i σi2 .

i=1

i=1

Remarque 5.3.3 Si les Xi suivent la même loi N (m, σ), – p la variable X = X1 + X√ 2 + . . . + Xn suit une loi normale de moyenne nm et d’écart-type √ σ 2 + σ 2 + . . . + σ 2 = nσ 2 = σ n. X1 + X2 + . . . + Xn nm σ – La variable Y = suit une loi normale de moyenne = m, d’écart-type √ . n n n

5.3.12

Approximation d’une loi binomiale par une loi normale

√ Soit une loi binomiale B(n, p) de moyenne m = np, d’écart-type σ = npq. √ On montre que l’on peut approximer la loi binomiale B(n, p) par la loi normale N (m = np, σ = npq) si n ≥ 15, p et q étant non voisins de 0. Dans la pratique, l’approximation est admise si n ≥ 20, np ≥ 10, nq ≥ 10. Exemple 5.3.8 Soit X ce cas

B(n = 100; p = 0, 4) avec E(X) = 40 et σ(X) =



40 × 0, 6 =



24. On a dans

 n = 100 ≥ 20    np = 40 ≥ 10 nq = 60 > 10    npq = 24 ce qui implique que X

N (m = 40, σ =



24). Calculons p({X < 38}). X − 40 – On a p({X = 38})B = p({37, 5 ≤ X ≤ 38, 5})N . Posons Z = √ alors 24   −1, 5 −2, 5 ≤Z≤ √ = {0, 510 ≤ Z ≤ 0, 306}. {37, 5 ≤ X ≤ 38, 5} = √ 24 24 Ainsi, p({X = 38})B = Π(−0, 306) − Π(−0, 510) = Π(−0, 510) − Π(−0, 306) = 0, 6950 − 0, 6202 = 0, 0748. Montrons que π(0, 306) = 0, 6202 à l’aide de l’interpolation linéaire : on a π(0, 30) = 0, 6179 et π(0, 31) = 0, 6217 et le tableau suivant 0, 6179 x 0, 6217

0, 30 0, 306 0, 31 0, 306 − 0, 30 0, 006 x − 0, 6179 ⇔ = ⇔ x = 0, 6179 + 0, 0038 × = 0, 6202. 0, 6217 − 0, 6179 0, 31 − 0, 30 0, 01   38, 5 − 40 √ – Ensuite, p({X > 38})B = p({X > 38, 5})N et {X > 38, 5} = Z > . Par conséquent, 24 p({X > 38})B = p({X > 38, 5})N = 1 − p({X ≤ 38, 5})N ou encore p({X > 38})B = 1 − Π(−0, 306) = Π(0, 306) = 0, 6202.  – Enfin, p({X ≤ 38})B = p ({X ≤ 38, 5})N et {X ≤ 38, 5} =   −1, 5 p({X ≤ 38})B = p Z≤ √ = Π(−0, 306). 24 B

 40 − 38, 5 √ . Par conséquent, Z≤ 24

66

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

5.3.13

Résumé sur les approximations de lois

• H(N, p, n) ∼ B(n, p) pour N > 10n, • B(n, p) ∼ P(λ = np) pour n ≥ 30, p ≤ 0, 1 et np ≤ 10, • B(n, p) ∼ N (m = np, σ =



 npq) avec

• P(λ = np) ∼ N (m = np, σ =



n ≥ 20 ou 0, 1 < p < 0, 9



np ≥ 10 ou npq > 3. nq ≥ 10

npq) pour np ≥ 10.

Loi et variable du χ2 (Khi-deux) de Pearson

5.4 5.4.1

La distribution du χ2

1. On considère n variables indépendantes d’une loi normale centrée réduite T1 , T2 ,. . . ,Tn . La quantité T12 + T22 + . . . + Tn2 =

n X

Ti2

i=1

est une variable aléatoire dont la distribution est celle d’un χ2 à n degrés de liberté de moyenne et variance respectives, E(χ2n ) = n et V (χ2n ) = 2n Lorsque n augmente, la densité f d’une loi du χ2 ressemble de plus en plus à la densité d’une loi normale (voir la Figure 5.14) : La variable χ2 est tabulée en fonction du nombre n de degrés de liberté.

Figure 5.14 La table (voir annexe B) donne pour différentes valeurs de α, la valeur de x telle que : P ({χ2n < x}) = 1 − α 2. Graphiquement, cette valeur est égale à la surface grisée de la Figure 5.15 : Exemple 5.4.1 Calculer p({χ210 > 20, 5}). On récupère à l’aide de la table, la probabilité p({χ210 < 20, 5}) = 0, 975. Par conséquent, la probabilité recherchée p({χ210 > 20, 5}) est égale à 1−0, 975 = 0, 025. Remarque 5.4.1 Attention, d’autres tables donnent la probabilité α, en fonction du nombre de degrés de liberté ν pour qu’une variable aléatoire X suivant une loi de χ2ν soit supérieure ou égale à une valeur donnée x : α = p({X ≥ x}). On a la propriété suivante : 2

2

2

5.4. LOI ET VARIABLE DU χ2 (KHI-DEUX) DE PEARSON

67

Figure 5.15 Ce χ2 admet – une moyenne E(χ2m+n ) = m + n, – une variance σ 2 (χ2m+n ) = 2(m + n) et ceci par application directe du théorème sur l’addition de variables aléatoires indépendantes.

5.4.2

Les données du problème

Certains tests ont pour objet de tirer des conclusions relatives à la valeur des paramètres (moyenne, fréquence, variance) d’une ou plusieurs populations, sur la base d’informations partielles fournies par un ou plusieurs échantillons. La même démarche peut être appliquée pour porter un “jugement” sur les caractéristiques encore plus générales de la population : la forme même de distribution du caractère étudié, la validité de sa représentation à l’aide de telle ou telle loi de probabilité particulière, les relations éventuelles entre plusieurs variables. Concrètement, on dispose d’une distribution statistique empirique se présentant sous la forme d’une table d’effectifs ou de fréquences du caractère étudié. On désire savoir si ces effectifs ou ces fréquences sont compatibles avec une distribution théorique déterminée telle que la loi binomiale, la loi de Poisson, la loi normale ou toute autre loi de probabilité. Il s’agit en d’autres termes d’apprécier l’adéquation d’une distribution théorique particulière, en tant que représentation d’un phénomène concret observé (série empirique). La démarche consiste donc à tester l’hypothèse selon laquelle notre échantillon serait tiré d’une population régie par une certaine loi de probabilité. Il est évident que, même si le phénomène étudié suit effectivement la loi de probabilité dont on teste l’adéquation, les fréquences expérimentales (ou empiriques) observées sur un échantillon particulier différeront nécessairement peu ou prou des probabilités (fréquences que l’on devrait théoriquement observer selon la loi en question). La problématique du test revient en définitive à savoir si les différences constatées entre la distribution expérimentale et la distribution théorique supposée sont explicables par l’aléa lié à la constitution de l’échantillon ou si elles sont trop importantes pour être imputables au seul hasard. En ce cas, c’est l’hypothèse de travail avancée sur la nature de la distribution qui devrait être mise en cause.

5.4.3

Ajustement d’une distribution observée à une distribution théorique

Construction du test 1. Les hypothèses du test sont les suivantes : • H : X suit la loi théorique L,

68

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

• H1 : X ne suit pas L. 2. La variable observée est : – soit discrète et prend k valeurs x1 , x2 ,. . . ,xk – soit continue et classée en k classes [a0 ; a1 [, [a1 ; a2 [,. . . ,[ak−1 ; ak [ de centres respectifs x1 , x2 ,. . . ,xk−1 , xk . 3. Les N observations de l’échantillon sont réparties sur les k valeurs de X (si X est discrète) ou sur les k classes de X (si X est continue). On a les tableaux suivants :

avec N =

k X

xi

ni

x1

n1

x2

n2

.. .

.. .

xk

nk

Classes

Centres xi

Effectifs ni

[a0 ; a1 [

x1

n1

[a1 ; a2 [

x2

n2

.. .

.. .

.. .

[ak−1 ; ak [

xk

nk

ni = n1 + n2 + . . . + nk .

i=1

4. Sous H0 on note pi la probabilité dite théorique définie par • pi = p({X = xi /X

L}) si X est discrète,

• pi = p({X ∈ [ai−1 ; ai [/X

L}) si X est continue.

ei = N pi est l’effectif théorique de la i-ième classe de X. 5. L’indicateur d’écart entre les distributions observées et théoriques est k X (ni − N pi )2 i=1

N pi

(1)

dit χ2 observé ou calculé. Cet écart suit pour N suffisamment grand une loi du χ2ν d’où le nom du test. Intuitivement, on comprend que cette grandeur statistique traduise l’écart entre l’échantillon et la loi conjecturée. Si l’ajustement était parfait, cette expression du χ2 serait nulle, les effectifs empiriques co´’ıncidant exactement avec les effectifs théoriques. En revanche, plus grands sont les écarts entre les effectifs observés et les effectifs théoriques (ni − ei ) et plus forte sera la valeur du χ2 . En outre, comme la quantité (1) ne peut pas être négative, le test d’ajustement est nécessairement un test unilatéral droit. Le paramètre ν indiçant χ2ν définit le nombre de degrés de liberté. C’est le nom donné au nombre d’observations linéairement indépendantes qui apparaissent dans une somme de carrés. Autrement dit, c’est le nombre d’observations aléatoires indépendantes à qui l’on soustrait le nombre de contraintes imposées à ces observations. Le nombre ν de degrés de liberté est égal à – si les paramètres de la loi d’ajustement L sont donnés,

5.4. LOI ET VARIABLE DU χ2 (KHI-DEUX) DE PEARSON

69

En effet, aucun paramètre n’est à estimer puisque la loi d’ajustement est totalement spécifiée. Le χ2 est constitué de k écarts (ni − ei ). Les écarts sont reliés par la contrainte X X X X (ni − ei ) = (ni − N pi ) = ni − N pi = N − N = 0 En d’autres termes, lorsqu’on connaît la valeur de k − 1 écarts, on peut en déduire la valeur du dernier qui n’est donc pas “libre” de varier de manière aléatoire, – si la loi d’ajustement L comporte r paramètres inconnus, ν =k−r−1 On impose de ce fait autant de contraintes supplémentaires entre les observations, diminuant d’autant le nombre de degrés de liberté. Remarque 5.4.2 Le nombre d’observations par classes ne doit pas être faible, N pi doit être supérieur à 5, ∀i = 1, 2, . . . , k. Dans le cas contraire, on regroupe deux ou plusieurs classes adjacentes de façon à réaliser cette condition. On tient compte de ce regroupement pour le nombre de degrés de liberté. 6. Pour un risque de première espèce α, la région critique est définie pour k X (ni − N pi )2 i=1

N pi

≥ χ2ν,1−α

d’où la règle de décision : • χ2 observé < χ2ν,1−α , on décide H0 et X L. • χ2 observé ≥ χ2ν,1−α , on décide H1 et X ne suit pas la loi L. Exemple 5.4.2 Loi uniforme. Une statistique relative aux résultats du concours d’entrée à une grande école fait ressortir les répartitions des candidats et des admis selon la profession des parents. Profession des candidats

Nombre de candidats

Nombre d’admis

1 Fonctionnaires et assimilés ○

2244

180

2 Commerce, industrie ○

988

89

3 Professions libérales ○

575

48

4 Propriétaires rentiers ○

423

37

5 Propriétaires agricoles ○

287

13

6 Artisans, petits commerçants ○

210

18

7 Banque, assurance ○

209

17

Total

4936

402

Question : Tester l’hypothèse (risque α = 0, 05) selon laquelle la profession des parents n’a pas d’influence sur l’accès à cette grande école. Il s’agit du test d’ajustement d’une distribution théorique, on considère les hypothèses : • H0 : la profession des parents n’a pas d’influence sur l’accès à cette grande école, la proportion des 402 ' 0, 0814. admis est constante pour toutes les professions soit p = 4936 • H1 : la profession des parents influe sur l’accès à cette grande école.

70

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

i

Ni

ni effectif observé

Ni p effectif théorique

(ni − Ni p)2 Ni p

1

2244

180

2244 × 402 ' 182, 76 4936

0, 0416

2

988

89

988 × 402 ' 80, 47 4936

0, 9042

3

575

48

575 × 402 ' 46, 83 4936

0, 0293

4

423

37

423 × 402 ' 34, 45 4936

0, 1887

5

287

13

287 × 402 ' 23, 37 4936

4, 6050

6

210

18

210 × 402 ' 17, 10 4936

0, 0471

7

209

17

209 × 402 ' 17, 02 4936

'0

Total

4936

402

402

5, 8181

Le χ2 observé vaut 5, 8181. Le nombre de degrés de liberté est 7 − 1 = 6. La table de l’annexe B fournit χ26;0,95 = 12, 59 donc χ2 observé < χ26/0,95 . On choisit H0 , ce qui signifie que la profession des parents n’a pas d’influence sur l’accès à cette grande école. Exemple 5.4.3 Loi binomiale. Supposons qu’on ait recueilli 300 boîtes contenant chacune trois ampoules. Dans chaque boîte, on compte le nombre d’ampoules défectueuses. On obtient les résultats suivants : Nombre d’ampoules défectueuses xi

Nombre de boîtes observées ni

0

190

1

95

2

10

3

5

Total

300

Pour chaque ampoule testée, on peut observer deux états différents : l’ampoule est défectueuse ou non. Le nombre X d’ampoules défectueuses par boîte suit une loi binomiale de paramètres n = 3 et p. Dans la distribution observée, le nombre d’ampoules défectueuses est de 0 × 190 + 1 × 95 + 2 × 10 + 3 × 5 = 130 soit 130 ampoules défectueuses sur un total de 900 ampoules. La proportion d’ampoules défectueuses est 130 alors de ' 0, 144. Prenons p = 0, 15 et réalisons alors le test suivant : soit X le nombre d’ampoules 900 défectueuses par boîte • H0 : X

B(3; 0, 15).

• H1 : X ne suit pas cette loi binomiale. On détermine les probabilités théoriques :

5.4. LOI ET VARIABLE DU χ2 (KHI-DEUX) DE PEARSON

• p0 = p({X = 0/X

B}) = (0, 85)3 ' 0, 6141

• p1 = p({X = 1/X

B}) = C31 (0, 15)(0, 85)2 ' 0, 3251

• p2 = p({X = 2/X

B}) = C32 (0, 15)2 (0, 85) ' 0, 0574

• p3 = p({X = 3/X

B}) = (0, 15)3 ' 0, 0034

71

On a le tableau xi

effectif observé ni

pi

effectif théorique N pi

0

190

0, 6141

184, 23

1

95

0, 3251

97, 53

2

10

0, 0574

17, 22

3

5

0, 0034

1, 02

Total

N = 300

1

300

L’effectif théorique de la quatrième classe est faible : 1, 02 < 5. On effectue un regroupement de classes, les classes “2” et “3”. xi

ni

N pi

(ni − N pi )2 N pi

0

190

184, 23

0, 18071

1

95

97, 53

0, 06563

2 ou 3

15

18, 24

0, 57553

Total

300

300

0, 82187

Après le regroupement, le nombre de classes est 3, le nombre de degrés de liberté est 3 − 1 = 2. Au risque α = 0, 01 on a χ22;0,99 = 9, 21. Donc χ2 observé = 0, 82187 < χ22;0,99 . On ne rejette pas H0 au profit de H1 . On considère que le nombre d’ampoules défectueuses par boîte suit une loi binomiale de paramètres n = 3 et p = 0, 15 au risque α = 0, 01. Exemple 5.4.4 Loi normale. On suppose que le rendement X (quintaux par hectares d’une parcelle de blé) suit une loi normale N (m, σ). L’observation du rendement de 1000 parcelles a donné les résultats suivants : Rendement

[0; 10[

[10; 20[

[20; 30[

[30; 40[

[40; 50[

[50; 60[

[60; 70[

[70; 80[

[80; 90[

Nombre de parcelles

5

6

40

168

288

277

165

49

2

1. Déterminer la moyenne arithmétique et l’écart-type de la distribution observée. X ni xi • x=

• σ 02 =

i

N X i

= 49, 76 ni x2i − x2 = 164, 5424 donc σ 0 ' 12, 827.

72

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

2. Vérifier pour un test du χ2 avec un risque de 0, 05 si l’ajustement de la distribution observée à une loi normale N (n = 50, σ = 13) est acceptable. Les hypothèses du test du χ2 sont les suivantes : • H0 : X N (50, 13) • H1 : X ne suit pas N (50, 13) On désigne par [a0 ; a1 [, [a1 ; a2 [,. . . ,[a8 ; a9 [ les classes et par x1 , x2 ,. . . ,x9 les centres de ces classes. X − 50 Sous H0 , X N (50, 13) et Z = N (0, 1), donc pi = p({X ∈ [ai−1 ; ai [}) = Π(zi ) − Π(zi−1 ) 13 ai − 50 ai−1 − 50 avec zi = et zi−1 = . L’effectif théorique de la i-ème classe est 1000pi et 13 13 X (ni − N pi )2 χ2ν N pi i

(ni − N pi )2 N pi

N pi corrigé

ni corrigé

10, 4

11

0, 0346

51, 5

51, 5

40

2, 568

0, 1589

158, 9

158, 9

168

0, 5211

0, 5

0, 2791

279, 1

279, 1

288

0, 283

0, 7692

0, 7791

0, 2791

279, 1

279, 1

277

0, 0158

165

1, 5385

0, 9380

0, 1589

158, 9

158, 9

165

0, 234

[70; 80[

49

2, 3077

0, 9895

0, 0515

51, 5

51, 5

49

0, 1214

[80; 90[

2

3, 0769

0, 9990

0, 0095

9, 5

9, 5

2

5, 9211

Total

1000





1

1000

1000

1000

9, 7

Classe [xi−1 ; xi [

ni

zi

Π(zi )

pi

N pi

[0; 10[

5

−3, 0769

0, 001

0, 0009

0, 9

[10; 20[

6

−2, 3077

0, 0105

0, 0095

9, 5

[20; 30[

40

−1, 5385

0, 0620

0, 0515

[30; 40[

168

−0, 7692

0, 2209

[40; 50[

288

0

[50; 60[

277

[60; 70[

On effectue le regroupement des deux premières classes car N pi < 5. Le χ2 observé vaut 9, 7. Après le regroupement, il reste 8 classes, les deux paramètres de la loi normale sont donnés, le nombre de degrés de liberté est ν = (9 − 1) − 1 = 7. À l’aide de la table, on obtient χ27;0,95 = 14, 07. Ainsi, χ2 observé < χ27;0,95 . On choisit H0 , l’ajustement de la distribution observée à une loi normale N (50, 13) est acceptable. Exemple 5.4.5 Loi de Poisson. Souvent, lorsqu’on envisage une modèle pour un phénomène qu’on étudie, on ne spécifie pas complètement la loi qu’on considère. Supposons qu’on s’intéresse au nombre de voitures se présentant par minute à un poste de péage sur une autoroute. On peut se demander si cette variable aléatoire peut être modélisée par une loi de Poisson. On souhaite donc tester l’hypothèse fondamentale P(λ)

H0 : X

contre l’hypothèse alternative

H1 : X ne suit pas P(λ). On ne précise pas la valeur du paramètre λ. On peut toutefois l’estimer à partir des données disponibles mais dans ce cas, r = 1. Le nombre de degrés sera alors ν = k − r − 1 = k − 2. On effectue 200 comptages au péage. xi

0

1

2

3

4

5

6

7

8

≥9

Total

ni

6

15

40

42

37

30

10

12

8

0

200

73

5.5. LOI DE STUDENT-FISCHER

où xi est le nombre de voitures par minute lors de la i-ième l’observation et ni est l’effectif correspondant. Par exemple, x1 = 0 et n1 = 6 c’est-à-dire que lors de 6 observations, il y a 0 voiture. La moyenne arithmétique de cette distribution observée est X ni xi 727 i x= X = = 3, 635 ' 3, 5 200 ni i

On peut tester l’hypothèse

H0 : X

P(λ = 3, 5).

xi

ni

pi

N pi

N pi corrigé

ni corrigé

(ni − N pi )2 N pi

0

6

0, 0302

6, 04

6, 04

6

0, 00026

1

15

0, 1057

21, 14

21, 14

15

1, 78333

2

40

0, 1850

37

37

40

0, 24324

3

42

0, 2158

43, 16

43, 16

42

0, 03118

4

37

0, 1888

37, 76

37, 76

37

0, 01530

5

30

0, 1322

26, 44

26, 44

30

0, 47933

6

10

0.0771

15, 42

15, 42

10

1, 90508

7

12

0, 0385

7, 7

7, 7

12

2, 40130

8

8

0, 0169

3, 38

5, 34

8

1, 32502

≥9

0

0, 0098

1, 96

Total

200

1

200

200

200

8, 18404

On a pi = p({X = xi /X

P(3, 5)}) donc

• p0 = p({X = 0/X

P(3, 5)}) = e−3,5 ' 0, 0302 et

• p1 = p({X = 1/X

P(3, 5)}) = e−3,5 3, 5 ' 0, 1057.

On a effectué le regroupement des deux dernières classes car l’effectif théorique y est inférieur à 5. Après ce regroupement, le nombre de classes est de 9. Le nombre de degrés de liberté est 9 − 1 − 1 = 7. Au risque α = 0, 01, χ27;0,99 = 18, 48 donc χ2 observé = 8, 18404 < χ27;0,99 . On ne rejette pas l’hypothèse H0 et X

5.5 5.5.1

P(λ = 3, 5) au risque α = 0, 01.

Loi de Student-Fischer Définition

La loi de Student est une loi continue qui comme la loi du χ2 dépend d’un seul paramètre qu’on appellera également degré de liberté et qu’on note ν (ν ∈ N? ). La variable X distribuée selon cette loi qu’on note X tα prend toutes ses valeurs dans R. Si Y N (0, 1) et Z Y X = r suit une loi de Student à ν degrés de liberté. Z

χ2ν , Y et Z étant indépendantes, la variable

74

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

On dit qu’une variable aléatoire réelle à densité X a une loi de probabilité de Student à ν degrés de liberté (n entier > 0) si, et seulement si, sa densité de probabilité est donnée par la formule :  Γ ν+1 2 fν (x) =  ν+1 .  √ √ 2 ν x2 ν πΓ 2 1 + ν Dans cette formule, Γ est la fonction Gamma d’Euler définie, lorsque la partie réelle de x est positive, par : Z +∞ Γ(x) = eu ux−1 du. 0

La loi de Student à ν degrés de liberté est la loi de probabilité du quotient d’une variable normale centrée réduite par la racine carrée de la somme des carrés de ν variables normales centrées réduites indépendantes entre elles et indépendantes de la première variable. Pour ν = 1, la loi de Student s’appelle loi de Cauchy, ou loi de Lorentz. C’est la loi du rapport de deux variables normales centrées réduites indépendantes.

5.5.2

Les courbes

Figure 5.16 La courbe est unimodale, centrée, symétrique et plus plate que la courbe d’une loi normale. Lorsque le nombre de degrés de liberté augmente, la loi de Student tend vers la loi normale N (0, 1) (voir Figure 5.16).

5.5.3

Les moments

Soit X

tν , on a E(X) = 0 et V (X) =

ν pour ν > 2. ν−2

Remarque 5.5.1 – Lorsque l’espérance existe, elle est nulle, puisque la loi est symétrique autour de 0. – Lorsque ν = 1 ou ν = 2, la variance n’est pas déterminée. – Lorsque ν tend vers l’infini, la variance tend vers 1.

5.5.4

Les tables

Soit X que

tν . Il existe une table (voir annexe C1) qui fournit les valeurs tν,1−α pour ν et α donnés, telles

75

5.6. LOI DE FISCHER-SNEDECOR

Figure 5.17 Graphiquement, cette probabilité est donnée par la surface grisée de la Figure 5.17 : Exemple 5.5.1 • ν = 10, α = 0, 1 et X • ν = 20, α = 0, 05 et X

t10 donc p({X < 1, 372}) = 0, 9 et t10;0,9 = 1, 372. t20 donc p({X < 1, 725}) = 0, 95 et t20;0,95 = 1, 725.

Il existe une autre table (voir annexe C2) qui fournit pour ν et α donnés la valeur tν,α telle que p({−tν,α < X < tν,α }) = 1 − α. Graphiquement, cette probabilité est donnée par la surface grisée de la Figure 5.18 :

Figure 5.18 On remarque alors que p({X < −tν,α }) = p({X > tν,α }) =

1 − (1 − α) α = . 2 2

Exemple 5.5.2 ν = 12, α = 0, 4 et t12;0,4 = 0, 873 donc p({−0, 873 < X < 0, 873}) = 0, 6 et p({X < −0, 873}) = p({X > 0, 873}) = 0, 2.

5.6 5.6.1

Loi de Fischer-Snedecor Définition

1. La loi de Fischer-Snedecor est une loi continue dépendant de deux paramètres notés ν1 et ν2 , entiers naturels non nuls. La variable X distribuée selon cette loi prend toutes ses valeurs dans R+? ou dans R+ . Y ν Si Y χ2ν1 et Z χ2ν2 , Y et Z étant indépendantes, la variable X = 1 suit une loi de FischerZ ν2 Snedecor. On note

76

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

La loi F de Fischer-Snedecor à (ν1 , ν2 ) degrés de liberté est la loi de probabilité du rapport de deux variables de khi-deux indépendantes divisées par leurs nombres de degrés de liberté (ν1 pour le numérateur, ν2 pour le dénominateur). Pour ν1 = 1, la loi F de Fischer-Snedecor à (1,ν2 ) degrés de liberté est la loi de probabilité du carré d’une variable de Student à ν2 degrés de liberté. 2. La densité de probabilité est, par définition :   ν1 + ν2 ν1 Γ ν1 ν2 x 2 −1 2 ? 2 2     f(ν1 ,ν2 ) (x) = ν1 ν2 ν1 +ν2 pour x > 0, ν1 et ν2 ∈ N . ν1 ν2 (ν1 x + ν2 ) 2 Γ Γ 2 2 Dans cette formule, Γ est la fonction Gamma d’Euler définie, lorsque la partie réelle de x est positive, par : Z +∞ Γ(x) = eu ux−1 du. 0

La fonction f(ν1 ,ν2 ) est bien une densité de probabilité sur ]0; +∞[, car : – ses valeurs sont positives, – la fonction est intégrable et son intégrale est donnée par :  Z +∞ ν1 Z +∞ ν1 +ν2 ν1 ν2 Γ x 2 −1 2 2 2   f(ν1 ,ν2 ) (x)dx = ν1 ν2 ν1 +ν2 dx. Γ ν21 Γ ν22 0 0 (ν1 x + ν2 ) 2 ν1 Z +∞ x 2 −1 ν1 x n2 dt Pour calculer l’intégrale I = ⇒ dx = . De ν1 +ν2 dx, on pose t = ν1 x + ν2 n1 1 − t2 0 (ν1 x + ν2 ) 2 1 plus, ν1 x + ν2 = ν2 × ce qui implique que lorsque x = 0, t = 0 et lorsque x tend vers l’infini, t 1−t tend vers 1. Par conséquent,  ν1 −1   ν1 +ν2 Z 1 Z 1 ν ν 2 2 ν1 ν2 ν2 t 1−t ν2 dt − 21 − 22 −1 −1 2 2 I= ν t = ν (1 − t) dt. 1 2 ν1 1 − t ν2 ν1 (1 − t)2 0 0 Dans l’intégrale, on reconnaît la fonction Beta d’Euler définie, lorsque les parties réelles de x et de y sont positives, par : Z 1 Γ(x)Γ(y) B(x, y) = ux−1 (1 − u)y−1 du = Γ(x + y) 0 Z 1 ν ν  ν1 ν2 1 2 donc t 2 −1 (1 − t) 2 −1 dt = B , ce qui implique que 2 2 0    Z +∞ ν1 ν2 2 ν1 ν2 ν ν Γ ν1 +ν − 21 − 22 Γ 2 Γ 2 2 2 2  ν  = 1. f(ν1 ,ν2 ) (x)dx = ν1 ν2 ν2 2 Γ ν21 Γ ν22 1 Γ ν1 +ν 0 2 L’intégrale de f(ν1 ,ν2 ) est bien égale à 1, ce qui montre que f(ν1 ,ν2 ) est bien une densité de probabilité. 1 1 3. Si X F (ν1 , ν2 ) la variable F (ν2 , ν1 ) donc F (ν1 , ν2 , 1 − α) = . X F (ν2 , ν1 , α)

5.6.2

Les courbes

On a représenté ci-dessus (Figure 5.19) la loi F de Fischer-Snedecor pour diverses valeurs de ν1 et de ν2 .

5.6.3

Les moments

Soit X

F (ν1 , ν2 ).

– Pour ν2 > 2, l’espérance est définie par

77

5.7. EXERCICES

Figure 5.19

E(X) =

ν2 ν2 − 2

Remarque 5.6.1 Pour ν2 ≤ 2, l’espérance n’est pas déterminée. – Pour ν2 > 4, la variance est définie par V (X) =

2ν22 (ν1 + ν2 − 2) ν1 (ν2 − 2)2 (ν2 − 4)

Remarque 5.6.2 Pour ν2 ≤ 4, la variance n’est pas déterminée.

5.6.4

Les tables

Soit X F (ν1 , ν2 ). La table (voir annexe D) fournit, pour α = 0, 025, pour ν1 et ν2 donnés, les valeurs Fν1 ,ν2 ,1−α telles que p({X < Fν1 ,ν2 ,1−α }) = 1 − α. Cette table sert à la comparaison des variances de deux populations à partir de deux échantillons.

5.7

Exercices

 Exercice 57  Une entreprise de transport a un parc total de 150 camions. On désigne par X la variable

aléatoire qui à chaque camion choisi au hasard dans le parc, associe la distance qu’il a parcourue dans une journée (les distances sont mesurées en kilomètres). Un étude statistique permet d’admettre que cette variable aléatoire X suit une loi normale de moyenne 120 et d’écart-type 14. Déterminer à 10−4 près la probabilité qu’un camion parcourt un jour donné une distance comprise entre 110 et 130 kilomètres (utiliser éventuellement une interpolation affine).

 Exercice 58 

1. Statistique - Avant d’accepter un contrat de livraison de véhicules, une société d’équipements automobiles établit une statistique de production journalière sur 100 jours. Le nombre de véhicules équipés journellement se répartit comme suit : Production journalière de véhicules équipés 95 96 97 98 99 100

Nombre de jours 1 3 6 8 10 13

Production journalière de véhicules équipés 102 103 104 105 106 107

Nombre de jours 14 9 8 6 2 2

78

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

Déterminer la valeur moyenne de la production journalière et une valeur approchée à 10−2 près de l’écart-type de cette production. 2. Probabilités - La production exigée par le contrat est de 100 véhicules équipés au moins par jour, pendant 100 jours de travail consécutif. À chaque journée on associe le nombre de véhicules équipés que l’on suppose indépendant du nombre obtenu chacun des autres jours. On définit ainsi une variable aléatoire X. On admet que la variable aléatoire discrète X peut être approchée par la loi normale de paramètres m = 101 et σ = 2.59. On note Y une variable aléatoire suivant la loi N (101; 2, 59). Calculer la probabilité de l’événement “le contrat est rempli”, c’est-à-dire p({Y ≥ 99, 5}).  Exercice 59  On jette 10 fois de suite une pièce de monnaie bien équilibrée en notant chaque fois le

résultat, ce qui constitue une partie.

1. On note X la variable aléatoire qui à chaque partie associe le nombre de “face” obtenu. (a) Justifier que la loi de probabilité suivie par la variable X est une loi binomiale (on précisera les paramètres de cette loi). (b) Calculer la probabilité de l’événement E : “le nombre de ’face’ est compris entre 3 et 6 (bornes incluses)”. 2. On décide d’approcher la loi de variable aléatoire discrète X par la loi normale de paramètres m et σ. √ (a) Expliquer pourquoi on prend m = 5 et σ = 2, 5. √ (b) On considère une variable aléatoire Y suivant une la loi N (5; 2, 5). En utilisant cette approximation, calculer la probabilité de l’événement : “le nombre de ’face’ est compris entre 3 et 6 (bornes incluses)” c’est-à-dire p{(2, 5 ≤ Y ≤ 6, 5}).  Exercice 60  Une entreprise fabrique des imprimantes de modèle PRINT et constate que le nombre de

commandes journalières définit une variable aléatoire Y dont la loi peut être approchée par la loi normale de paramètres m = 80 et σ = 60. On désigne par Z la variable aléatoire qui, à chaque mois de 25 jours ouvrables, associe le nombre d’unités du modèle PRINT demandé. Il y a indépendance entre les commandes journalières. 1. Montrer que la loi de Z peut être approchée par la loi normale N (2000, 300). L’entreprise a en stock, au début du mois, 2300 unités. Quelle est la probabilité qu’elle ne puisse satisfaire à la demande ? 2. On veut que la probabilité qu’elle ne puisse satisfaire à la demande soit inférieure à 0, 05. Quel doit être le nombre minimal d’unités que l’entreprise doit stocker en début de mois ?

 Exercice 61  La variable aléatoire X suit une loi normale N (20, 5). Calculer

1. p({X ≤ 28}) 2. p({X ≥ 28}) 3. p({X ≥ 12}) 4. p({X ≤ 12}) 5. p({12 ≤ X ≤ 28})  Exercice 62  Pour mesurer l’impact d’un régime amaigrissant, un club a choisi au hasard un échantillon de

5 individus avant le régime, et un échantillon de 5 autres individus après. Les masses corporelles se présentent ainsi : Avant

84

92

72

91

84

79

5.7. EXERCICES

1. Déterminer un intervalle de confiance à 95% pour : (a) la masse corporelle moyenne avant le régime, (b) la masse corporelle moyenne après le régime, (c) la perte moyenne de masse corporelle durant le régime. 2. Tout compte fait, on a décidé qu’il aurait peut-être été plus adapté de peser les mêmes individus avant et après le régime. On a obtenu : Individu

1

2

3

4

5

Avant

84

92

72

91

84

Après

81

88

74

81

90

Sur la base de cet échantillon, déterminer un intervalle de confiance à 95% pour la perte moyenne de masse corporelle durant le régime. Conclusion ?  Exercice 63  Un laboratoire veut fabriquer des pilules se composant de deux substances A et B. Pour

chaque pilule de la fabrication, on considère les masses a et b respectivement des 2 substances A et B qui la constituent. On désigne par X et Y respectivement les variables aléatoires qui associent à chaque pilule la masse a et la masse b des substances de cette pilule. On suppose que ces variables sont indépendantes et suivent des lois normales de moyennes respectives mX = 8, 55 mg et mY = 5, 20 mg et de même écart-type σX = σY = 0, 05 mg. 1. Déterminer les probabilités p({8, 45 ≤ X ≤ 8, 70}) et p({5, 07 ≤ Y ≤ 5, 33}). 2. Les normes imposées pour la fabrication sont les suivantes : 8, 45 ≤ a ≤ 8, 70 et 5, 07 ≤ b ≤ 5, 33 (a) Calculer le pourcentage de pilules qui seront hors normes à la sortie de la chaîne de fabrication. (b) En déduire que le procédé de fabrication ne peut être retenu si on veut que le pourcentage de pilules défectueuses ne dépasse pas 3%. On modifie alors la fabrication de la substance B. La moyenne de Y ne change pas mais son écart-type est modifié. Trouver la valeur minimum de ce nouvel écart-type pour que le pourcentage de pièces défecteuses soit inférieur à 3%. 3. (a) Déterminer la moyenne et l’écart-type de la variable aléatoire S qui associe à chaque pilule sa masse totale, les variables X et Y gardant leurs caractéristiques de la question 1. (b) On admet que S est encore une variable aléatoire normale dont les paramètres sont ceux calculés précédemment. Calculer p({13, 6 ≤ S ≤ 13, 8}). 4. On assure le conditionnement des pilules par boîtes de 100 unités. Une boîte est constituée à partir d’un tirage au hasard dans un stock assez grand pour qu’on puisse estimer que les tirages successifs se font avec remises. On désigne par Z la variable aléatoire qui, à chaque boîte associe le nombre de pilules hors normes au sens de la question 2.(a). On pourra prendre pour probabilité p d’une pilule hors-norme p = 0, 01. (a) Dans ces conditions, montrer que Z est une variable binomiale dont on précisera les paramètres. (b) Dire pourquoi on peut approcher cette variable par une loi de Poisson. En utilisant cette loi, donner une valeur approximative de p({Z ≥ 5}). 5. On désigne par U la variable aléatoire qui à chaque boîte associe le nombre de pilules dont la masse totale est supérieure à 13, 8. Là aussi, on peut supposer que U est une variable binomiale de paramètres n et p. (a) Calculer p. (b) Dire pourquoi on peut approcher U par une variable normale. À l’aide de cette approximation, donner une valeur approchée de p({U ∈ {70, 71, . . . , 85}}).

80

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

ANNEXE A - Fonction de répartition de la loi normale centrée réduite N (0, 1). Cette table donne Π(x) = p({X ≤ x}) pour X

N (0, 1) :

x

0, 00

0, 01

0, 02

0, 03

0, 04

0, 05

0, 06

0, 07

0, 08

0, 09

0, 0 0, 1 0, 2 0, 3 0, 4

0, 5000 0, 5398 0, 5793 0, 6179 0, 6554

0, 5040 0, 5438 0, 5832 0, 6217 0, 6591

0, 5080 0, 5478 0, 5871 0, 6255 0, 6628

0, 5120 0, 5517 0, 5910 0, 6293 0, 6664

0, 5160 0, 5557 0, 5948 0, 6331 0, 6700

0, 5199 0, 5596 0, 5987 0, 6368 0, 6736

0, 5239 0, 5636 0, 6026 0, 6406 0, 6772

0, 5279 0, 5675 0, 6064 0, 6443 0, 6808

0, 5319 0, 5714 0, 6103 0, 6480 0, 6844

0, 5359 0, 5753 0, 6141 0, 6517 0, 6879

0, 5 0, 6 0, 7 0, 8 0, 9

0, 6915 0, 7257 0, 7580 0, 7881 0, 8159

0, 6950 0, 7291 0, 7611 0, 7910 0, 8186

0, 6985 0, 7324 0, 7642 0, 7939 0, 8212

0, 7019 0, 7357 0, 7673 0, 7967 0, 8238

0, 7054 0, 7389 0, 7704 0, 7995 0, 8264

0, 7088 0, 7422 0, 7734 0, 8023 0, 8289

0, 7123 0, 7454 0, 7764 0, 8051 0, 8315

0, 7157 0, 7486 0, 7794 0, 8078 0, 8340

0, 7190 0, 7517 0, 7823 0, 8106 0, 8365

0, 7224 0, 7549 0, 7852 0, 8133 0, 8389

1, 0 1, 1 1, 2 1, 3 1, 4

0, 8413 0, 8643 0, 8849 0, 9032 0, 9192

0, 8438 0, 8665 0, 8869 0, 9049 0, 9207

0, 8461 0, 8686 0, 8888 0, 9066 0, 9222

0, 8485 0, 8708 0, 8907 0, 9082 0, 9236

0, 8508 0, 8729 0, 8925 0, 9099 0, 9251

0, 8531 0, 8749 0, 8944 0, 9115 0, 9265

0, 8554 0, 8770 0, 8962 0, 9131 0, 9279

0, 8577 0, 8790 0, 8980 0, 9147 0, 9292

0, 8599 0, 8810 0, 8997 0, 9162 0, 9306

0, 8621 0, 8830 0, 9015 0, 9177 0, 9319

1, 5 1, 6 1, 7 1, 8 1, 9

0, 9332 0, 9452 0, 9554 0, 9641 0, 9713

0, 9345 0, 9463 0, 9564 0, 9649 0, 9719

0, 9357 0, 9474 0, 9573 0, 9656 0, 9726

0, 9370 0, 9484 0, 9582 0, 9664 0, 9732

0, 9382 0, 9495 0, 9591 0, 9671 0, 9738

0, 9394 0, 9505 0, 9599 0, 9678 0, 9744

0, 9406 0, 9515 0, 9608 0, 9686 0, 9750

0, 9418 0, 9525 0, 9616 0, 9693 0, 9756

0, 9429 0, 9535 0, 9625 0, 9699 0, 9761

0, 9441 0, 9545 0, 9633 0, 9706 0, 9767

2, 0 2, 1 2, 2 2, 3 2, 4

0, 9772 0, 9821 0, 9861 0, 9893 0, 9918

0, 9778 0, 9826 0, 9864 0, 9896 0, 9920

0, 9783 0, 9830 0, 9868 0, 9898 0, 9922

0, 9788 0, 9834 0, 9871 0, 9901 0, 9925

0, 9793 0, 9838 0, 9875 0, 9904 0, 9927

0, 9798 0, 9842 0, 9878 0, 9906 0, 9929

0, 9803 0, 9846 0, 9881 0, 9909 0, 9931

0, 9808 0, 9850 0, 9884 0, 9911 0, 9932

0, 9812 0, 9854 0, 9887 0, 9913 0, 9934

0, 9817 0, 9857 0, 9890 0, 9916 0, 9936

2, 5 2, 6 2, 7 2, 8 2, 9

0, 9938 0, 9953 0, 9965 0, 9974 0, 9981

0, 9940 0, 9955 0, 9966 0, 9975 0, 9982

0, 9941 0, 9956 0, 9967 0, 9976 0, 9982

0, 9943 0, 9957 0, 9968 0, 9977 0, 9983

0, 9945 0, 9959 0, 9969 0, 9977 0, 9984

0, 9946 0, 9960 0, 9970 0, 9978 0, 9984

0, 9948 0, 9961 0, 9971 0, 9979 0, 9985

0, 9949 0, 9962 0, 9972 0, 9979 0, 9985

0, 9951 0, 9963 0, 9973 0, 9980 0, 9986

0, 9952 0, 9964 0, 9974 0, 9981 0, 9986

3, 0 3, 1 3, 2 3, 3 3, 4

0, 9987 0, 9990 0, 9993 0, 9995 0, 9997

0, 9987 0, 9991 0, 9993 0, 9995 0, 9997

0, 9987 0, 9991 0, 9994 0, 9995 0, 9997

0, 9988 0, 9991 0, 9994 0, 9996 0, 9997

0, 9988 0, 9992 0, 9994 0, 9996 0, 9997

0, 9989 0, 9992 0, 9994 0, 9996 0, 9997

0, 9989 0, 9992 0, 9994 0, 9996 0, 9997

0, 9989 0, 9992 0, 9995 0, 9996 0, 9997

0, 9990 0, 9993 0, 9995 0, 9996 0, 9997

0, 9990 0, 9993 0, 9995 0, 9997 0, 9998

81

5.7. EXERCICES

ANNEXE B - Probabilités individuelles de la loi du χ2ν , Cette table donne les valeurs (quantiles) χ2ν,1−α telles que p({χ2ν < χ2ν,1−α }) = 1 − α : PP PP 1 − α PP ν P P

0, 005

0, 010

0, 025

0, 050

0, 100

0, 900

0, 950

0, 975

0, 990

0, 995

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 80 90 100

0, 0000393 0, 0100 0, 072 0, 207 0, 412 0, 676 0, 989 1, 34 1, 73 2, 16 2, 60 3, 07 3, 57 4, 07 4, 60 5, 14 5, 70 6, 26 6, 84 7, 43 8, 03 8, 64 9, 26 9, 89 10, 52 11, 16 11, 81 12, 46 13, 12 13, 79 20, 71 27, 99 35, 53 43, 28 51, 17 59, 20 67, 33

0, 000157 0, 0201 0, 115 0, 297 0, 554 0, 872 1, 24 1, 65 2, 09 2, 56 3, 05 3, 57 4, 11 4, 66 5, 23 5, 81 6, 41 7, 01 7, 63 8, 26 8, 90 9, 54 10, 20 10, 86 11, 52 12, 20 12, 88 13, 56 14, 26 14, 95 22, 16 29, 71 37, 48 45, 44 53, 54 61, 75 70, 06

0, 000982 0, 0506 0, 216 0, 484 0, 831 1, 24 1, 69 2, 18 2, 70 3, 25 3, 82 4, 40 5, 01 5, 63 6, 26 6, 91 7, 56 8, 23 8, 91 9, 59 10, 28 10, 98 11, 69 12, 40 13, 12 13, 84 14, 57 15, 31 16, 05 16, 79 24, 43 32, 36 40, 48 48, 76 57, 15 65, 65 74, 22

0, 00393 0, 103 0, 352 0, 711 1, 145 1, 64 2, 17 2, 73 3, 33 3, 94 4, 57 5, 23 5, 89 6, 57 7, 26 7, 96 8, 67 9, 39 10, 12 10, 85 11, 59 12, 34 13, 09 13, 85 14, 61 15, 38 16, 15 16, 93 17, 71 18, 49 26, 51 34, 76 43, 19 51, 74 60, 39 69, 13 77, 93

0, 0158 0, 211 0, 584 1, 064 1, 61 2, 20 2, 83 3, 49 4, 17 4, 87 5, 58 6, 30 7, 04 7, 79 8, 55 9, 31 10, 09 10, 86 11, 65 12, 44 13, 24 14, 04 14, 85 15, 66 16, 47 17, 29 18, 11 18, 94 19, 77 20, 60 29, 05 37, 69 46, 46 55, 33 64, 28 73, 29 82, 36

2, 71 4, 61 6, 25 7, 78 9, 24 10, 64 12, 02 13, 36 14, 68 15, 99 17, 28 18, 55 19, 81 21, 06 22, 31 23, 54 24, 77 25, 99 27, 20 28, 41 29, 62 30, 81 32, 01 33, 20 34, 38 35, 56 36, 74 37, 92 39, 09 40, 26 51, 81 63, 17 74, 40 85, 53 96, 58 107, 6 118, 5

3, 84 5, 99 7, 81 9, 49 11, 07 12, 59 14, 07 15, 51 16, 92 18, 31 19, 68 21, 03 22, 36 23, 68 25, 00 26, 30 27, 59 28, 87 30, 14 31, 41 32, 67 33, 92 35, 17 36, 42 37, 65 38, 89 40, 11 41, 34 42, 56 43, 77 55, 76 67, 50 79, 08 90, 53 101, 9 113, 1 124, 3

5, 02 7, 38 9, 35 11, 14 12, 83 14, 45 16, 01 17, 53 19, 02 20, 48 21, 92 23, 34 24, 74 26, 12 27, 49 28, 85 30, 19 31, 53 32, 85 34, 17 35, 48 36, 78 38, 08 39, 36 40, 65 41, 92 43, 19 44, 46 45, 72 46, 98 59, 34 71, 42 83, 30 95, 02 106, 6 118, 1 129, 6

6, 63 9, 21 11, 34 13, 28 15, 09 16, 81 18, 48 20, 09 21, 67 23, 21 24, 73 26, 22 27, 69 29, 14 30, 58 32, 00 33, 41 34, 81 36, 19 37, 57 38, 93 40, 29 41, 64 42, 98 44, 31 45, 64 46, 96 48, 28 49, 59 50, 89 63, 69 76, 15 88, 38 100, 4 112, 3 124, 1 135, 8

7, 88 10, 60 12, 84 14, 86 16, 75 18, 55 20, 28 21, 96 23, 59 25, 19 26, 76 28, 30 29, 82 31, 32 32, 80 34, 27 35, 72 37, 16 38, 58 40, 00 41, 40 42, 80 44, 18 45, 56 46, 93 48, 29 49, 64 50, 99 52, 34 53, 67 66, 77 79, 49 91, 95 104, 2 116, 3 128, 3 140, 2

82

CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

ANNEXE C1 - Probabilités individuelles et cumulées de la loi de Student-Fischer tν,α , Cette table donne les valeurs (quantiles) tν,1−α telles que p({−tν < tν,1−α }) = 1 − α : PP ν

PP 1 − α 0, 55 PP P P 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 80 120 ∞

0, 158 0, 142 0, 137 0, 134 0, 132 0, 131 0, 130 0, 130 0, 129 0, 129 0, 129 0, 128 0, 128 0, 128 0, 128 0, 128 0, 128 0, 127 0, 127 0, 127 0, 127 0, 127 0, 127 0, 127 0, 127 0, 127 0, 127 0, 127 0, 127 0, 127 0, 126 0, 126 0, 126 0, 126

0, 60

0, 65

0, 70

0, 75

0, 80

0, 85

0, 90

0, 95

0, 975

0, 99

0, 995

0, 9995

0, 325 0, 289 0, 277 0, 271 0, 267 0, 265 0, 263 0, 262 0, 261 0, 260 0, 260 0, 259 0, 259 0, 258 0, 258 0, 258 0, 257 0, 257 0, 257 0, 257 0, 257 0, 256 0, 256 0, 256 0, 256 0, 256 0, 256 0, 256 0, 256 0, 256 0, 255 0, 254 0, 254 0, 253

0, 510 0, 445 0, 424 0, 414 0, 408 0, 404 0, 402 0, 399 0, 398 0, 397 0, 396 0, 395 0, 394 0, 393 0, 393 0, 392 0, 392 0, 392 0, 391 0, 391 0, 391 0, 390 0, 390 0, 390 0, 390 0, 390 0, 389 0, 389 0, 389 0, 389 0, 388 0, 387 0, 386 0, 385

0, 727 0, 617 0, 584 0, 569 0, 559 0, 553 0, 549 0, 546 0, 543 0, 542 0, 540 0, 539 0, 538 0, 537 0, 536 0, 535 0, 534 0, 534 0, 533 0, 533 0, 532 0, 532 0, 532 0, 531 0, 531 0, 531 0, 531 0, 530 0, 530 0, 530 0, 529 0, 527 0, 526 0, 524

1, 000 0, 816 0, 765 0, 741 0, 727 0, 718 0, 711 0, 706 0, 703 0, 700 0, 697 0, 695 0, 694 0, 692 0, 691 0, 690 0, 689 0, 688 0, 688 0, 687 0, 686 0, 686 0, 685 0, 685 0, 684 0, 684 0, 684 0, 683 0, 683 0, 683 0, 681 0, 679 0, 677 0, 674

1, 376 1, 061 0, 978 0, 941 0, 920 0, 906 0, 896 0, 889 0, 883 0, 879 0, 876 0, 873 0, 870 0, 868 0, 866 0, 865 0, 863 0, 862 0, 861 0, 860 0, 859 0, 858 0, 858 0, 857 0, 856 0, 856 0, 855 0, 855 0, 854 0, 854 0, 851 0, 848 0, 845 0, 842

1, 963 1, 386 1, 250 1, 190 1, 156 1, 134 1, 119 1, 108 1, 100 1, 093 1, 088 1, 083 1, 079 1, 076 1, 074 1, 071 1, 069 1, 067 1, 066 1, 064 1, 063 1, 061 1, 060 1, 059 1, 058 1, 058 1, 057 1, 056 1, 055 1, 055 1, 050 1, 046 1, 041 1, 036

3, 078 1, 886 1, 638 1, 533 1, 476 1, 440 1, 415 1, 397 1, 383 1, 372 1, 363 1, 356 1, 350 1, 345 1, 341 1, 337 1, 333 1, 330 1, 328 1, 325 1, 323 1, 321 1, 319 1, 318 1, 316 1, 315 1, 314 1, 313 1, 311 1, 310 1, 303 1, 296 1, 289 1, 282

6, 314 2, 920 2, 353 2, 132 2, 015 1, 943 1, 895 1, 860 1, 833 1, 812 1, 796 1, 782 1, 771 1, 761 1, 753 1, 746 1, 740 1, 734 1, 729 1, 725 1, 721 1, 717 1, 714 1, 711 1, 708 1, 706 1, 703 1, 701 1, 699 1, 697 1, 684 1, 671 1, 658 1, 645

12, 706 4, 303 3, 182 2, 776 2, 571 2, 447 2, 365 2, 306 2, 262 2, 228 2, 201 2, 179 2, 160 2, 145 2, 131 2, 120 2, 110 2, 101 2, 093 2, 086 2, 080 2, 074 2, 069 2, 064 2, 060 2, 056 2, 052 2, 048 2, 045 2, 042 2, 021 2, 000 1, 980 1, 960

31, 821 6, 965 4, 541 3, 747 3, 365 3, 143 2, 998 2, 896 2, 821 2, 764 2, 718 2, 681 2, 650 2, 624 2, 602 2, 583 2, 567 2, 552 2, 539 2, 528 2, 518 2, 508 2, 500 2, 492 2, 485 2, 479 2, 473 2, 467 2, 462 2, 457 2, 423 2, 390 2, 358 2, 326

63, 657 9, 925 5, 841 4, 604 4, 032 3, 707 3, 499 3, 355 3, 250 3, 169 3, 106 3, 055 3, 012 2, 977 2, 947 2, 921 2, 898 2, 878 2, 861 2, 845 2, 831 2, 819 2, 807 2, 797 2, 787 2, 779 2, 771 2, 763 2, 756 2, 750 2, 704 2, 660 2, 617 2, 576

635, 619 31, 598 12, 924 8, 610 6, 869 5, 959 5, 408 5, 041 4, 781 4, 587 4, 437 4, 318 4, 221 4, 150 4, 073 4, 015 3, 965 3, 922 3, 883 3, 850 3, 819 3, 792 3, 767 3, 745 3, 725 3, 707 3, 690 3, 674 3, 659 3, 648 3, 551 3, 460 3, 373 3, 291

83

5.7. EXERCICES

ANNEXE C2 - Probabilités individuelles et cumulées de la loi de Student-Fischer tν,α . Cette table donne les valeurs tν,α telles que p({tν,α < tν < +tν,α }) = 1 − α : HH α 0, 90 HH ν H 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 80 120 ∞

0, 158 0, 142 0, 137 0, 134 0, 132 0, 131 0, 130 0, 130 0, 129 0, 129 0, 129 0, 128 0, 128 0, 128 0, 128 0, 128 0, 128 0, l27 0, l27 0, l27 0, l27 0, l27 0, l27 0, l27 0, l27 0, l27 0, l27 0, l27 0, l27 0, l27 0, l26 0, l26 0, l26 0, l26

0, 80

0, 70

0, 60

0, 50

0, 40

0, 30

0, 20

0, 10

0, 05

0, 02

0, 01

0, 001

0, 325 0, 289 0, 277 0, 271 0, 267 0, 265 0, 263 0, 262 0, 261 0, 260 0, 260 0, 259 0, 259 0, 258 0, 258 0, 258 0, 257 0, 257 0, 257 0, 257 0, 257 0, 256 0, 256 0, 256 0, 256 0, 256 0, 256 0, 256 0, 256 0, 256 0, 255 0, 254 0, 254 0, 253

0, 510 0, 445 0, 424 0, 414 0, 408 0, 404 0, 402 0, 399 0, 398 0, 397 0, 396 0, 395 0, 394 0, 393 0, 393 0, 392 0, 392 0, 392 0, 391 0, 391 0, 391 0, 390 0, 390 0, 390 0, 390 0, 390 0, 389 0, 389 0, 389 0, 389 0, 388 0, 387 0, 386 0, 385

0, 727 0, 617 0, 584 0, 569 0, 559 0, 553 0, 549 0, 546 0, 543 0, 542 0, 540 0, 539 0, 538 0, 537 0, 536 0, 535 0, 534 0, 534 0, 533 0, 533 0, 532 0, 532 0, 532 0, 531 0, 531 0, 531 0, 531 0, 530 0, 530 0, 530 0, 529 0, 527 0, 526 0, 524

1, 000 0, 816 0, 765 0, 741 0, 727 0, 718 0, 711 0, 706 0, 703 0, 700 0, 697 0, 695 0, 694 0, 692 0, 691 0, 690 0, 689 0, 688 0, 688 0, 687 0, 686 0, 686 0, 685 0, 685 0, 684 0, 684 0, 684 0, 683 0, 683 0, 683 0, 681 0, 679 0, 677 0, 674

1, 376 1, 061 0, 978 0, 941 0, 920 0, 906 0, 896 0, 889 0, 883 0, 879 0, 876 0, 873 0, 870 0, 868 0, 866 0, 865 0, 863 0, 862 0, 861 0, 860 0, 859 0, 858 0, 858 0, 857 0, 856 0, 856 0, 855 0, 855 0, 854 0, 854 0, 851 0, 848 0, 845 0, 842

1, 963 1, 386 1, 250 1, 190 1, 156 1, 134 1, 119 1, 108 1, 100 1, 093 1, 088 1, 083 1, 079 1, 076 1, 074 1, 071 1, 069 1, 067 1, 066 1, 064 1, 063 1, 061 1, 060 1, 059 1, 058 1, 058 1, 057 1, 056 1, 055 1, 055 1, 050 1, 046 1, 041 1, 036

3, 078 1, 886 1, 638 1, 533 1, 476 1, 440 1, 415 1, 387 1, 383 1, 372 1, 363 1, 356 1, 350 1, 345 1, 341 1, 337 1, 333 1, 330 1, 328 1, 325 1, 323 1, 321 1, 319 1, 318 1, 316 1, 315 1, 314 1, 313 1, 311 1, 310 1, 303 1, 296 1, 289 1, 282

6, 314 2, 920 2, 353 2, 132 2, 015 1, 943 1, 895 1, 860 1, 833 1, 812 1, 796 1, 782 1, 771 1, 761 1, 753 1, 745 1, 740 1, 734 1, 729 1, 725 1, 721 1, 717 1, 714 1, 711 1, 708 1, 706 1, 703 1, 701 1, 699 1, 697 1, 684 1, 671 1, 658 1, 645

12, 706 4, 303 3, 182 2, 776 2, 571 2, 447 2, 365 2, 306 2, 262 2, 228 2, 201 2, 179 2, 160 2, 145 2, 131 2, 120 2, 110 2, 101 2, 093 2, 086 2, 080 2, 074 2, 069 2, 064 2, 060 2, 056 2, 052 2, 048 2, 045 2, 042 2, 021 2, 000 1, 980 1, 940

31, 821 6, 965 4, 541 3, 747 3, 365 3, 143 2, 998 2, 896 2, 821 2, 764 2, 718 2, 681 2, 650 2, 624 2, 602 2, 583 2, 567 2, 552 2, 539 2, 528 2, 518 2, 508 2, 500 2, 492 2, 485 2, 479 2, 473 2, 467 2, 462 2, 457 2, 423 2, 390 2, 358 2, 326

63, 657 9, 925 5, 841 4, 604 4, 032 3, 707 3, 499 3, 355 3, 250 3, 169 3, 106 3, 055 3, 012 2, 977 2, 947 2, 921 2, 898 2, 878 2, 861 2, 845 2, 831 2, 819 2, 807 2, 797 2, 787 2, 779 2, 771 2, 763 2, 756 2, 750 2, 704 2, 660 2, 617 2, 576

636, 619 31, 598 12, 929 8, 610 6, 869 5, 959 5, 408 5, 041 4, 781 4, 587 4, 437 4, 318 4, 221 4, 140 4, 073 4, 015 3, 965 3, 922 3, 883 3, 850 3, 819 3, 792 3, 767 3, 745 3, 725 3, 707 3, 690 3, 674 3, 649 3, 656 3, 551 3, 460 3, 373 3, 291

1

647,8 38,51 17,44 12,22 10,01 8,81 8,07 7,57 7,21 6,94 6,72 6,55 6,41 6,30 6,20 6,12 6,04 5,98 5,90 5,87 5,83 5,79 5,75 5,72 5,69 5,66 5,63 5,61 5,59 5,57 5,42 5,29 5,15 5,02

PP P P ν1 ν2 PP

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 ∞

799,5 39,00 16,04 10,65 8,43 7,26 6,54 6,06 5,71 5,46 5,26 5,10 4,97 4,86 4,77 4,69 4,62 4,56 4,51 4,46 4,42 4,38 4,35 4,32 4,29 4,27 4,24 4,22 4,20 4,18 4,05 3,93 3,80 3,69

2

864,2 39,17 15,44 9,98 7,76 6,60 5,89 5,42 5,08 4,83 4,63 4,47 4,35 4,24 4,15 4,08 4,01 3,95 3,90 3,86 3,82 3,78 3,75 3,72 3,69 3,67 3,65 3,63 3,61 3,59 3,46 3,34 3,23 3,12

3

899,6 39,25 15,10 9,60 7,39 6,23 5,52 5,05 4,72 4,47 4,28 4,12 4,00 3,89 3,80 3,73 3,66 3,61 3,56 3,51 3,48 3,44 3,41 3,38 3,35 3,33 3,31 3,29 3,27 3,25 3,13 3,01 2,89 2,79

4 921,8 39,30 14,88 9,36 7,15 5,99 5,29 4,82 4,48 4,24 4,04 3,89 3,77 3,66 3,58 3,50 3,44 3,38 3,33 3,29 3,25 3,22 3,18 3,15 3,13 3,10 3,08 3,06 3,04 3,03 2,90 2,79 2,67 2,57

5 937,1 39,33 14,73 9,20 6,98 5,82 5,12 4,65 4,32 4,07 3,88 3,73 3,60 3,50 3,41 3,34 3,28 3,22 3,17 3,13 3,09 3,05 3,02 2,99 2,97 2,94 2,92 2,90 2,88 2,87 2,74 2,63 2,52 2,41

6 948,2 39,36 14,62 9,07 6,85 5,70 4,99 4,53 4,20 3,95 3,76 3,61 3,48 3,38 3,29 3,22 3,16 3,10 3,05 3,01 2,97 2,93 2,90 2,87 2,85 2,82 2,80 2,78 2,76 2,75 2,62 2,51 2,39 2,29

7 956,7 39,37 14,54 8,98 6,76 5,60 4,90 4,43 4,10 3,85 3,66 3,51 3,39 3,29 3,20 3,12 3,06 3,01 2,96 2,91 2,87 2,84 2,81 2,78 2,75 2,73 2,71 2,69 2,67 2,65 2,53 2,41 2,30 2,19

8 963,3 39,39 14,47 8,90 6,68 5,52 4,82 4,36 4,03 3,78 3,59 3,44 3,31 3,21 3,12 3,05 2,98 2,93 2,88 2,84 2,80 2,76 2,73 2,70 2,68 2,65 2,63 2,61 2,59 2,57 2,45 2,33 2,22 2,11

9 968,6 39,40 14,42 8,84 6,62 5,46 4,76 4,30 3,96 3,72 3,53 3,37 3,25 3,15 3,06 2,99 2,92 2,87 2,82 2,77 2,73 2,70 2,67 2,64 2,61 2,59 2,57 2,55 2,53 2,51 2,39 2,27 2,16 2,05

10 976,7 39,41 14,34 8,75 6,52 5,37 4,67 4,20 3,87 3,62 3,43 3,28 3,15 3,05 2,96 2,89 2,82 2,77 2,72 2,68 2,64 2,60 2,57 2,54 2,51 2,49 2,47 2,45 2,43 2,41 2,29 2,17 2,05 1,94

12 984,9 39,43 14,25 8,66 6,43 5,27 4,57 4,10 3,77 3,52 3,33 3,18 3,05 2,95 2,86 2,79 2,72 2,67 2,62 2,57 2,53 2,50 2,47 2,44 2,41 2,39 2,36 2,34 2,32 2,31 2,18 2,06 1,94 1,83

15 993,1 39,45 14,17 8,56 6,33 5,17 4,47 4,00 3,67 3,42 3,23 3,07 2,95 2,84 2,76 2,68 2,62 2,56 2,51 2,46 2,42 2,39 2,36 2,33 2,30 2,28 2,25 2,23 2,21 2,20 2,07 1,94 1,82 1,71

20 997,2 39,46 14,12 8,51 6,28 5,12 4,42 3,95 3,61 3,37 3,17 3,02 2,89 2,79 2,70 2,63 2,56 2,50 2,45 2,41 2,37 2,33 2,30 2,27 2,24 2,22 2,19 2,17 2,15 2,14 2,01 1,88 1,76 1,64

24 1001 39,46 14,08 8,46 6,23 5,07 4,36 3,89 3,56 3,31 3,12 2,96 2,84 2,73 2,64 2,57 2,50 2,44 2,39 2,35 2,31 2,27 2,24 2,21 2,18 2,16 2,13 2,11 2,09 2,07 1,94 1,82 1,69 1,57

30 1006 39,47 14,04 8,41 6,18 5,01 4,31 3,84 3,51 3,26 3,06 2,91 2,78 2,67 2,59 2,51 2,44 2,38 2,33 2,29 2,25 2,21 2,18 2,15 2,12 2,09 2,07 2,05 2,03 2,01 1,88 1,74 1,61 1,48

40 1010 39,48 13,99 8,36 6,12 4,96 4,25 3,78 3,45 3,20 3,00 2,85 2,72 2,61 2,52 2,45 2,38 2,32 2,27 2,22 2,18 2,14 2,11 2,08 2,05 2,03 2,00 1,98 1,96 1,94 1,80 1,67 1,53 1,39

60 1014 39,49 13,95 8,31 6,07 4,90 4,20 3,73 3,39 3,14 2,94 2,79 2,66 2,55 2,46 2,38 2,32 2,26 2,20 2,16 2,11 2,08 2,04 2,01 1,98 1,95 1,93 1,91 1,89 1,87 1,72 1,58 1,43 1,27

120 1018 39,50 13,90 8,26 6,02 4,85 4,14 3,67 3,33 3,08 2,88 2,72 2,60 2,49 2,40 2,32 2,25 2,19 2,13 2,09 2,04 2,00 1,97 1,94 1,91 1,88 1,85 1,83 1,81 1,79 1,64 1,48 1,31 1,00



84 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

ANNEXE D - la loi de Fischer-Snedecor, Cette table donne, pour α = 0, 025, pour ν1 et ν2 donnés, les valeurs Fν1 ,ν2 ,1−α telles que p({X < Fν1 ,ν2 ,1−α }) = 1 − α,

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF