Théorie des probabilités

January 16, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Théorie des probabilités...

Description

Théorie des probabilités • Un phénomène aléatoire est un phénomène qui ne donne pas toujours le même résultat (exemples: loterie, rendement des actions) • Un événement aléatoire est un phénomène dont la fréquence relative de réalisation approche une limite stable lorsque n∞ • La probabilité de l’événement est cette valeur limite (ex. pile ou face: p=0.5)

FREQUENCE DES TIRAGES DU SWISSLOTTO FREQUENCE DES TIRAGES DU SWISSLOTTO 1/1986-68/2007 7/45=0.1555…

FREQUENCES DES TIRAGES DU SWISSLOTTO 1/1986-68/2007 7/45=0.1555…

FREQUENCE DU NUMERO 4 0.20

FREQ.

fréquence théorique

0.15

fréquence empirique 0.10 0

500

1000

tirages

1500

(‘000)

Théorie des probabilités • Les événements: • Événement certain = espace d’échantillonnage (description de tous les résultats possibles): S • Soit un événement E. Son complément est le cas ou E n’arrive pas • L’intersection de deux événements E et F est le cas où les deux arrivent en même temps • La réunion des deux événements E et F est le cas où E ou F ou les deux arrivent

Description des événements • Le sous-événement: E est un sous-événement de F si lorsque E arrive, F arrive aussi • Deux événements sont mutuellement exclusifs s’ils ne peuvent pas arriver en même temps • Un événement est impossible s’il ne peut pas se produire • Un événement est certain s’il arrive toujours

E et son complément

S

• Diagramme de Venn

E

E

L’intersection • Les deux événement arrivent en même temps E∩F

E

F E∩F

La réunion • E ou F ou les deux arrivent

E

F E∪F

Le sous-événement • Si E arrive, F arrive aussi:

E

E⊂F

E F

Evénements mutuellement exclusifs • Ne peuvent pas arriver en même temps:

E∩F =O

EE

F

Théorie axiomatique • • • •

Axiomes: 1) P(E) ≥ 0 2) P(S)=1 3) P(E U F)= P(E) + P(F) si E et F sont deux événements mutuellement exclusifs • Théorème de l’addition des probabilités: • P(E U F) = P(E)+ P(F) – P(E ∩ F)

E

F

F ∩E

F = (F ∩ E) ∪ (F ∩ E )

P( F ) = P( F ∩ E ) + P( F ∩ E ) P( F ∩ E ) = P( F ) − P( F ∩ E )

E ∪ F = E ∪ (F ∩ E) P( E ∪ F ) = P( E ) + P( F ∩ E )

P( E ∪ F ) = P( E ) + P( F ) − P( E ∩ F )

Exemple • Phénomène aléatoire: on jette un dé et on s’intéresse au chiffre qui sort. • S={1,2,3,4,5,6} ; E={1,2,3} ; F={2,4,6} • Le complément de E est E={4,5,6} • E est un sous-événement de S: E ⊂ S • Intersection: E ∩ F = {2} • Réunion: E ∪ F = {1,2,3,4,6} • P(S)=P({1})+P{2}+ . . .+ P{6}=1 P{i}=1/6

P( E ∪ F ) = P( E ) + P( F ) − P( E ∩ F ) 3 3 1 5 P( E ∪ F ) = + − = 6 6 6 6

Exemple • Quelle est la probabilité que le 13ème jour d’un mois soit un vendredi (le fameux vendredi 13): • Premier modèle S={LU,MA,ME,JE,VE,SA,DI} • Evénement également probables: la probabilité est alors 0.14286=1/7 • Deuxième modèle: le calendrier a une périodicité de 400 ans. Si l’on examine les 12 x 400 = 4800 jours on trouve 688 vendredi. La probabilité est alors 0.14333=688/4800 • On trouve 684 jeudi et 687 dimanche

Analyse combinatoire • Soient les trois lettres A, B, C. Calculer toutes les permutations et toutes les combinaisons de deux lettres (sans répétitions): • permutations combinaisons • AB • BA AB • AC • CA AC • BC • CB BC • 3x2=6 3=6/2

Permutations • n éléments tirés d’une population de M (n≤M) • Permutations (l’ordre compte: AB ≠ BA): • a) sans répétition (tirage exhaustif: sans remise):

M! M × ( M − 1) × ( M − 2) × ... × ( M − [n − 1]) = ( M − n)! • !=factorielle ; M!=1 x 2 x 3 x … x M (!0=1) • b) avec répétition (tirage non exhaustif: avec remise):

M

n

Cas spécial • Lorsque n=M et des éléments sont identiques, le nombre de permutations sans répétition n’est pas M! mais:

M! k1!k 2 !...k s ! • où k1,k2,…,ks sont les nombres d’éléments identiques • Exemple: atterrir (M=8 et 3r, 2 t)

8! = 3360 3! 2!

Exemple • Dix chevaux participent à une course. En supposant que tous les chevaux ont la même probabilité d’arriver dans des ordres différents, quelle est la probabilité qu’un joueur qui choisit au hasard trouve les noms et le bon ordre d’arrivée des trois premiers? • Permutations avec M=10 et n=3:

10! 1 = 8 × 9 ×10 = 720 ⇒ P = (10 − 3)! 720

Exemple • a) Calculer toutes les permutations possibles des jours d’anniversaire de n personnes • b) Calculer la probabilité que n personnes n’aient pas le même jour d’anniversaire • a) 365n . Si n=2 on trouve 133225 • b)

365! (365 − n)! P= 365n

• Si n=2 P=0.997 • Si n=40 P=0.109 • Si n=64 P=0.003

Combinaisons • n éléments tirés d’une population de M • Combinaison (l’ordre ne compte pas: AB=BA) • a) sans répétition (tirage exhaustif: sans remise):

M! = ( M − n)!n!

(

)

( ) M n

• b) avec répétition (tirage non exhaustif: avec remise):

M +n −1 n

Commande TI-83/84 • • • • • •

Taper la valeur de M (n pour la TI) Aller dans MATH/PRB et choisir 2:nPr pour les permutations Taper la valeur de n (r pour la TI) En pressant ENTER vous obtenez le nombre de permutations Aller dans MATH/PRB et choisir 3:nCr pour les combinaisons Taper le valeur de n (r pour la TI) En pressant ENTER vous obtenez le nombre de combinaisons

Commandes MINITAB et EXCEL • Pour MINITAB, mettre la valeur de M dans C1 et celle de N dans C2. Aller dans la fenêtre Session et tapez %PERMUT C1-C2 pour les permutations et %COMBIN C1-C2 pour les combinaisons. Ces programmes ne font pas partie des programmes standard de MINITAB. • Pour EXCEL, chercher Permutation dans les fonctions statistiques ou Combin dans le groupe math. Vous pouvez aussi taper, dans une cellule, par exemple :=Permutation(45,7) pour les permutations et :=Combin(45,7) pour les combinaisons.

Exemple • Quelle est la probabilité de gagner le premier prix en jouant: • au Swisslotto (6 numéros sur 45)

1

( ) 45 6

1 = 8'145'060

• à l’euro-million (5 numéros sur 50 + 2 étoiles sur 9) • 1 sur

( )× ( ) = 76'275'360 50 5

9 2

Théorème du binôme • Les combinaisons sont utilisées dans le théorème du binôme: M

( a + b) = ∑ M

n =0

( )a b M n

n

M −n

• Si M=2 on a: b2 + 2 ab + a2 • Si a=b=1 on a le nombre de tous les échantillons

M

2 =∑ M

n =0

( ) M n

Probabilité conditionnelle • Probabilité que B arrive étant donné que A est arrivé

AA

B

P( A ∩ B) P( B / A) = P( A)

Théorème de multiplication • Multiplication des probabilités: • P(A ∩ B) = P(A) x P(B/A) • Evénements indépendants: deux événements sont statistiquement indépendants si • P(B/A)=P(B) • Dans ce cas on a: • P(A ∩ B) = P(A) x P(B)

Exemple • On jette un dé. Soit A un nombre pair et B un nombre supérieur à 2. A et B sont-ils indépendants? •

1 2 4 6 3 5

• A={2,4,6} ; B={3,4,5,6} ;

A ∩ B = {4,6}

P( A ∩ B) 2 / 6 2 P ( B / A) = = = = P( B) P ( A) 3/ 6 3 •  A et B sont statistiquement indépendants

Exemple • On jette un dé. Soit A un nombre pair et B un nombre supérieur à 3. A et B sont-ils indépendants? •

1 3 2 4 6 5

• A={2,4,6} ; B={4,5,6} ;

A ∩ B = {4,6}

P( A ∩ B) 2 / 6 2 P( B / A) = = = ≠ P( B) P ( A) 3/ 6 3 •  A et B sont statistiquement dépendants

Arbre de probabilité • • • • • • • • • • •

Hommes(H) Femmes(F) Total Suisses (CH) 200 300 500 Etrangers (E) 900 600 1500 Total 1100 900 2000 H 0.4 P (CH ∩ H ) = 0.10 0.6 P (CH ∩ F ) = 0.15 CH F 0.25 H 0.6 P ( E ∩ H ) = 0.45 E 0.75 F 0.4 P ( E ∩ F ) = 0.30 Total 1.00 probabilité conditionnelle

probabilité jointe

Formule de Bayes P(B)=P(B∩C1)+P(B∩C2)=P(B/C1)xP(C1)+P(B/C2)xP(C2) C1

B C1

C2

P ( B ∩ C1 ) P( B / C1 ) P(C1 ) P (C1 / B) = = P( B) P ( B / C1 ) P (C1 ) + P( B / C2 ) P(C2 )

Formule de Bayes • Probabilité conditionnelle

Probabilité a priori

P( B / C1 ) P(C1 ) P(C1 / B) = P( B / C1 ) P(C1 ) + P( B / C2 ) P(C2 )

Probabilité a posteriori

Exemple • On vient de développer un test qui permet de détecter dans le sang une maladie très rare (1 cas sur 10000). Le test est fiable à 90% (10% de faux négatifs) et, d’autre part, dans 1 cas sur 1000 il donne un résultat faux (0.1 % de faux positifs). Si le test est positif (TP), quelle est la probabilité que la personne ait cette maladie (M)?

P(TP / M ) P( M ) P ( M / TP ) = P(TP / M ) P( M ) + P (TP / M ) P ( M )

0.9 × 0.0001 P ( M / TP ) = = 0.0826 0.9 × 0.0001 + 0.001× 0.9999



Bière Cantine I 400 cantine II 300 Total 700

Etat de la nature Probabilité a priori (1)

Vin 200 100 300

Total 600 400 1000 (3)/Σ(3)=Probabilité a posteriori

(1)x(2)=Probabilité jointe (3)

Probabilité conditionnelle (2) • • E.N. A priori Conditionnelle Jointe A posteriori . bière vin bière vin bière vin C.I 0.6 2/3 1/3 0.4 0.2 4/7 2/3 C.II 0.4 3/4 1/4 0.3 0.1 3/7 1/3 1.0 0.7 0.3 1.0 1.0 numérateur dénominateur

Commande TI-83/84 • Introduire les probabilités a priori dans L1 et les probabilités conditionnelles dans L2 en utilisant la commande STAT / EDIT. • Aller dans PRGM et choisir BAYES • En pressant ENTER vous obtenez les probabilités jointes dans L3 et les probabilités a posteriori dans L4 • Ce programme ne fait pas partie des programmes standard de la TI. Vous devez le télécharger (voir page web du cours)

Probabilités subjectives • La formule de Bayes permet de tenir compte à la fois des probabilités subjectives et des données objectives tirées de l’observation de phénomènes similaires. Les probabilités subjectives sont les probabilités a priori et les données tirées des observations sont les probabilités conditionnelles. • On parle alors de méthodes bayesiennes.

Exemple avec méthodes classiques

0.6

0.75

0.871 (27/31)

Exemples de probabilités subjectives • 1) Rapport du Rectorat de l’Université de Lausanne sur l’évolution du système universitaire suisse (1.10.2001): • Statu quo: 25% • Universités fédérales: 20% • Regroupement: 50% • Universités concordataires: 5% • Disparition: 0% • 2) Alain Greenspan: 50% de probabilité de récession

Distributions de probabilité • Lorsqu’une expérience est répétée plusieurs fois, on obtient une distribution des différents résultats. • Exemple: on jette 4 pièces de monnaie et on compte le nombre de « pile » obtenu. • L’expérience est répétée 2000 fois. La distribution de « pile » (de 0 à 4) peut être comparée avec des valeurs théoriques.

2000 JETS DE 4 PIECES DE MONNAIE 800

EMPIRIQUE THEORIQUE

Somme de PILE

700 600 500 400 300 200 100 0

1

2

3

NOMBRE DE PILE PAR JET

4

dés 2000 JETS DE 4 DE 1000



EMPIRIQUE THEORIQUE

900 800

Somme de 6

700 600 500 400 300 200 100 0 0

1

2

3

NOMBRE DE 6 PAR JET

4

Modèle théorique • • • • • • • •

4 jets. Nombre de « pile » (P=pile, F=face) 0: FFFF (1 cas) 1: PFFF FPFF FFPF FFFP (4) 2: PPFF PFPF PFFP FPPF FFPP FPFP (6) 3: PPPF PPFP PFPP FPPP (4) 4: PPPP (1) Fréquence théorique: 0: 1/16 ; 1: 4/16 ; 2: 6/16 ; 3: 4/16 ; 4: 1/16

Moyenne théorique • Nombre moyen de « pile »:

0 × 1 + 1× 4 + 2 × 6 + 3 × 4 + 4 × 1 µ= =2 16 1 4 6 4 1 µ = 0 × + 1× + 2 × + 3 × + 4 × 16 16 16 16 16

µ = ∑ x =0 xp( x) 4

• p(x)= probabilité d’obtenir x « pile »

Variance théorique • Variance du nombre de « pile »: 2 2 2 2 2 − + − + − + − + − ( 0 2 ) 4 ( 1 2 ) 6 ( 2 2 ) 4 ( 3 2 ) ( 4 2 ) 2 σ = =1 16

1 4 6 2 2 2 σ = (0 − 2) + (1 − 2) + (2 − 2) 16 16 16 2

4 1 4 2 2 2 + (3 − 2) + (4 − 2) = ∑ x =0 p( x)( x − µ ) 16 16

Variable aléatoire • Fonction définie sur le résultat d’un phénomène aléatoire. Elle définit un nouvel espace d’échantillonnage. Ex: on jette 2 dés. x=nombre de 4 • 11 12 13 14 15 16 x p(x) • 21 22 23 24 25 26 0 25/36 • 31 32 33 34 35 36 1 10/36 • 41 42 43 44 45 46 2 1/36 • 51 52 53 54 55 56 • 61 62 63 64 65 66 P{44}=1/36

Distribution binomiale • Soit x le nombre de « pile » et n le nombre de pièces de monnaie. Le nombre de cas avec x « pile » est:

n! = x!(n − x)!

() n x

• La probabilité de x « pile » est alors:

P( x) =

( )p n x

x

(1 − p )

• où p est la probabilité de « pile » (1/2)

n− x

Moyenne et variance • La moyenne de la distribution binomiale est:

µ = ∑ x( ) p (1 − p) n x

x

n− x

= np

• et la variance:

σ =∑x 2

• (q=1-p)

( )p

2 n x

x

(1 − p )

n− x

− µ = npq 2

Fonction de probabilité discrète P(x) • • • • • •

Conditions: 1) 0 ≤ P(x) ≤ 1 2) Σ P(x) = 1 Exemple: distribution binomiale TI83: P(x=s)=binompdf(n,p,s) Fonction de répartition: s

P( x ≤ s ) = ∑ P( x) x =0

• TI83: P(x ≤ s)=binomcdf(n,p,s)

DISTRIBUTION BINOMIALE, n=4, p=0.5 0.4

Somme de C2

0.3

0.2

0.1

0

1

2

pile

3

4

FONCTION DE REPARTITION, DIST. BINOMIALE, n=4, p=0.5 1.0

Somme cumulé de C2

0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 0

1

2

pile

3

4

Commande TI-83/84 • • • • • •

Ex: calcul de b(x=31,n=80,p=0.4) Presser la touche DISTR (2nd Vars) Déplacer le curseur jusqu’à 0:binompdf( ou taper 0). Presser ENTER Taper 80,0.4,31) (c’est-à-dire n,p,x) En pressant ENTER vous obtenez la probabilité de 31 succès P(x=31)=0.08889 Pdf= Probability Density Function (fonction de probabilité)

Commande TI-83/84 Fonction de répartition: P(x≤y)=∑yx=0 P(x) Calcul de P(x≤31)=∑b(x,80,0.4)=∑31x=o P(x) Presser la touche DISTR (2nd Vars) Déplacer le curseur jusqu’à A:binomcdf( ou taper A) • Taper 80,0.4,31) (c’est-à-dire n,p,y) • En pressant la touche ENTER vous obtenez la probabilité P(x≤31)=0.457621 • CDF=Cumulative Distribution Function (fonction de répartition)

• • • •

Commandes MINITAB et EXCEL • Pour MINITAB, mettre la valeur de x (ex. 31) dans la colonne C1 • Aller dans Calc / Lois de probabilité / Binomiale • Cocher Probabilité (ou Probabilité cumulée) • Mettre le nombre d’essais (ex. n=80) et la probabilité de succès (ex. p=0.4) • Sélectionner la colonne d’entrée En cliquant sur OK vous obtenez P(x) [ou P(x≤31)] • Dans EXCEL, choisir parmi les formules statistiques Loi.Binomiale. Introduire x et p • Choisir faux dans cumulative pour P(x) et vrai pour P(x≤31) (fonction de répartition)

Applications • La distribution binomiale s’applique à tous les phénomènes aléatoires avec deux cas possibles (« succès » ou « échec »). Lorsqu’il y a n épreuves et des événements statistiquement indépendants, la probabilité de x succès est donnée par la distribution binomiale. • Exemples: pile ou face, pièce conforme ou défectueuse, garçon ou fille, achat ou pas, acceptation ou refus, etc.

NOMBRE DE FILLES DANS 505 FAMILLES AVEC 3 ENFANTS

Dénombrement de FILLES

200

EMPIRIQUE THEORIQUE

100

0 0

1

2

3

FILLES Données tirées de l’enquête sur la consommation de 10176 ménages

Distribution continue f(x) • La fonction f(x) ne peut pas donner la probabilité la probabilité est donnée par la surface sous la courbe qui représente la distribution

P( x1 ≤ x ≤ x2 ) =

x2

∫ f ( x) dx

x1

• Condition: • 1) f(x) ≥ 0 • 2)



∫ f ( x) dx = 1

−∞

Exemple • Le nombre de jours entre un accident rare et le suivant est décrit par la densité de probabilité:

f ( x) = 0.002e

−0.002 x

pour x ≥ 0 -e-0.06+e-0.02

• Calculer: 30

P(10 ≤ x ≤ 30) = ∫ 0.002e

− 0.002 x

dx = − e

− 0.002 x 30 10

= 0.384

10 30

P ( x ≤ 30) = F (30) = ∫ 0.002e 0

− 0.002 x

dx = − e

− 0.002 x 30 0

= 0.582

Distribution normale • Lorsqu’un phénomène subit l’influence de nombreux effets, petits et indépendants, il suit une distribution normale

1 f ( x) = e σ 2π • µ=moyenne ; σ = écart-type

 x−µ  − 0.5   σ 

2

DISTRIBUTION NORMALE 0.4



C2

0.3

0.2

0.1

0.0 -4

-3

-2

-1

0

C1

1

2

3

4

DISTRIBUTION NORMALE [N(0,1)] 0.4

f(z)

0.3

95%

0.2

0.1

0.0 -4

-3

-2

-1

0

z

1

2

3

4

DISTRIBUTION NORMALE [N(0,1)] 0.4

f(z)

0.3

99%

0.2

0.1

0.0 -4

-3

-2

-1

0

z

1

2

3

4



Moyenne=médiane=mode

Moyenne et variance • La distribution normale dépend de deux paramètres, la moyenne (µ) et la variance (σ2). • Pour utiliser les tables de la distribution normale, il faut standardiser les valeurs. • La variable normale standardisée est:

z=

x−µ

σ

• Sa distribution a une moyenne nulle et un écarttype égal à 1.

MOYENNE DIFFERENTE (0 ET 3) 0.4



C2

0.3

0.2

0.1

0.0 -3

-2

-1

0

1

2

C1

3

4

5

6

ECART-TYPE DIFFERENT (1 ET 1.5) 0.4



C2

0.3

0.2

0.1

0.0 -4

-3

-2

-1

0

C1

1

2

3

4

Indice de masse corporelle (IMC): < 20 : maigre 25-30: OK >30: obèse 33% d’obèses aux E.U.

poids en kg BMI =

70 =

(taille en mètres)2

= 22.9 1.752



RENDEMENT ACTIONS SUISSES EN 2006 (mu=23.7% , s=28%) 60



50

Effectif

40 30 20 10 0 -50

0

50

RENDEMENT

100

150



Histogramme de age, avec courbe normale



Effectif

200

100

0 10

15

20

25

30

age

35

40

45

DEPENSE MENSUELLE POUR LE LOYER ET L`ENERGIE



Effectif

100

50

0 0

1000

C1

2000

DISTRIBUTION DES POINTS D`UN EXAMEN

Effectif



300

200

100

0 0

10

20

30

40

50

60

POINTS

70

80

90 100

Commande TI-83/84 • Calcul de P(304≤x≤696) [N(500,100)] • Presser la touche DISTR (2nd Vars) • Déplacer le curseur jusqu’à 2:normalcdf( ou taper 2) • Taper 304,696,500,100) (c’est-à-dire borne inférieure, borne supérieure, moyenne, écarttype) • En pressant la touche ENTER vous obtenez la probabilité P(304≤x≤696)=0.95

Commandes MINITAB et EXCEL • Pour MINITAB, mettre les valeurs de x1 et x2 (ex. 304 et 696) dans la colonne C1 • Aller dans Calc / Lois de probabilité / Normale • Mettre la moyenne et l’écart-type • Sélectionner la colonne d’entrée et celle de stockage En cliquant sur OK vous obtenez P(x≤304) et P(≤696) (fonctions de répartition) • Dans la fenêtre Session, taper Let C3=C1(2)-C1(1) pour obtenir P(304≤x≤696) • Dans EXCEL, choisir parmi les formules statistiques Loi.Normale. Introduire x, µ et σ • Choisir vrai dans cumulative

DISTRIBUTION NORMALE 0.4



C2

0.3

0.2

?

0.1

0.0 -4

-3

-2

-1

0

1

2

3

C1 NORMALCDF(-2,3,0,1) =0.976

4

DISTRIBUTION NORMALE 0.4



C2

0.3

0.2

0.1

0.1586 0.0 -4

-3

-2

?

0

1

C1

invNorm(0.1586,0,1)=-1

2

3

4

FONCTION DE REPARTITION, DIST. NORMALE N(0,1)

F(x)

1.0

0.5

0.0 -4

-3

-2

-1

0

x

1

2

3

4

Applications • La distribution normale est utilisée lorsque le phénomène aléatoire subit l’influence de nombreuses causes indépendantes et très petites. On verra plus tard une utilisation importante dans le théorème limite central. • La distribution normale peut être utilisée comme approximation de beaucoup d’autres distributions. Par exemple, lorsque n∞ la distribution binomiale tend vers une distribution normale avec µ=np et σ2=npq. On obtient un intervalle en ajoutant et en enlevant 0.5 à la valeur de x.

Approximation de la distribution binomiale par la loi normale •

2000 JETS DE 10 PIECES DE MONNAIE

np=5 500

npq=2.5

Somme de PILE

400

Binompdf(10,0.5,7)=0.117 300

Normalcdf(6.5,7.5,5,√2.5)=0.114

200

100

0 0

1

2

3

4

5

6

7

8

9

10

Test de normalité • On peut tester de plusieurs manières si une distribution suit une loi normale: • 1) méthodes graphiques: on calcule les scores normaux (nscore) et on regarde si l’on obtient une droite avec xi et nscorei ou on dessine la droite d’Henry en prenant la variable standardisée z. 3 i− zi 2 1 − 0 .5 x x µ 8 nscore = ∫ e dx = ;z= − −∞ 1 σ σ 2π n+ 4 Ex: i=1,2,…,9 (n=9)

• 2) faire un test comme celui de Anderson-Darling

Commandes MINITAB • Pour MINITAB, mettre les valeurs dans la colonne C1 • Aller dans Calc / Calculatrice. Sélectionner dans Fonction: scores normaux. Mettre C1. Choisir C2 pour le résultat. Faire ensuite un graphique de C1 et C2 avec Graphique / Diagramme. • Pour la droite de Henry et le test de normalité choisir Stat / Statistiques élémentaires / Test de normalité • Vous pouvez aussi choisir Graphique / Diagramme de probabilité. Vous obtenez les intervalles de confiance.

Espérance mathématique • Les paramètres d’une distribution théorique sont définis en utilisant le concept d’espérance mathématique. On introduit cette notion avec l’exemple suivant: • On jette un dé et on gagne 10 fois le chiffre qui est sorti. Quelle somme espérez-vous gagner? 1 1 1 1 1 1 10 + 20 + 30 + 40 + 50 + 60 = 35 Frs 6 6 6 6 6 6 • En général: 6

E[ g ( x)] = ∑ g ( x) p ( x) x =1

(avec g(x)=10 x et p(x)=1/6)

• Si g(x)=x on obtient la moyenne théorique:

E ( x) = ∑ xp( x) = µ • Lorsque la distribution est continue on a:

E ( x) =



xf ( x ) dx ∫

−∞

• L’opérateur espérance mathématique a les propriétés suivantes: • (a) E(c)=c • (b) E[cg(x)]=cE[g(x)] • (c) E[g1(x)+g2(x)]=E[g1(x)]+E[g2(x)]

Les moments théoriques • • • •

Moment d’ordre n: µn=E[xn] Si n=1 on a la moyenne: µ1=E(x)=µ Moment centré d’ordre n:

µ = E[( x − µ ) ] c n

n

• Si n=2 on a la variance:

µ = E[( x − µ ) ] = E ( x ) − µ = σ = µ 2 − µ c 2

2

2

2

2

2

Distribution de probabilité jointe • Si plusieurs variables influencent le résultat d’une épreuve il faut utiliser les probabilités jointes. La fonction de probabilité jointe doit satisfaire les critères n n suivants: p ( x, y ) = 1 • (a) p(x,y) ≥ 0 ; (b) x =0 y =0 • La covariance de x et y est:

∑∑

cov( x, y ) = E{[ x − E ( x)][ y − E ( y )]} = E ( xy ) − E ( x) E ( y ) cov( x, y ) = ∑∑ p ( x, y )[ xy ] − µ x µ y x

y

• Coefficient de corrélation: ρ ( x, y ) =

cov( x, y )

σ xσ y

σ xy = σ xσ y

Probabilité jointe et indépendance statistique • • • •

A = résultat 1er dé: 3 ; B = résultat 2ème dé: 5 11 P(A∩B) = P(A) P(B/A) = = P(A) x P(B) 66 Soit x=1er dé et y=2ème dé. On a: 11 1 P(x=3;y=5)= =P(x=3) x P(y=5)= 66

36

• E(xy)= ∑∑ p ( x, y ) xy x y • Si x et y sont indépendants on a p(x,y)=p(x)p(y) et: • E(xy)= ∑∑ p ( x) p ( y ) xy = ∑ xp( x)∑ yp( y ) = E ( x) E ( y ) x

y

x

y

Indépendance et corrélation • • • •

Cov(x,y)=E(xy)-E(x) E(y) Indépendance  corrélation nulle: E(xy)=E(x)E(y)  Cov(x,y)=0 Corrélation non nulle  dépendance

• • • •

Corrélation nulle  ? (souvent indépendance) var(ax+by)=a2 var(x)+b2 var(y)+2ab cov(x,y) Var(ax+by)=a2 σx2+ b2 σy2+2 ab ρxy σxσy ρ=0  var(ax+by)=a2 var(x)+b2 var(y)

Pas de corrélation Dépendance

Indépendance

RHO=0

RHO=0 8

15

7 6

10

4

C2

C3

5

3

5

2 1 0

0 1

2

3

4

5

C4

6

7

8

0

1

2

3

4

C1

5

6

7

8

Distribution marginale

Distributions marginales n

• P(x) =

∑ p ( x, y ) y =0



• f(x) =

∫ f ( x, y)dy

−∞

n

• P(y) =

∑ p ( x, y ) x =0



• f(y) =

∫ f ( x, y)dx

−∞

Commande TI-83/84 Le programme LISTABLE décompose le tableau afin de pouvoir utiliser les commandes pour le calcul de la moyenne, de la variance, de la covariance et du coefficient de corrélation. • Mettre le tableau, y compris les valeurs des variables, dans la matrice A (ex. 0 0 1 2 3 pour la première ligne et 2 340 505 645 190 pour la dernière ligne). • Aller dans PRGM et choisir LISTABLE • En pressant ENTER vous obtenez les données désagrégées de X dans L1, celles de Y dans L2 et le fréquences dans L3.

Distribution de Poisson • La distribution de Poisson est une distribution discrète très utilisée dans le cas d’événements rares, d’accidents, d’erreurs, de rupture de machines ou de circuits. Sa fonction de probabilité est: • P(x)=e-µ µx/x! Pour x=0,1,2,… • La moyenne est µ et la variance aussi

Distribution de Poisson NOMBRE DE DECES EN OUVRANT LA PORTE DE L`AUTO



Dénombrement de DECES

7

EMPIRIQUE THEORIQUE

6 5 4 3 2 1 0 0

P(x)=e-µ µx / x!

1

2

DECES

3

Commande TI-83/84 • • • • • • • • • • •

x=2 ; µ=3 ; P(2) = ? Presser la touche DISTR (2nd Vars) Déplacer le curseur jusqu’à B:poissonpdf( Taper 3,2) En pressant ENTER, vous obtenez P(x=2)=0.224 Fonction de répartition: P(x≤y)=∑yx=0 P(x) Calcul de P(x≤2)=∑2x=o P(x) Presser la touche DISTR (2nd Vars) Déplacer le curseur jusqu’à C:poissoncdf( Taper 3,2) En pressant la touche ENTER vous obtenez la probabilité P(x≤2)=0.423

Commandes MINITAB et EXCEL • Pour MINITAB, mettre la valeur de x (ex. 2) dans la colonne C1 • Aller dans Calc / Lois de probabilité / Poisson • Cocher Probabilité (ou Probabilité cumulée) • Mettre la moyenne • Sélectionner la colonne d’entrée (C1) En cliquant sur OK vous obtenez P(x) [ou P(x≤2)] • Dans EXCEL, choisir parmi les formules statistiques Loi.Poisson. Introduire x et µ (ex. 2 et 3) • Choisir faux dans cumulative pour P(x) et vrai pour P(x≤2) (fonction de répartition)

Approximation de la distribution binomiale par la distribution de Poisson • Lorsque n est grand et p petit de telle sorte que np < 5, on ne peut pas prendre l’approximation de la loi binomiale par la loi normale. Dans ce cas, il faut prendre la distribution de Poisson. • Exemple: binompdf(200,0.01,3)=0.18136 • µ=np=2 ; poissonpdf(2,3)=0.18045

Distribution exponentielle • Cette distribution continue est utilisée pour des problèmes de queues (files d’attente) ou du temps qui passe entre un événement et le suivant. La densité de probabilité est: • f(x)=λe-λx pour x≥ 0 • On a alors P(a≤x≤b)=e-aλ-e-bλ • Sa moyenne et son écart-type sont 1/λ

Distribution exponentielle JOURS ENTRE UN ACCIDENT ET LE SUIVANT



C2

0.003

0.002

0.001 0

100

200

jours

300

400

Commandes MINITAB et EXCEL • Pour MINITAB, mettre les valeurs de x1 et x2 (ex. 15 et 30) dans la colonne C1 • Aller dans Calc / Lois de probabilité / Exponentielle • Mettre la moyenne (ex. 10) • Sélectionner la colonne d’entrée et celle de stockage En cliquant sur OK vous obtenez P(x≤15) et P(≤30) (fonctions de répartition) • Dans la fenêtre Session, taper Let C3=C1(2)-C1(1) pour obtenir P(15≤x≤30) • Dans EXCEL, choisir parmi les formules statistiques Loi.Exponentielle. Introduire x et λ (1/µ) • Choisir vrai dans cumulative

Distribution binomiale négative • Si l’on s’intéresse au nombre d’échecs (x) avant d’obtenir certain nombre (r) de succès, il faut utiliser la distribution binomiale négative:

P( x) =

(

x + r −1 r −1

• µ=rq/p ; σ2 = rq/p2

)p (1 − p) r

x

Distribution hypergéométrique • Si l’échantillon est exhaustif, on ne peut pas utiliser la distribution binomiale car les épreuves ne sont pas indépendantes. Il faut alors prendre la distribution hypergéométrique:

( )( ) P( x) = ( ) X x

N−X n− x N n

• N et X se réfèrent à la population et n, x à l’échantillon • On a µ=np et σ2 = npq(N-n)/(N-1). Si N∞, on obtient la distribution binomiale (voir polycopié, p. 216)

Distribution hypergéométrique ECHANTILLON DE 5 PIECES (N=20, X=4)



Somme de PIECES DEF.

0.5

BINOMIALE HY PERGEOM.

0.4

0.3

0.2

0.1

0.0 0

1

2

3

4

NOMBRE DE PIECES DEFECTUEUSES

5

Distribution lognormale • Distribution continue non symétrique utilisée pour la distribution des revenus ou les pertes bancaires sur débiteurs.





f ( x) = µ =e

1 xσ 2π

µ + 0.5σ 2

e

;σ =e 2

− (ln x − µ ) 2 / 2σ 2

( 2 µ +σ 2 )

σ2

(e

− 1)

Distribution lognormale REVENU MENSUEL SELON ERC98



Effectif

1000

500

0 0

10000

20000

30000

REVENU

40000

50000

ACRA

ACRA: Actuarial Credit Risk Accounting

Distribution uniforme • Distribution très simple, utilisée pour les erreurs d’arrondis. Sa densité est constante: 1 f ( x) = b−a

a≤ x≤b

1/(b-a)

a a+b µ= 2

b (b − a) 2 ; σ = 12 2

x

Méthodes bayesiennes • L’analyse statistique est souvent utilisée pour prendre des décisions en situation d’incertitude. Les méthodes bayesiennes proposent un critère de décision: la maximisation du profit espéré ou de l’utilité espérée. • Exemple: un boulanger doit décider s’il doit produire une ou deux fournées (200 ou 400 kg de pain). S’il fait beau, il peut vendre 400 kg tandis que s’il pleut il vend 180 kg. Le prix de vente est de 5 Fr et le coût de fabrication de 4 Fr. Les invendus sont repris par un paysan au prix de 3.50 Fr. • On peut calculer le profit brut en fonction de la décision prise et du temps qu’il fera. Voici la table de payoff et celle des pertes implicites: Profit brut

• État de la nature • • beau temps (p) • pluie (1-p)

action A (200 kg) B (400 kg) 200 400 170 70

• E(πA) = 200p + 170(1-p) • E(πB) = 400p + 70(1-p) • Si p=1/3 on a E(πA)=E(πB) et E(LA)=E(LB)

Pertes implicites A B 200 0 0 100 E(LA)=200p E(LB)=100(1-p)

• • • • • • • • • • • •

Décision à prendre, en fonction de probabilités: E(πA)=200p + 170(1-p) ; E(LA)=200p E(πB)=400p+70(1-p) ; E(LB)=100(1-p) Profit brut Pertes implicites p A B A B coût incertitude 0.0 170 70 0 100 0 0.2 176 136 40 80 40 1/3 180 180 662/3 662/3 662/3 0.4 182 202 80 60 60 1.0 200 400 200 0 0 maximisation minimisation profit espéré pertes implicites

Coût de l’incertitude • Le coût de l’incertitude donne la somme maximale qu’on peut payer pour éliminer l’incertitude. Il correspond à la valeur espérée de l’information parfaite (EVPI = expected value of perfect information). • Deux possibilités de calculer cette valeur: • 1) EVPI= perte implicite minimale • 2) EVPI=EPPI-EP* • EPPI=expected profit with perfect information • EP* = profit espéré avec décision optimale

Distribution a priori discrète •

Il y a souvent de nombreux états de la nature. Supposons que les probabilités de ces états soient données par une distribution discrète. • Exemple: La demande de pain varie entre 180 kg et 400 kg. Le prix de vente est de 5 Fr et le coût de fabrication de 4 Fr. Les invendus sont repris par un paysan au prix de 3.50 Fr. Quelle quantité faut-il produire? • Calculons le profit brut et les pertes implicites espérées. • État profit brut pertes implicites espérées • nature p action (production) action (production) demande 180 200 250 300 350 400 180 200 250 300 350 400 • 180 0.1 180 170 145 120 95 70 0 10 35 60 85 110 • 200 0.2 180 200 175 150 125 100 20 0 25 50 75 100 • 250 0.2 180 200 250 225 200 175 70 50 0 25 50 75 • 300 0.2 180 200 250 300 275 250 120 100 50 0 25 50 • 350 0.2 180 200 250 300 350 325 170 150 100 50 0 25 • 400 0.1 180 200 250 300 350 400 220 200 150 100 50 0 • Total 1.0 180 197 225 237 235 217 98 81 54 41 44 61 • • •

Tableau des pertes implicites: maximum de la ligne du profit brut – valeur des éléments de la ligne  Le tableau des pertes implicites ne contient jamais de valeursCnégatives o=0.5 ; !Cu = 1 ; [Cu/(Co+Cu)]=0.67 ; F(300)=0.7 EPPI=0.1x180+0.2x200+0.2x250+0.2x300+0.2x350+0.1x400=278 EVPI=278-237=41

Commande TI-83/84 • Mettre les probabilités a priori dans la matrice A (vecteur-ligne: toutes les valeurs sur une ligne; matrice 1 x N où N=nombre d’états) • Mettre dans la matrice B les profits bruts • Exécuter le programme DECISION • Les profits bruts espérés sont dans la matrice C (vecteur-ligne) • Les pertes implicites sont dans la matrice D • Les pertes implicites espérées sont dans la matrice E (vecteur-ligne)

Perte implicite en deux parties • Si les pertes implicites sont linéaires en deux parties on a: • Co (a-x) si x < a 0 si x = a si x > a • Cu (x-a) • où • Co = perte implicite si on produit une unité de trop Cu = perte implicite si on produit une unité de moins a = quantité choisie (production) x = demande.

L ( a, x ) = {

L’utilité • La maximisation du profit espéré peut conduire à des décisions peu réalistes. • Paradoxe de Bernoulli: on jette une pièce de monnaie et on gagne 2n où n est le nombre de jets nécessaires pour obtenir « pile ». 2

3

1 1 1 2 3 E (g ) =   × 2 +   × 2 +   × 2 + ⋅ ⋅ ⋅ = ∞ 2 2 2 • Mais si le casino met une limite à 230 (~1 milliard), alors le gain espéré n’est plus que de 30.

• Bernoulli propose alors de prendre l’utilité du gain: u=ln(g). • Cette valeur pourrait être obtenue en proposant de choisir entre une somme certaine X et un billet ayant une chance p de gagner une certaine somme (ex. 500 Fr). Indifférence: • Si 70 ~ 500 avec p=0.14 profit espéré • Si 70 ~ 500 avec p=0.32 aversion au risque • Si 200 ~ 500 avec p=0.40 profit espéré • Si 200 ~ 500 avec p=0.64 aversion au risque • Si 400 ~ 500 avec p=0.80 profit espéré • Si 400 ~ 500 avec p=0.91 aversion au risque

u(g), p

argent certain

Décision avec utilité espérée • • • • • • • •

État de la nature action A (200 kg) B (400 kg) beau temps (p) 200 400 pluie (1-p) 170 70 E(uA) = 0.64p + 0.58(1-p) E(uB) = 0.91p + 0.32(1-p) Si p=0.49 on a E(uA)=E(uB) Si p > 0.49 on produit 400 kg (B).

Utilité A B 0.64 0.91 0.58 0.32

Diagramme de décision • Construire un arbre de décision. Un carré représente une décision à prendre et un cercle un événement aléatoire. • Introduire ensuite les éléments financiers et les probabilités. • En commençant par la fin et en remontant vers l’origine, calculer la valeur espérée si événement aléatoire ou couper les branches moins profitables si décision à prendre.

41/6 41/6

• 21/30

-0.5 -0.1

21/30 0.5

VENDRE

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF