Cours d`introduction aux Probabilités - IMJ-PRG

January 18, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Cours d`introduction aux Probabilités - IMJ-PRG...

Description

Cours d’introduction aux Probabilités C.Fiszka Polytech’ Paris

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

1 / 78

Déroulement du cours

Le cours [email protected] H.defienne Polycopié et exerices sur la page web http ://www.math.jussieu.fr/ fiszka/ 7 séances de cours (2h) et 7 séances de TD (2h) Notation : 60% notes de cours + 40% notes de TD Mardi 6 mai : partiel (1h) Mercredi 28 mai : Examen (2h)

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

2 / 78

Plan du cours : Espérance, moments Bases des probabiliés Lois usuelles discrètes Intérêts des probabilités Lois usuelles continues Axiomatique de Kolmogorov Convolution, loi d’une somme Le cas d’équiprobabilité 3 Convergences de v.a.r Probabilités conditionnelles, indéFonctions caractéristiques pendance Convergences de variable aléatoire 2 Variables aléatoires réelles Lois des grands nombres Théorème central limite Loi de probabilité d’une v.a.r Exemples d’intervalle de confiance Fonction de répartition Autres théorèmes de convergence Définition d’une variable aléatoire Complément : le lemme de Boreldiscrète Cantelli Définition d’une variable aléatoire 4 Couples de v.a.r continue Quantiles Fonctions de répartition V.a de loi ϕ(X ) Lois conjointes et marginales Indépendance de variable aléatoire Covariance et correlation 1

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

3 / 78

Chapitre 1

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

4 / 78

Intérêts des probabilités Des applications nombreuses : Vie quotidienne Aux statistiques Théorie des jeux Économie/Finance Automatisme (dans la prise de décision...) Physique (mécanique statistique...) Biologie Branche importante des Mathématiques etc...

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

5 / 78

Le problème du Chevalier de Méré Jeu 1 : Sur un lancer de 4 dés, il gagne si au moins un "6" apparaît. Jeu 2 : On lance 24 fois une paire de dés et il gagne si un "double 6" apparaît. Je n’ai pas eu le temps de vous envoyer la démonstration d’une difficulté qui étonnait fort M. de Méré, car il a très bon esprit, mais il n’est pas géomètre (c’est, comme vous savez, un grand défaut) (...) je n’ai jamais pu l’en tirer. Si vous pouviez le faire, on le rendrait parfait. Pascal juillet 1654

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

6 / 78

Définitions Vers l’axiomatique de Kolmogorov En 1933.

Manuel des Fondements de la théorie des probabilités, en allemand Grundbegriffe der Wahrscheinlichkeitsrechnung. • Partons d’une « expérience aléatoire » : L’ensemble des issues possibles sera appellé l’univers des possibles. On le note Ω. Attention : il existe plusieurs choix possibles de Ω. Un évenement est une partie de Ω. C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

7 / 78

Langage ensembliste Langage probabiliste Issue Événement A A est réalisé Événement contraire (non-A) A et B A ou B Événements incompatibles A implique l’événement B Événement impossible Événement certain Système complet d’événements An

C.Fiszka (Polytech’ Paris)

Notation ω (ω ∈ Ω) A ⊂ Ω (A ⊂ Ω) ω∈A A=Ω\A A∩B A∪B A∩B =∅ A⊂B ∅ Ω S Ω = n An et Ai ∩ Aj = ∅

Cours d’introduction aux Probabilités

Langage ensembliste élément de Ω partie de Ω complémentaire intersection union inclusion ensemble vide espace entier partition

8 / 78

Définitions (suite)

Une tribu (ou algèbre des événements) est la donnée de E ⊂ P(Ω) tels que : I I I

Ω ∈ E. Stabilité par le complémentaire. Stabilité par union finie ou dénombrable.

Un espace probabilisable est la donnée d’un couple (Ω, E ) avec : I I

Ω un univers des possibles. E une tribu des événements sur Ω.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

9 / 78

Une mesure de probabilité Soit (Ω, E ) un espace probabilisable. • Une probabilité est une application P telle que I I I

P : E → [0, 1] P(Ω) = 1 Pour toute suite finie ou dénombrable d’événements deux à deux incompatibles, on a : ! [ X P An = P(An ) n∈I

n∈I

• Un espace probabilisé est la donnée d’un triplet : (Ω, E , P) I I

espace probabilisable (Ω, E ) P une probabilité sur E .

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

10 / 78

Deux cas particuliers importants

Le cas fini où la probabilité est une somme pondérée de Dirac X P= pi δxi i∈I

Le cas absolument continu par rapport à la mesure de Lebesgue. Z P(A) = f (x ) dx A

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

11 / 78

Cas d’équiprobabilité

• Soit Ω de cardinal fini. On dira qu’il y a équiprobabilité dans le cas où tous les événements élémentaires ont même probabilité. Si

Ω = {ω1 , ω2 , . . . , ωn } ⇒ P(ωj ) =

1 n

ou encore ∀A ∈ E : P(A) =

C.Fiszka (Polytech’ Paris)

Card(A) nombre cas favorables = Card Ω nombre cas possibles

Cours d’introduction aux Probabilités

12 / 78

Rappels en combinatoire Nombre de permutations d’un ensemble à n éléments : n! Nombre de p-uplets d’un ensemble à n éléments : np Nombre de p-arrangements d’un ensemble à n éléments : Apn :=

n! = n(n − 1) . . . (n − p + 1) (n − p)!

Nombre de parties d’un ensemble à n éléments : 2n Nombre de parties à k éléments d’un ensemble à n éléments :   n! n := k k!(n − k)! Rappelons la formule du binôme de Newton : n   X n k n−k (a + b)n = a b k k=0

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

13 / 78

Définition de la probabilité conditionnelle Lois de probabilités conditionnelles, indépendance

Soit (Ω, E , P) un espace probabilisé et A un événement possible (P(A) 6= 0). L’application : PA :

  E

→ [0, 1]

 B

7→ PA (B) =

P(A ∩ B) P(A)

est une probabilité sur (Ω, E ) appelée probabilité conditionnelle. On note aussi PA (B) = P(B | A). Si (An )n∈I définit un système complet alors : P(B) =

X

P(An )P(B | An )

n∈I

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

14 / 78

Notion d’indépendance stochastique

Deux événements sont dits indépendants si : P(A ∩ B) = P(A)P(B) Ou encore PA (B) = P(B). n événements sont dits mutuellement indépendants si pour toute partie non vide I de [[1, n]] : ! \ Y P(Ai ) Ai = P i∈I

C.Fiszka (Polytech’ Paris)

i∈I

Cours d’introduction aux Probabilités

15 / 78

Formule de Bayes Théorème Pour tous événements possibles A, B : P(A | B) =

P(A)P(B | A) P(B)

Si (Aj )j désigne un système complet d’événements possibles et B un événement possible, alors P(Ak )P(B | Ak ) P(Ak | B) = P j P(Aj )P(B | Aj ) Rappel : un événement A est possible si P(A) > 0.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

16 / 78

Chapitre 2

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

17 / 78

Le paradoxe de Bertrand (1888) Soit C un cercle de rayon 1. Quelle est la probabilité √ qu’une corde du cercle, choisie au hasard, possède une longueur supérieure à 3 ?

Que vaut la probabilité ? 1 3

ou

1 4

Le côté d’un triangle équilatéral inscrit dans ce cercle a pour longueur

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités



3.

18 / 78

Définition d’une v.a.r

Soit (Ω, E , P) un espace probabilisé, une variable aléatoire réelle est une application :  Ω → R X: ω 7→ X (ω) ayant la propriété suivante : l’image réciproque de tout intervalle de type ]a, b] est un élément de la tribu E . ∀a < b,

C.Fiszka (Polytech’ Paris)

X −1 (]a, b]) ∈ E

Cours d’introduction aux Probabilités

19 / 78

Définition d’une loi de probabilité

Soit (Ω, E , P) un espace probabilisé et X une variable aléatoire réelle. On appelle loi de probabilité de X la probabilité, notée PX , image de P par X :  PX (]a, b]) = P X −1 (]a, b]) Remarque : on utilisera les notations suivantes : P(X ∈ A) := P({ω ∈ Ω | X (ω) ∈ A}) P(X = k) := P({ω ∈ Ω | X (ω) = k})

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

20 / 78

Définition d’une fonction de répartition Soit (Ω, E , P) un espace probabilisé et X une variable aléatoire réelle. La fonction de répartition de X est la donnée de :  R → [0, 1] FX : y 7→ PX (] − ∞, y ]) Quelques propriétés : la fonction est croissante et continue à droite. lim F = 1 et lim F = 0.

+∞

−∞

pour tout a < b PX (]a, b]) = FX (b) − FX (a) Une fonction de répartition caractérise la loi.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

21 / 78

Définition d’une v.a discrète X (Ω) := {X (ω) | ω ∈ Ω}

Définition On dit qu’une variable aléatoire est discrète lorsque X (Ω) est fini ou dénombrable. Remarques et exemple Si Ω est fini ou dénombrable, X est une v.a discrète. Pour connaitre la loi, il suffit de la connaître sur les singletons {x } car X P(X ∈ I) = P(X = x ) x ∈I

La Loi de Bernoulli P(X = 1) = p

et P(X = 0) = 1 − p = q

Loi uniforme discrète P(X = k) = C.Fiszka (Polytech’ Paris)

1 n

Cours d’introduction aux Probabilités

22 / 78

Définition d’une v.a continue Définition Une densité de probabilité est une fonction positive d’intégrale 1. Soit X une v.a.r et fX une densité de probabilité sur R. On dit que X est v.a continue de densité fX si pour tout intervalle [a, b] de R on a : Z

b

P(X ∈ [a, b]) =

fX (t) dt a

La fonction de répartition d’une variable aléatoire continue est la primitive de la densité dont la limite en −∞ est nulle. Z t FX (t) = P(X 6 t) = fX (u) du −∞

C’est une fonction continue sur R. En tout point t où fX est continue, FX est dérivable et d FX (t) = fX (t) dt C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

23 / 78

Exemples de v.a continues

Loi uniforme continue fX =

1 1[a,b] b−a

Loi normale centrée réduite N (0, 1) : 1 2 fX (t) = √ e −t /2 2π

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

24 / 78

Quantiles Définition On appelle p-quantiles pour p ∈ N∗ , les valeurs xk,p pour lesquelles F (xk,p ) =

k , p

k ∈ [[1, p[[

Remarques : Pour p = 2, on parle de médiane ; Les 3-quantiles sont appelés terciles ; Les 10-quantiles sont appelés déciles... Il n’y a pas unicité de xk,p . Pour avoir unicité, on peut poser :   k xk,p = g p où g est l’inverse généralisé de la fonction de répartition FX : g(u) := inf{x ∈ R | FX (x ) > u} C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

25 / 78

V.a de loi ϕ(X ) Supposons connue la loi de X (de densité fX ), on veut déterminer la loi de Y = ϕ(X ). Cas où ϕ est strictement croissante dérivable. FY (y ) = P[Y 6 y ] = P[ϕ(X ) 6 y ] = P[X 6 ϕ−1 (y )] = FX (ϕ−1 (y )) La densité correspondante est : fY (y ) =

d 1 FY (y ) = 0 −1 fX (ϕ−1 (y )) dy ϕ (ϕ (y ))

Dans le cas général, il faut étudier les ensembles ϕ−1 (] − ∞, y ])...

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

26 / 78

Exemples, loi du χ2

Supposons que X ∼ N (0, 1) ϕ une fonction affine ϕ(t) = σt + µ. ⇒

Y ∼ N (µ, σ)

ϕ la fonction carrée ϕ(t) = t 2 . ⇒

1 1 1 fY (y ) = √ √ e − 2 y 1R+∗ (y ) y 2π

est la loi du chi-deux à 1 degré de liberté X 2 (1).

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

27 / 78

Définition de l’indépendance de deux v.a.r

Définition X et Y sont indépendantes si pour tout couple (I, J) d’intervalles de R, on a : P ( (X ∈ I) ∩ (Y ∈ J) ) = P(X ∈ I) × P(Y ∈ J) Exercice : Donner un exemple et un contre-exemple dans le cas d’un lancer d’une paire de dés.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

28 / 78

Définition de l’espérance d’une v.a.r

Soit X une variable aléatoire réelle, l’espérance mathématique de X est (si elle existe) définie par : si X est une v.a.r discrète finie ou dénombrable E(X ) =

X

x P(X = x )

x ∈X (Ω)

si X est une v.a.r à densité fX : Z E(X ) =

t fX (t) dt R

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

29 / 78

Premières propriétés de l’espérance d’une v.a.r Soient X1 et X2 deux v.a.r et λ ∈ R, alors (Linéarité) E(X1 + λX2 ) = E(X1 ) + λE(X2 ) (Positivité) |E(X )| 6 E(|X |) Si X1 et X2 sont indépendantes : E(X1 × X2 ) = E(X1 ) × E(X2 ) Pour tout A ∈ E : P(X ∈ A) = PX (A) = E(1A (X )) Pour une fonction h : R 7→ R

E(h(X )) =

  

C.Fiszka (Polytech’ Paris)

P

h(x ) P(X = x )

en discret

x ∈X (Ω)

R R

h(t)fX (t) dt

Cours d’introduction aux Probabilités

en continu

30 / 78

Définition des moments d’une v.a.r Soit X une variable aléatoire réelle, le moment d’ordre s de X est (s’il existe) défini par ms (X ) := E(X s ) I

si X est une v.a.r discrète finie ou dénombrable X ms (X ) = x s P(X = x ) x ∈X (Ω)

I

si X est une v.a.r à densité f : Z ms (X ) :=

t s f (t) dt

R

La variance est donnée par :  Var(X ) = E (X − E(X ))2 > 0 L’écart type est donné par : σX = C.Fiszka (Polytech’ Paris)

p

Var(X )

Cours d’introduction aux Probabilités

31 / 78

Premières propriétés

Soient X1 et X2 deux v.a.r et a ∈ R, alors Var(aX + b) = a2 Var(X ) Si X1 et X2 sont indépendantes : Var(X1 + X2 ) = Var(X1 ) + Var(X2 ) 2

Var(X ) = E(X 2 ) − E(X )2 = m2 (X ) − m1 (X ) .

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

32 / 78

Inégalité de Markov et de Bienaymé-Tchebyshev

Théorème (Inégalité de Markov et de Bienaymé-Tchebyshev) Soit Z une v.a positive, alors : ∀ε > 0,

P(Z > ε) 6

E(Z ) ε

Soit X une v.a.r admettant un moment d’ordre 2 (E(X 2 ) < +∞) alors : ∀ε > 0,

P(|X − E(X )| > ε) 6

σX2 ε2

Preuve : il faut remarquer que Z > ε1{Z >ε} , puis prendre Z = |X − E(X )|.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

33 / 78

Lois discrètes : Loi uniforme U[[a,b]]

Définition :

 

X (Ω)

=

 P(X = k)

=

Caractéristiques : E(X ) =

n+1 2

[[a, b]] 1 n

où n

V (X ) =

= b−a+1

n2 − 1 12

Modélisation : Tirage au hasard d’une boule numérotée dans une urne comptant n boules notées de 1 à n.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

34 / 78

Loi de Bernoulli B(1, p)

Définition :

  

X (Ω)

= {0, 1}

P(X = 1) = p   P(X = 0) = 1 − p = q

Caractéristiques : E(X ) = p

V (X ) = pq

Modélisation : pour p = 1/2, lancer d’une pièce équilibrée.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

35 / 78

Loi Binomiale B(n, p) ( Définition :

X (Ω)

=

[[0, n]]  P(X = k) = kn p k (1 − p)n−k

Caractéristiques : E(X ) = np

V (X ) = npq

Modélisation : Expérience de n épreuves de Bernoulli indépendantes.

source : wiki C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

36 / 78

Loi de Poisson P(λ) Définition :

  

X (Ω)

  P(X = k) Caractéristiques : E(X ) = λ

= N = e −λ

λk k!

V (X ) = λ

Modélisation : Événement rare, temps d’attente à une caisse, appel téléphonique etc...

source : wiki C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

37 / 78

Loi Géométrique G(p)

( Définition :

X (Ω) P(X = k)

Caractéristiques : E(X ) =

1 p

= N =

(1 − p)k−1 p V (X ) =

q p2

Modélisation : Temps du premier échec. Modèle discret de la désintégration d’une particule radioactive (loi sans mémoire).

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

38 / 78

Loi Hypergéométrique H(n, p, A)

Soit p ∈ [0, 1], pA ∈ N et n 6 A.

Définition :

   

X (Ω)

   P(X = k)

=

[[0, n]]  pA

=

k

Caractéristiques : E(X ) = npq

qA n−k  A n



V (X ) = npq

A−n A−1

Modélisation : Tirage simultané.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

39 / 78

Lois continues : Loi uniforme U[a,b]

Définition :

   X (Ω)

= R

  f (x )

=

Caractéristiques : E(X ) =

1 1[a,b] (x ) b−a

a+b 2

V (X ) =

(b − a)2 12

Modélisation : Choix d’un point au hasard sur [a, b].

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

40 / 78

Loi exponentielle E(λ)

 Définition :

X (Ω) = R+ fλ (x ) = λe −λx 1R+∗ (x )

Caractéristiques : E(X ) =

1 λ

V (X ) =

1 λ2

Modélisation : Processus sans mémoire, désintégration atomique (datation au carbone 14).

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

41 / 78

Loi normale N (µ, σ)

Définition :

  

X (Ω)

  fµ,σ (x )

= R =

Caractéristiques : E(X ) = µ

− 1 √ e σ 2π

(x − µ)2 2σ 2

V (X ) = σ 2

Modélisation : Très importante en statistique (cf le théorème central limite).

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

42 / 78

Comment lire une table de la loi normale ?

u

0,00

0,01

0,02

...

0,0

0,500

0,504

0,508

...

0,1

0,539

0, 543

0,547

...

0,2 .. .

0,579

0,583

0,587

...

Exemple : pour u = 0, 11 = 0, 1 + 0, 01 ⇒ F (u) = P(X 6 u) ' 0, 543

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

43 / 78

Qu’est ce qu’un produit de convolution ? Cas fonctionnel : soient deux fonctions g, f : R 7→ C. Le produit de convolution noté f ∗ g est défini (sous réserve de convergence) par : Z +∞ Z +∞ (f ∗ g)(x ) = f (x − t) · g(t)dt = f (t) · g(x − t)dt −∞

−∞

Cas discret : soient deux suites u, v : N 7→ C. Le produit de convolution noté u ∗ v est défini (sous réserve de convergence) par : (u ∗ v )(n) =

∞ X m=−∞

C.Fiszka (Polytech’ Paris)

∞ X

u(n − m) · v (m) =

u(m) · v (n − m)

m=−∞

Cours d’introduction aux Probabilités

44 / 78

Propriétés du produit de convolution

Soient f , g et h trois fonctions et λ ∈ R : (Linéarité) f ∗ (g + λh) = f ∗ g + λf ∗ h (Commutativité) f ∗ g = g ∗ f Lien avec les distributions : δ0 ∗ f = f avec δ0 la masse de Dirac en 0. Lien avec la transformée de Fourier : F(f ∗ g) = F(f ) · F(g)

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

45 / 78

Somme (cas discret) Proposition Soient X , Y deux variables aléatoires discrètes indépendantes, la loi de la somme X + Y est donnée pour tout z ∈ N par : P P(Z = z) = x P(X = x ) × P(Y = z − x ) P = y P(Y = y ) × P(X = z − y ) Exemples : Donner la loi de la somme de deux v.a indépendantes suivant respectivement une loi P(λ) et P(µ). Donner la loi de la somme de deux v.a indépendantes suivant respectivement une loi B(n, p) et B(m, p).

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

46 / 78

Somme (cas continu)

Proposition Soient X , Y deux variables aléatoires indépendantes à densité fX et fY , la somme X + Y est une v.a à densité donnée par : fX +Y = fX ∗ fY Exemple : Donner la loi de la somme de deux v.a indépendantes suivant respectivement une loi N (µ, σ) et N (µ0 , σ 0 ).

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

47 / 78

Chapitre 3

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

48 / 78

Définition des fonctions caractéristiques La fonction caractéristique de la variable aléatoire X est : ρX (t) := E(e itX )

pour X une v.a. discrète, on a : ρX (t) =

X

e itx P(X = x )

x ∈X (Ω)

pour X une v.a continue de densité fX , on a : Z ρX (t) = e itu fX (u) du R

Remarque : dans le second cas, on reconnait une transformée de Fourier inverse de la fonction densité fX . C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

49 / 78

Premières propriétés ρX est continue sur R et majorée par ρX (0) = 1. ρaX +b (t) = e ibt ρX (at). Si X et Y sont indépendants alors : ρX +Y = ρX ρY Lien avec les moments Si E(X s ) < +∞ pour s ∈ N∗ alors (s)

ρX (0) = i s E(X s ) En particulier E(X ) = −iρ0X (0),

C.Fiszka (Polytech’ Paris)

00 Var (X ) = ρ02 X (0) − ρX (0)

Cours d’introduction aux Probabilités

50 / 78

Applications

Soient X et Y deux v.a.r. si

ρX = ρY

alors

PX = PY

La fonction caractéristique caractérise la loi d’une v.a.r.

Exercice : Trouver la loi de X + Y − Z où X ∼ N (0, 1), Y ∼ N (0, 2) et Z ∼ N (1, 3) (les variables sont indépendantes).

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

51 / 78

Exemples usuels en discret Pour a, b, n ∈ N, λ ∈ R+ ∗ et p ∈ [0, 1] Si X ∼ U([[a, b]]), alors b−a

ρX (t) =

X e iat e ikt b−a+1 k=0

Si X ∼ B(n, p), alors ρX (t) = (q + pe it )n Si X ∼ P(λ), alors ρX (t) = exp(λ(e it − 1)) Si X ∼ G(p), alors ρX (t) =

C.Fiszka (Polytech’ Paris)

pe it 1 − q e it

Cours d’introduction aux Probabilités

52 / 78

Exemples usuels en continu Pour a, b, µ ∈ R et λ, σ ∈ R+ ∗ Si X ∼ U([a, b]), alors ρX (t) =

e itb − e ita it(b − a)

Si X ∼ E(λ), alors  ρX (t) =

1−

it λ

−1

Si X ∼ N (µ, σ), alors   σ2 t 2 ρX (t) = exp µit − 2

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

53 / 78

Différents types de convergence On dira que X et Y deux v.a sont égales presque-partout si P(ω t.q X (ω) 6= Y (ω)) = 0

Définition (Les convergences) (Xn )n converge presque sûrement vers X si P(ω t.q lim Xn (ω) 6= X (ω)) = 0 n

La suite (Xn )n converge en probabilité vers X si pour tout ε > 0, on a : lim P(|Xn − X | > ε) = 0

n→∞

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

54 / 78

Convergence en loi Définition (Xn )n converge en loi vers X si les fonctions de répartition de Xn converge vers la fonction de répartition de X en tout point de continuité de cette dernière. pour des v.a discrètes convergent vers une v.a discrète : ∀x ∈ R,

lim P(Xn = x ) = P(X = x )

n→∞

pour des v.a. à densité fXn vers une v.a à densité fX ∀t ∈ R,

fXn (t) −→ fX (t) n→∞

Théorème (de Levy) Loi

Xn −→ X

simpl.

si et seulement si ρXn −→ ρX

où ρn (t) = E[e itXn ] C.Fiszka (Polytech’ Paris)

et ρ(t) = E[e itX ]

Cours d’introduction aux Probabilités

55 / 78

Liens entre ces différentes convergences : Convergence presque sûrement P(ω t.q lim Xn (ω) 6= X (ω)) = 0 n

⇓ Convergence en probabilité ∀ε > 0,

lim P(|Xn − X | > ε) = 0

n→∞

⇓ Convergence en loi lim P (Xn ∈ A) = P (X ∈ A) 1

n→∞

1. Pour tout A ∈ E dont la frontière ∂A vérifie P (X ∈ ∂A) = 0. C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

56 / 78

Lois des grands Nombres Théorème (Loi faible des grands Nombres) Soit Xi une suite v.a.r indépendantes et de même loi. Si de plus E(Xi2 ) < +∞, alors : n 1 X Proba. Xi −→ E(X1 ) Xn = n i=1 Remarque : preuve via Bienaymé-Tchebyshev. Application au Théorème de Bernoulli : Lorsque le nombre d’expériences aléatoires augmentent indéfiniment, la fréquence d’apparition Fn (A) de l’événement A converge en probabilité vers sa probabilité théorique p = P(A). ∀ε > 0,

C.Fiszka (Polytech’ Paris)

lim P(|Fn (A) − p| > ε) = 0 n

Cours d’introduction aux Probabilités

57 / 78

Une expérience : calcul des décimales de π.

Tirons des points uniformément dans un carré [0, 1]2 . Soit Xi une v.a valant 1 si le i-ème point tiré est dans le quart de disque et 0 sinon. On a P(Xi = 1) = π/4.

On s’attend à Fn =

Nombre de points dans le quart de disque Nombre de points tirés

'

π 4.

Plus généralement, on parle de Méthode de Monte-Carlo.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

58 / 78

Loi forte des grands Nombres Théorème (Loi forte des grands Nombres ) Soit Xi une suite v.a.r indépendantes et de même loi. Si de plus E(Xi2 ) < +∞. Alors : n 1X p.s Xn = Xi −→ E(X1 ) n i=1 Principe Shadok :

Plus ça rate, et plus on a de chances que ça marche. Exemple : Ils avaient calculé que leur fusée avait une chance sur un million de décoller, ils se sont donc dépêchés de rater les 999 999 premiers essais pour être sûrs que le millionième soit le bon. C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

59 / 78

Une expérience : la Planche de Galton.

Partons de X0 = 0. On définit Xi une v.a représentant la direction prise par la boule au i-ème étage (−1 pour gauche, +1 pour droite). La loi de X est P(Xi = −1) = n P Xi . De plus P(Xi = 1) = 21 . La position de la bille à la fin est donnée par S = i=1

les Xi sont indépendants. C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

60 / 78

Théorème de De Moivre-Laplace Théorème (de De Moivre-Laplace) Soit Sn une suite de v.a de loi Binomiale B(n, p), alors : Sn − np Loi −→ N (0, 1) √ npq Principe de l’approximation, P

Sn − np 6t √ npq

! ' FN (0,1) (t)

avec F la fonction de répartition de la loi normale centrée réduite. Meilleure approximation par « correction de continuité ». Visualisation via GeoGebra.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

61 / 78

Mise en pratique : les sondages

Le modèle : on considère une population de N individus et on sonde n personnes avec n  N. Supposons que 45% des gens soient pour, le reste étant contre. Questions : Q1 : Quelle est la probabilité pour que le sondage soit favorable ? Q2 : Combien de sondage faut-il faire pour en avoir au moins un favorable dans 95% des cas ?

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

62 / 78

Théorème central limite Théorème (central limite) Soit (Xn )n une suite de variables aléatoires indépendantes de même loi d’espérance µ et d’écart-type σ. Alors : n P i=1

Xn − nµ Loi √ −→ N (0, 1) σ n

Idées de la preuve. Une généralisation du théorème de De Moivre-Laplace. Principe de l’approximation.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

63 / 78

Application du TCL aux intervalles de confiance Partons de la répétition d’une expérience conduisant à l’observation des valeurs numériques x1 , . . . xn . La moyenne empirique est µ ˆ=

x1 + . . . xn n

Supposons la variance σ connue. "

σ σ I= µ ˆ − 1.96 × √ ; µ ˆ + 1.96 × √ n n

#

Avec 95% de chance, l’espérance appartient à I si n est « suffisament grand ». Si la variance est inconnue. On peut remplaçer σ par son approximation empirique σ ˆ " # σ ˆ σ ˆ I= µ ˆ − 1.96 × √ ; µ ˆ + 1.96 × √ n n C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

64 / 78

Exemple d’un sondage Voici les résultats d’un sondage IPSOS réalisé avant l’élection présidentielle de 2002 pour Le Figaro et Europe 1, auprès de 989 personnes, constituant un échantillon national représentatif de la population française. Dans cet échantillon, les intentions de vote au premier tour pour les principaux candidats sont les suivantes : 20% pour J. Chirac, 18% pour L. Jospin et 14% pour J.-M Le Pen. Les médias se préparent donc, au vu de ce sondage, pour un second tour entre J. Chirac et L. Jospin... Le 21 avril 2002, les résultats du premier tour des élections sont les suivants : 19.88% pour J. Chirac, 16.18% pour L. Jospin et 16, 86% pour J.-M Le Pen. Q. Le sondage permet-il de donner la composition du second tour à 95% de chance ?

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

65 / 78

Autres théorèmes de convergence

Théorème (Convergence de la loi de Binomiale vers la loi de Poisson) Soient Xn ∼ B(n, pn ) indépendantes tels que :  n → +∞ ⇒ npn → λ

Loi

Xn −→ P(λ)

Théorème (Convergence de la Loi Hypergéométrique vers la Binomiale) Soient Xn ∼ H(N, n, p) indépendantes tels que N → +∞. Alors Loi

Xn −→ B(n, p) N→+∞

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

66 / 78

Exercice partiel ELI 2012

En France, il y a environ 1 punk pour 1000 personnes. Dans une salle de 3000 personnes choisies au hasard dans la population, quelle est la probabilité de tomber sur un groupe d’au moins 3 punks ? Indication : on pourra approximer le problème par une loi de Poisson.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

67 / 78

Un théorème limite Soit (An )n∈N une suite d’événements, on pose : \ [ lim sup An = ( Ak ) n∈N

n>0 k>n

Lemme (De Borel-Cantelli) Si

P

P(An ) < +∞ alors P(lim supn∈N An ) = 0.

n∈N

Si les événements sont indépendants alors

P

P(An ) < +∞ implique

n∈N

P(lim supn∈N An ) = 1. • Exemple : Le singe dactylographique.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

68 / 78

Chapitre 4

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

69 / 78

Un exemple discret et les aiguilles de Buffon • On considére deux Tirages indépendants et uniformes dans [[1, 4]] X = T1

et Y = max(T1 , T2 )

• On veut calculer la probabilité pour qu’une aiguille lancée de manière aléatoire coupe la ligne de séparation entre deux lames de parquet (supposées infinies en longueur).

θ suit une loi uniforme continue sur [0; π/2] x suit une loi uniforme continue sur [0; L/2] C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

70 / 78

Fonctions de répartition Définition Soient X , Y deux v.a définies sur un espace probabilisé (Ω, E , P). On définit La fonction de répartition conjointe de X et Y par : FXY (x , y ) = P ((X 6 x ) ∩ (Y 6 y )) Les fonctions de répartition marginales de X et Y par : • FX (x ) = FXY (x , +∞) = P(X 6 x ) • FY (y ) = FXY (+∞, y ) = P(Y 6 y ) X et Y sont indépendantes si et seulement si ∀(x , y ),

C.Fiszka (Polytech’ Paris)

FXY (x , y ) = FX (x )FY (y )

Cours d’introduction aux Probabilités

71 / 78

Lois conjointes et marginales (cas discret) Soient X , Y deux v.a discrètes définies sur un espace probabilisé (Ω, E , P). X (Ω) = {xn | n ∈ I},

Y (Ω) = {yn | n ∈ J}

La loi conjointe du couple (X , Y ) est donnée par : P(xi , yj ) = P ((X = xi ) ∩ (Yj = yj )) Les lois marginales désignent les lois de X et Y X P ((X = xi ) ∩ (Yj = yj )) • P(X = xi ) = j∈J

• P(Y = yj ) =

X

P ((X = xi ) ∩ (Yj = yj ))

i∈I

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

72 / 78

Lois conjointes et marginales (cas continu) Soient X , Y deux v.a continue définies sur un espace probabilisé (Ω, E , P). On dira que le couple (X , Y ) admet une densité notée fX ,Y si : FX ,Y est deux fois dérivable par rapport à x et y fX ,Y =

∂ 2 FX ,Y ∂x ∂y

On définit les densités marginales de probabilité de X et Y respectivement par : Z +∞ fX ,Y (x , v ) dv fX (x ) = −∞

Z

+∞

fY (y ) =

fX ,Y (u, y ) du −∞

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

73 / 78

Propositions Ry f (u, v ) du dv −∞ −∞ X ,Y

FX ,Y (x , y )

=

Rx

FX (x )

=

Rx

R +∞ f (u, v ) du dv −∞ −∞ X ,Y

Si D est une partie « mesurable » de R2 : ZZ ZZ P ( (X , Y ) ∈ D ) = fX ,Y (u, v ) du dv =

1D fX ,Y (u, v ) du dv R2

D

Si X et Y sont indépendantes : fX ,Y (u, v ) = fX (u)fY (v ) Application : Il y a intersection entre l’aiguille et une des lignes si x6

L sin θ 2

P(« L’aiguille intersecte la ligne ») = C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

2L πl 74 / 78

Covariance Définition On définit la covariance d’un couple (X , Y ) par : cov(X , Y ) = E ( (X − E(X ))(Y − E(Y )) )



cov(X , Y )

=

RR

cov(X , Y )

=

P

R2 i,j

(u − E(X ))(v − E(Y ))fX ,Y (u, v ) du dv

continu

pi,j (xi − E(X ))(yj − E(Y ))

discret

où pi,j = P ((X = xi ) ∩ (Yj = yj )). On a alors : V (X + Y ) = V (X ) + V (Y ) + 2 cov(X , Y )

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

75 / 78

Coefficient de correlation

Définition On définit le coefficient de correlation d’un couple (X , Y ) par : ρ(X , Y ) =

cov(X , Y ) σX σY

Remarque : Deux v.a indépendantes sont décorrélées : X , Y indépendantes ⇒ ρ(X , Y ) = 0 Mais l’inverse est faux.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

76 / 78

Lois conditionnelles pour des v.a à densité

Lorsque cela a un sens, on défnit la fonction de répartition conditionnelle de la variable aléatoire Y pour X = x par : F (y | x ) = lim P(Y 6 y | a < x 6 b) = a,b→x

1 fX (x )

Z

y

fXY (x , v ) dv −∞

et la densité de probabilité conditionnelle de la variable aléatoire Y pour X = x par : ∂F (y | x ) f (y | x ) = ∂y

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

77 / 78

FIN ! ! Références Polycopié de cours, Claire LeGoff Probabilités, Analyse de Données statistiques, G.Saporta Probabilité pour non-probabilistes, W.Apfel Exercices de probabilité, Cotterel/Genon-Catalot/Duhamel/Meyre Statistiques en action, Rivoirard et Stoltz.

C.Fiszka (Polytech’ Paris)

Cours d’introduction aux Probabilités

78 / 78

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF