Introduction aux probabilités et aux statistiques

January 14, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Introduction aux probabilités et aux statistiques...

Description

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Introduction aux probabilités et aux statistiques; De la pratique aux modèles généraux

Manuel Samuelides, Professeur à l’ISAE [email protected]

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Plan de l’exposé 1

Introduction Objectifs de l’exposé Ce que nous savons tous sur les probas

2

Modèles d’états classiques Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

3

Théorèmes de convergence (fondamentaux en statistique)

4

Estimation statistique Estimation statistique

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Objectifs de l’exposé Ce que nous savons tous sur les probas

Outline 1

Introduction Objectifs de l’exposé Ce que nous savons tous sur les probas

2

Modèles d’états classiques Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

3

Théorèmes de convergence (fondamentaux en statistique)

4

Estimation statistique Estimation statistique

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Objectifs de l’exposé Ce que nous savons tous sur les probas

Objctifs de l’exposé La statistique est un ensemble de techniques permettant de traiter des données qualitatives et numériques pour en extraire de l’information: calculs de moyenne, d’écart-types, de droite des moindres carrés. Les probabilités élémentaires permettent d’effectuer des calculs similaires sur les variables aléatoires de lois discrètes ou à densité. La cohérence n’est assurée qu’en introduisant des représentation d’états et en considérant les variables aléatoires comme fonctions des d’état. Pour effectuer des calculs efficaces, il faut choisir le bon modèle d’état qui n’est pas unique et savoir en changer en tant que de besoin. Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Objectifs de l’exposé Ce que nous savons tous sur les probas

Outline 1

Introduction Objectifs de l’exposé Ce que nous savons tous sur les probas

2

Modèles d’états classiques Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

3

Théorèmes de convergence (fondamentaux en statistique)

4

Estimation statistique Estimation statistique

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Objectifs de l’exposé Ce que nous savons tous sur les probas

Variable aléatoire discrète On considère une "variable aléatoire" notée X prenant un nombre fini ou dénombrable de valeurs P réelles (xi ) avec la probabilité pi . On a ∀i, 0 < pi < 1 et ∞ i=1 pi = 1. On notera P(X = xi ) = pi . La valeur moyenne de X s’appelle P espérance est notée E(X ) et se calcule par E(X ) = i pi xi . La variation de X au cours de sa moyenne est quantifiée par la variance de X notéeP Var(X ) et égale à 2 Var(X ) = E(X − E(X )) = i pi (xi − E(X ))2 La racine carrée de la variance de X est appelée écart-type de X et est parfois notée σX Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Objectifs de l’exposé Ce que nous savons tous sur les probas

Exemple: lancer d’un dé X 1 2 3 4 5 1 1 1 1 1 P(X = .) 6 6 6 6 6 (X − 3.5)2 6.25 2.25 0.25 0.25 2.25  E(X ) = 3.5  Var(X ) = 2.92 On obtient  σX = 1.71 On dit que X a une loi de probabilité uniforme sur {1, 2, 3, 4, 5, 6}

6 1 6

6.25

Remarque On aurait pu considérer la variable aléatoire Y = (X − E(X ))2 qui a une loi uniforme sur {0.25, 2.25, 6.25} pour calculer la variance de X . Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Objectifs de l’exposé Ce que nous savons tous sur les probas

Sens de l’énoncé probabiliste Le sens courant d’un énoncé du type P(X ∈ A) = p où X est une variable aléatoire rélle et A un sous-ensemble de R est que si nous sommes capable de répéter un grand nombre de fois de façon indépendante l’expérience aléatoire permettant de mesurer X , la fréquence empirique de l’observation de l’évènement aléatoire X ∈ A tend à se stabiliser autour de p. C’est la définition objective des probabilités. Par extension, l’énoncé P(X ∈ A) = p peut s’interprêter comme l’acceptation d’un pari sur l’occurence de l’évènement (X ∈ A) de p contre 1 − p. C’est la définition subjective des probabilités. Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Objectifs de l’exposé Ce que nous savons tous sur les probas

Variable aléatoire à densité On considère une "variable aléatoire" notée X prenant ses valeurs dans R, telle que on puisse énoncer Z ∀(a, b), P(X ∈]a, b]) =

b

f (x)dx a

f est une fonction positive d’intégrale 1 appelé densité de probabilité de X . R∞ On calcule E(X ) quand il existe par E(X ) = −∞ xf (x)dx De même, la variance de X notée R ∞ Var(X )est donnée parVar(X ) = E(X − E(X ))2 = −∞ (xi − E(X ))2 f (x)dx p L’ écart-type de X noté σX est défini par σX = Var(X ) Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Objectifs de l’exposé Ce que nous savons tous sur les probas

Exemple: choix d’un point au hasard On choisit un point au hasard dans l’intervalle [0, 1] La ddp de X est la fonction 1[0,1] R1 E(X ) = 0 xdx = 12 , R1 Var(X ) = 0 (x − 12 )2 dx = 13 − 12 +

1 4

=

1 12

Remarque On aurait pu aussi calculer la ddp de Y = (X − 12 )2 : √ √ ∀a, 0 ≤ a ≤ 0.25, P(X −0.5)2 ≤ a = P(0.5− a ≤ X ≤ 0.5+ a) R a dy √ √1 P(Y ≤ a) = 2 a = 0 √ y . La ddp de Y est y sur [0, 0.25] Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Objectifs de l’exposé Ce que nous savons tous sur les probas

Premières conclusions La modélisation d’une variable aléatoire par sa loi de probabilité sur R permet de calculer la probabilité de tout événement défini à partir de cette variable aléatoire et la valeur moyenne de toute fonction (mesurable) de cette variable aléatoire. Type Discret Densité

Probabilité P P(X ∈ A) = xi ∈A P(X = xi ) R P(X ∈ A) = A h(x)dx

Valeur moyenne de f P E(f (X )) = i P(X = xi )f (xi R E(f (X )) = f (x)h(x)dx

La modélisation d’une variable aléatoire par sa loi de probabilité n’est pas satisfaisante et ne permet pas de traiter le cas simultané de plusieurs variables aléatoires. Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Outline 1

Introduction Objectifs de l’exposé Ce que nous savons tous sur les probas

2

Modèles d’états classiques Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

3

Théorèmes de convergence (fondamentaux en statistique)

4

Estimation statistique Estimation statistique

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Modèle d’états aléatoire La base d’un modèle probabiliste est l’espace d’états Ω qui doit satisfaire les conditions suivantes: 1 2

3

Tout état possible ω du système est élément de Ω, Tout observable, mesure, grandeur d’intérêt peut être définie comme fonction d’état sur Ω, Ω est muni d’une structure mathématique (tribu F des événements aléatoires) permettant de définir une probabilité P sur Ω

Dans les cas simples que nous étudierons, Ω est un ensemble dénombrable ou une partie régulière d’un espace vectoriel réel de dimension finie.

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Dilemme du choix de l’espace d’états

Il n’y a pas de représentation d’états unique en probabilité. Pour effectuer un calcul ou une étude donnée, on peut choisir un espace d’états plus restreint , pour fusionner dexu expériences, on, peut étendre les espaces d’états initiaux par somme, produit, ou limite...

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Exemple de la somme de variables aléatoires Problème Soit (X1 , ..., Xn ) un vecteur aléatoire à valeurs dans Rn de loi P. Quelle est la loi de probabilité de S = X1 + ... + Xn ? En général P(S ≤ s) = P(Xn ≤ s − X1 − ...Xn−1 ). Si P a une densité f sur Rn , S a une densité sur R égale à Z Z s → ... f (x1 , ...., xn−1 , s − x1 − ... − xn−1 )dx1 ...dxn−1 En particulier si n = 2 et que X1 et X2 sont indépendantes, la densité de (X1 , X2 ) est (x1 , x2 ) → f (x1 )g(x2 ) et la densité de S est le produit de convolution de f par g soit Z s → f (x)g(s − x)dx Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Exemple de la régression linéaire Problème Soit (X , Y ) un vecteur aléatoire de R2 du second ordre. Trouver a et b minimisant le résidu quadratique E(Y − (ax + b)2 ). La solution réside dans la projection orthogonale de Y sur le sous-espace de Hilbert de L2 de dimension 2 engendré par 1 et X ) Une base orthonormale de cet espace est (1, X −E(X ). σX

La projection est donc ) ) ( X −E(X | Y ) X −E(X ) + (1 | Y )1 = Cov(X , Y ) X −E(X ) ) + E(Y ) σX σX Var(X ) C’est la fameuse droite des moindres carrés. Le problème se généralise en dimension supérieure. Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Outline 1

Introduction Objectifs de l’exposé Ce que nous savons tous sur les probas

2

Modèles d’états classiques Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

3

Théorèmes de convergence (fondamentaux en statistique)

4

Estimation statistique Estimation statistique

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Définition de la loi binomiale

Soit (X1 , ..., Xn ) n variables aléatoires iid (indépendantes, identiquement distribuées) à valeurs dans {0, 1} telles que P(Xi = 1) = p La loi de S = X1 + ... + Xn est une  loibinomiale de n paramètres n et p: P(S = k ) = pk (1 − p)n−k k  E(S) = np On a Var(S) = np(1 − p)

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Exemple d’application Problème n machines fonctionnent en parallèle. Chacune a une probabilité p de tomber en panne et doit alors être remplacée par une machine en stock sous peine d’un coût par défaillance de K > 1. Le coût d’un stock de k machines est k . Quel doit être le stock optimal pour le critère du coût moyen ?   n X n pj (1 − p)n−j (j − k )K C(k ) = k + j j=k +1

  n X n k < n ⇒ C(k + 1) − C(k ) = 1 − K pj (1 − p)n−j j j=k +1

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Outline 1

Introduction Objectifs de l’exposé Ce que nous savons tous sur les probas

2

Modèles d’états classiques Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

3

Théorèmes de convergence (fondamentaux en statistique)

4

Estimation statistique Estimation statistique

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Définition d’un vecteur gaussien La loi gaussienne N (m, σ) est la loi de probabilité sur R de densité x →

√1 e 2πσ



(x−m)2 2σ 2

Si X ∼ N (m, σ) alors E(X ) = m et Var(X ) = σ 2 On appelle vecteur aléatoire gaussien un vecteur aléatoire X dans Rn tel que ∀u ∈ Rn , (u | X ) est gaussien. R On définit E(X ) = X (ω)dP(ω) et ΓX = Cov(X ) = E(X ⊗ X ) − E(X ) ⊗ E(X ). Si la matrice de covariance d’un vecteur gaussien (n, 1), ΓX est régulière, densité  ce vecteur a pour 

x→√

1 (2π)n |ΓX |

exp −

(x−E(X ))∗ Γ−1 X (x−E(X ) 2

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Propriétés des modèles gaussiens Une loi gaussienne sur Rn est complètement définie par son espérance et sa matrice de covariance. En particulier, si la covariance de deux transformées linéaires d’un vecteur gaussien est nulle, ces vecteurs sont indépendants On a la stabilité linéaire du modèle gaussien: ~ , Γ) ⇒ AX + ~b ∼ N (Am ~ + ~b, AΓA∗ ) X ∼ N (m En particulier la régression linéaire d’un vecteur gaussien sur une de ses projections a un résidu gaussien. Ce résidu est indépendant du vecteur de projection. Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Exemple de modèle gaussien: le filtre de Kalman On commande une trajectoire cible affine à temps discrets entachée d’une incertitude gaussienne en s’appuyant sur des mesures liéaires de positions entachées de bruits de mesure gaussiens  Xt+1 = At+1 (ut+1 )Xt + Bt+1 (ut+1 ) + Vt+1 Yt = CXt + Wt+1 Comment estimer au mieux la position du mobile ? Comment déterminer la meilleure commande pour se rapprocher d’un objectif-cible ou d’une trajectoire-cible ? Des cas particuliers très simples (translation) sont faisables rapidement en utilisant les propriétés élementaires du modèle gaussien. Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Outline 1

Introduction Objectifs de l’exposé Ce que nous savons tous sur les probas

2

Modèles d’états classiques Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

3

Théorèmes de convergence (fondamentaux en statistique)

4

Estimation statistique Estimation statistique

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Propriétés élémentaires du processus de Poisson On considère une suite de variables aléatoires réelles positives iid Vi de densité exponentielle de paramètre λ: t ∈ R+ → λe−λt d’espérance λ1 et d’écart-type λ1 . Ces loi représentent les intertemps d’occurence d’un phénomène aléatoire se répétant (arrivées de clients, appels à un central...) On montre que si N[a,b] est le nombre d’occurences dans l’intervalle de temps [a, b], N[a,b] suit une loi de Poisson d’espérance λ(b − a) et de variance λ(b − q) et que les nombres d’occurence associées à des intervammes de temps disjoints sont indépendants. Ce processus aléatoire est appeléz le processus de Poisson de paramètre λ. Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

Exemple de file d’attente On considére des clients arrivant suivant un processus de Poisson de paramètre λ à un centre de service. Ces clients sont pris en charge par p serveurs travaillant indépendamment et satisfaisnat le client au bout d’un temps de service suivant une loi exponentielle de paramètre µ. Les clients arrivant alors que otus les serveurs sont occupés forment une file d’attente en attendant qu’un serveur se libère. Si la longueur de cette file est bornée, les clients sont perdus. De nombreuses questions peuvent se poser et notamment l’identification d’un régime stationnaire (longueur de file d’attente, temps d’attente moyen....) Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Convergence des variables aléatoires et des lois de probabilité Une suite de lois de probabilité Pn sur Ω converge faiblement vers P si pour R R toute variable aléatoire bornée X , on a X (ω)dPn (ω) → X (ω)dP(ω) Une suite de variables aléatoires Xn converge en probabilité vers X si ∀ > 0, P(k Xn − X k> ) → 0 La convergence en probabilité des variables aléatoires entraîne la convergence faible de leurs lois de probabilité. La convergence en moyenne ou en moyenne quadratique (mq) des variables aléatoires entraîne leur convergence en probabilité Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Loi des grands nombres Soit Xn une suite iid de variables aléatoires de L2 , la n moyenne empirique X n = X1 +...+X converge en mq vers n E(X ). La loi des grands nombres en mq entraîne la loi faible des grands nombres La vitesse de convergence est un souci pratique important. En pratique la vitesse théorique de pire cas en √1n est très sous-estimée (voir théorème central-limite). On a P(| X − E(X ) |> 3σX ) < 0.12 mais si X est gaussien P(| X − E(X ) |> 3σX ) < 0.003

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Théorème central-limite Théorème Soit Xn une suite iid de variables aléatoires de L2 , la suite ) √ converge faiblement vers la loi de Gauss centrée Zn = X nσ−E(X X n réduite N (0, 1). La loi des grands nombres et le théorème central limite ne sont pas seulement valables pour les suites iid (échantillons statistiques classiques) mais s’étendent à de nombreux processus stationnaires ergodiques (en particulier aux processus de Markov) )

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Estimation statistique

Outline 1

Introduction Objectifs de l’exposé Ce que nous savons tous sur les probas

2

Modèles d’états classiques Généralités sur les modèles Modèles binomiaux Modèles gaussiens Modèles de files d’attente

3

Théorèmes de convergence (fondamentaux en statistique)

4

Estimation statistique Estimation statistique

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Estimation statistique

Définition de l’estimation paramétrique On veut estimer le(s) paramètre(s) λ d’une loi de probabilité à partir d’un échantillon de cette loi par exemple (X1 , ..., Xn ) un échantillon iid de taille n Si la paramètre est l’espérance de la loi, la moyenne empirique X n est un estimateur naturel. Pn  2 De même la variance empirique Sn2 = n1 i=1 (Xi − X n ) est un estimateur naturel de la variance de la loi. Plus généralement, on appelle estimateur Tn = Fn (X1 , ..., Xn ) toute fonction de l’échantillon dans l’espace de valeurs du paramètre (ou suite de fonctions indexée par la taille de l ’échantillon si elle est variable)

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Estimation statistique

Propriétés élémentaires de l’estimation paramétrique On appelle biais de l’estimateur Tn la quantité Biais(Tn ) = E(Tn ) − λ Par exemple Biais(X n ) = 0 et on peut prouver 2 Biais(Sn2 ) = − σn On montre facilement (Huygens probabiliste) E(Tn − λ)2 = Biais(Tn )2 + Var(Tn ) A la démarche traditionnelle consistant à rechercher l’ESBM (estimateur sans biais de variance minimale) on préfère la démarche du compromis biais- variance consistant à utiliser une connaissance incertaine (donc biaisée) pour r’eduire la variance surtout si le nombre d’observations est faible. Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

Introduction Modèles d’états classiques Théorèmes de convergence (fondamentaux en statistique) Estimation statistique

Estimation statistique

Estimateur du maximum de vraisemblance La vraisemblance d’un échantillon donné (x1 , ..., xn ) est la fonction qui associeau paramètre λ la probabilité (discrète) de l’échantillon ou sa densité de probabilité: `(λ, x1 , ..., xn ) = f (x1 , λ)...f (xn , λ) L’estimateur du maximum de vraisemblance (MLE) est l’estimateur associant à l’échantillon la valeur du paramètre maximisant la vraisemblance de cet échantillon: ˆ = arg max `(λ, x1 , ..., xn ) λ λ

Manuel Samuelides, Professeur à l’ISAE [email protected] aux probabilités et aux statistiques;

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF