STATISTIQUES IUT PREMIERE PARTIE

January 16, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download STATISTIQUES IUT PREMIERE PARTIE...

Description

1

PREMIERE PARTIE NOTIONS ELEMENTAIRES DE STATISTIQUE PROBABILISTE

1. Définitions de la probabilité Afin d'éviter des démonstrations très théoriques, nous donnons les définitions tirées de la norme NF X06-002. a) Définition déterministe de la probabilité (ou à priori) Lors de la réalisation d’un événement dont le nombre d’issues favorables peut être calculé au moyen de l’analyse combinatoire (compte tenu de l’hypothèse d’équiprobabilité des issues), on définit la probabilité de cet événement par le rapport du nombre d'issues favorables (h) au nombre d'issues possibles (n) :

P=

h n

C’est la définition classique que l’on utilise pour évaluer les issues d’un jeu de hasard. Exemple : La probabilité pour obtenir "pile" après un lancé d’une pièce parfaitement symétrique est de 0,5. b) Définition empirique de la probabilité Si après un grand nombre de réalisations d’une expérience (n réalisations) on observe h fois l’issue souhaitée, la probabilité de cet événement est la limite de la fréquence des observations de l'issue souhaitée :

 h P = n lim → ∞  n  En réalité, la fréquence observée en fonction de n oscille autour de sa valeur théorique et s'en rapproche indéfiniment lorsque n→∞ conformément à la "loi des grands nombres".

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

2 2. Variables aléatoires a) Définition Considérons un événement comportant un certain nombre d’issues. Si on associe un nombre à chaque issue, ou à chaque ensemble d’issues, ce nombre est appelé variable aléatoire ou aléa numérique. On la note par une lettre majuscule X, par contre les valeurs particulières de la variable aléatoire sont notées x ou xi. Exemple : jeu de pile ou face : Les issues du jeu sont "pile" ou "face". On peut associer à "pile" X = 1 et à "face" X = -1 ou encore 0 et 1 ou tout autre nombre. X est alors une variable aléatoire. b) Continuité et discontinuité d’une variable aléatoire, notion de densité de probabilité ♦ Variable discontinue ou discrète C’est une variable qui ne peut prendre que des valeurs isolées séparées par un intervalle fini, c’est-à-dire non infinitésimal. Elle est généralement représentée par un entier. On peut associer une probabilité à une variable aléatoire discrète. ♦ Variable continue C’est une variable qui peut prendre toutes les valeurs d’un intervalle fini ou infini. Cela signifie que la différence entre deux valeurs voisines peut être aussi petite que l’on peut l’imaginer. C’est un nombre réel. On ne peut pas associer une probabilité à une variable aléatoire continue. La probabilité pour que X prenne une valeur particulière x dans R (l'ensemble des nombres réels) est toujours nulle. Par contre on peut associer à x une densité de probabilité f(x) et on peut associer à un intervalle [x, x+∆x] une probabilité non nulle. La densité de probabilité est définie de la même manière que la densité d’un milieu continu.

Fig.1

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

3

f(x) = lim

P(x ≤ X ≤ x + ∆x)

∆x→0

∆x

Si l’intervalle est assez petit pour qu’on puisse considérer f(x) comme constant :

P(x ≤ X ≤ x + ∆x) = f(x) ∆x

On constate bien que cette probabilité tend vers 0 lorsque ∆x tend vers 0. Exemple : On s’intéresse à la taille des personnes d’un certain âge. Si la taille est considérée comme une variable aléatoire continue, donc un nombre réel (un nombre réel est un nombre infiniment précis), rien n’empêche d’examiner la probabilité pour rencontrer un individu de taille 1,7500 m ou même 1,7543 m. La probabilité de rencontrer dans la population une valeur numérique aussi précise est nulle. Il est d’ailleurs impossible de mesurer la taille d’une personne avec une telle précision. Par contre il existe un certain nombre d’individus ayant une taille comprise entre 1,75 et 1,76 m si l’échantillon est suffisamment grand. Il faut donc "discrétiser" une variable aléatoire continue pour pouvoir en définir une probabilité non nulle. 3. Généralités sur les lois de probabilités a) Définition Une loi de probabilité est une relation permettant d’associer une probabilité ou une densité de probabilité à chaque valeur d’une variable aléatoire. b) Représentation d’une loi de probabilité Si la variable est discrète : représentation comme un diagramme en bâtons. p(x)

X Fig. 2 Diagramme en bâtons

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

4

- Pour une variable continue on représente la fonction densité de probabilité (voir figure 1) c) Fonction de répartition d’une loi de probabilité La fonction cumulative de distribution, ou plus simplement fonction de distribution F ou fonction de répartition F est définie par :

F(x) = P(X < x)

d) Représentation graphique de la fonction de répartition La courbe est encore appelée "courbe des probabilités cumulées". Dans le cas d’une loi continue F(x) représente la surface délimitée par la courbe représentation de la loi entre - ∞ et l’abscisse x.

Fig. 3 Lois de probabilité et fonctions de répartition (variables discrètes et continues) e) Fractile d'ordre α : t(α) Dans le cas d’une loi continue le fractile t(α) est l’abscisse x telle que la surface délimitée par la loi de probabilité entre - ∞ et t(α) soit égale à α. Les fonctions F(t) et t(α) sont des fonctions réciproques l’une de l’autre.

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

5

Si tα est le fractile d’ordre α on a les relations :

P( X ≤ t α) = α

P( X ≥ t α ) = 1 - α ou F(t α) = α

Fig. 4 Fractile tα d’une loi statistique encore appelé “ fractile inférieur ”

Fig. 5 Fractile t(1-α) d’une loi statistique encore appelé “ fractile supérieur ”

On s’intéresse également au fractile t(1-α) qui joue le même rôle que tα sur la partie des x élevés (Fig5). On démontre que :

P( X ≥ t 1-α) = α

P( X ≤ t 1-α) = 1 - α ou 1 - F(t 1-α) = α

Si la loi statistique est symétrique et centrée on a la relation tα = -t(1-α) Les fractiles symétriques délimitent chacun une surface extérieure de α/2. La surface totale intérieure à l’intervalle interfractile est 1-α.

Fig. 6 Fractiles symétriques Remarques :

les fractiles des lois de probabilités ont une importance considérable dans les

tests statistiques. Les lois de probabilités discrètes n’ont pas de fractiles

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

6 4. Paramètres statistiques des variables aléatoires a) Espérance mathématique ♦ Définition L'espérance mathématique est un paramètre de position (ou paramètre de tendance centrale) défini par les relations ♦ Variable discrète N

E(X) =

∑ Xi .P(Xi ) i =1

Les indices 1 à N doivent englober tout le domaine de variation de X. Variable continue ♦ Variable continue +∞

E(X) =

∫ X f(X)

dX

−∞

Physiquement, l'espérance mathématique est le centre de gravité de la loi de probabilité. Fig. 7 Signification physique de l’espérance mathématique



Quelques propriétés de l’espérance mathématique E (α) = α

(α est une constante)

E (αX + βY) = αE(X) + βE(Y) Par contre E(XY) = E(X) . E(Y) uniquement si les variables x et y sont indépendantes. La variable Z = X - E(X) est appelée variable aléatoire centrée. Son espérance mathématique est nulle.

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

7 b) Variance et écart-type ♦ Définitions La variance est l’espérance du carré de la variable centrée.

V(X) = E((X - E(X))2)

Pour une variable discrète n

V(X) =

∑ P(Xi )(Xi − E(X))2 i =1

Pour une variable continue ∞

V(X) =

∫ (x − E(x)) 2 f(x)dx

−∞

Enfin, l’écart-type est la racine carrée de la variance.

σ = V(X) La variance et l’écart-type sont des paramètres de dispersion. Physiquement, la variance est assimilable à un moment d'inertie (les masses étant égales aux probabilités) et l’écart-type est assimilable à un rayon de giration. •

Quelques propriétés de l’espérance mathématique V(αX) = α2 V(X)

Pour deux variables aléatoires indépendantes V(X + Y) = V(X) + V(Y) V(X - Y) = V(X) + V(Y) Les propriétés d’additivité ne s’appliquent qu’aux variances ; Elles ne s’appliquent pas aux écarttypes. (une somme σ(X) + σ(Y) n’a aucun sens statistique)

La variable aléatoire Z =

X − E( X ) admet une espérance nulle et une variance de 1, Z est appelée σ

variable centrée et réduite (ou variable normalisée).

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

8

c) Moments d’ordre supérieur, dissymétrie et aplatissement ♦ Définitions On appelle moment d’ordre n la grandeur :

Mn = E (Xn) Le moment centré d’ordre n est le moment d’ordre n de la variable centrée :

µn = E[(X - E(X))n] On a donc

M1 = E(X) , µ1 = 0 et µ2 = V(X) Tous les moments centrés d’ordre impair (>1) donnent une indication sur la dissymétrie de la loi de probabilité. On n’utilise que le moment d’ordre 3 et on appelle coefficient d’asymétrie le coefficient :

β =

µ3 µ2

µ3 = 3 2 σ3

Le coefficient d’asymétrie est une grandeur sans dimension, sa valeur donne une idée de l’importance de la dissymétrie et son signe montre si la dissymétrie provient de valeurs élevées de X (dissymétrie à droite ) ou des valeurs petites de X (dissymétrie à gauche). Tous les moments centrés d’ordre pair sont des variables de dispersion. On n’utilise que le moment

µ4 et son coefficient associé, le coefficient coefficient de Kurtosis ou aplatissement comparé à la loi Normale qui est également sans dimension:

µ µ δ = 4 − 3= 4 − 3 µ 22 σ4 Ce facteur permet donc de montrer qu’une distribution est plus aplatie ou moins aplatie qu’une distribution gaussienne, toutes choses égales par ailleurs (même espérance et même variance).

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

9 d) Autres paramètres de position ♦ Mode Le mode est la valeur de X dont la probabilité est maximale. Cette valeur peut ne pas être unique. Une distribution unimodale est une distribution n’ayant qu’un seul mode, sinon elle est bimodale, trimodale ou multimodale. ♦ Médiane La médiane Med est la valeur de x pour laquelle

P (X ≤ x) = P (X ≥ x) =

1 2

Pour une distribution continue c’est la valeur qui sépare la courbe de densité de probabilité en deux portions de surface égale. La médiane est le fractile d'ordre

1 2

5. Etude de quelques lois de probabilités discrètes a) Loi de Binomiale ♦ Réalisation On considère un jeu comportant 2 issues : - une issue favorable S avec la probabilité p - une issue défavorable S avec la probabilité q = 1 - p On fait n réalisations du jeu de façon que les épreuves soient indépendantes. On veut calculer la probabilité pour avoir k issues favorables appelées S, sans tenir compte de l’ordre de leur réalisation. Probabilité pour la réalisation de S : pk Probabilité pour n - k réalisations de S : (1 - p)n-k Probabilité pour que S se réalise k fois et S

n - k fois : pk (1 - p) n-k

(Si on n’associe pas n-k réalisations de S à k réalisations de S, le nombre total de réalisations est variable et ne dépend pas de n, parce que l’ordre des réalisations est indifférent) k Nombre de combinaisons de k objets parmi n : C n

P(X = k) = Cknpk (1− p)n−k

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

10

♦ Paramètres statistiques

E(X) = np V(X) = np(1- p) σ = np(1- p)

♦ Coefficients d’asymétrie et d’aplatissement

β=

q−p npq

γ = 3+

1 − 6pq npq

♦ Représentation graphique On représente la loi binomiale à l’aide d’un diagramme en bâtons. Le diagramme est symétrique lorsque p = q = 0,5 . Dans ce cas, la médiane et le mode sont égaux à E(X). Lorsque p Ì et q Ê la dissymétrie augmente et la médiane et le mode deviennent < E(X) Nous verrons ultérieurement l’importance de cette propriété. La figure ci-dessous représente le diagramme en bâtons de la loi binomiale pour n = 40 et p = 0,1 (m = 4, σ = 1,9) Enfin, lorsque n est grand et p petit, les valeurs de P(X=k) diminuent très vite à partir d’une certaine valeur de k, ce qui signifie que le diagramme en bâtons ne dépasse jamais une vingtaine de valeurs .

Fig. 8 Diagramme en bâtons de la loi binomiale

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

11

b) Loi de Poisson ♦ Expression de la loi de probabilité On obtient la loi de Poisson à partir de la loi binomiale lorsque n est très grand et p très petit, le produit np n’étant pas très grand, (1 < np < 20) Exemple : p = 0,05 et n = 100 fournit une très bonne approximation d’une loi de Poisson. Moyennant quelques approximations, on meut démontrer :

P(k) =

mk −m e k!

♦ Paramètres statistiques On tire ces valeurs de la loi binomiale dont la loi de Poisson est une approximation. En posant np = m dans les équations correspondantes de la loi binomiale on obtient :

E(X) V(X)

= m = m

σ

m 1

=

β =

γ = 3 +

m 1 m

♦ Représentation graphique Le diagramme est toujours dissymétrique vers les valeurs élevées de X, la médiane et le mode sont inférieurs à la moyenne. Pour les grandes valeurs de n, β → 0 et γ → 3, la loi se rapproche d’une loi de Gauss. La figure ci-dessous représente la loi de Poisson pour m = 3 (σ = 1,73).

Fig. 9 Diagramme en bâtons de la loi de Poisson

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

12

♦ Intérêt de la loi de Poisson la loi de Poisson est la loi suivie par les désintégrations radioactives ainsi que par d’autres événements rares comme les pannes sur les chaînes de fabrication ou les objets défectueux dans une production. Les files d’attente suivent également une loi de Poisson.

6. Etude de quelques lois de probabilités continues utiles pour l’interprétation de données expérimentales a) Loi de Gauss (Loi Normale et Loi Normale Réduite) ♦ Expression de la densité de probabilité La loi Normale est une fonction continue dépendant des deux paramètres m et σ

g(x) =

1

e

σ 2π

− (x− m)2 2σ 2

♦ Loi Normale Réduite N(0,1) Si on remplace x par la variable aléatoire réduite

x−m la fonction g devient : σ

g(x) =

1 2π

e



x2 2

C’est l’équation de la loi Normale Réduite. On a évidemment E(x) = 0, V(x) = 1, β = 0 et γ = 3 ♦ Paramètres statistiques

Loi Normale N(m,σ)

Loi Normale réduite N(0,1)

E(X) = m

E(X) = 0

V(X) = σ2

V(X) = 1

La loi est donc symétrique et le mode et la médiane sont égaux à la moyenne. L’aplatissement prend une valeur caractéristique, γ = 3 qui est prise comme référence lorsqu’on veut comparer les autres lois statistiques à la loi Normale.

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

13

Fig.10 Représentation graphique de la loi Normale réduite et valeur des surfaces S(u) ♦ Valeurs remarquables de g(x) et de la surface comprises entre –u et u

+u

S(u) =

∫ f(x)dx = F(u) - F(-u)

-u

F est la fonction de répartition de g(x). Ces valeurs ont une importance majeure pour la compréhension des tests statistiques. u

g(u)

S(u)

Remarque

0

0.40

0

Maximum de la courbe

0.6740

0.318

0.5

Erreur équiprobable

1

0.242

0.68

Point d'inflexion

2 ln 2

0.20

0.75

Largeur à mi-hauteur

2

0.054

0.95

Intervalle de confiance à 95 %

2.6

0.014

0.99

Intervalle de confiance à 99 %

0.995

Intervalle de confiance à 99.5 %

3

4.4 10

-3

♦ Intérêt de la Loi Normale Beaucoup de mesures physiques se distribuent suivant une loi Normale. Il existe des tests statistiques permettant de prouver le caractère normal d’un ensemble de mesures et la normalité d'une distribution expérimentale est souvent une condition nécessaire pour l'application des tests statistiques sur les moyennes ou sur les variances.

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

14

b) Loi de Student Sa densité de probabilité dépend d’un paramètre ν, appelé "nombre de degrés de liberté". Elle est symétrique et a pour représentation graphique la famille de courbes dont quelques unes sont représentées ci-dessous :

Fig. 11 représentation graphique de la loi de Student Les courbes présentent la même allure qu’une courbe de Gauss mais elles sont plus aplaties. Lorsque ν → ∞ (en pratique lorsque ν > 40) la loi de Student est quasiment équivalente à la loi de Gauss. ♦ Fractiles de la loi de Student Les valeurs des fractiles t(ν,α) et t(ν,1-α) de la loi de Student sont données dans les tables de Student-Fisher. Puisque la loi est symétrique t(ν,α) = -t(ν,1-α). Comme pour toute loi statistique, la valeur t(ν,1-α) à ν constant augmente lorsque α diminue, mais à α constant les valeurs de t(ν,1-α) augmentent sensiblement lorsque ν diminue (voir fig 11 et 12). Ceci s’explique facilement par l ‘augmentation de l’aplatissement de la courbe. En effet, plus une courbe est aplatie, plus il faut prendre une abscisse t(1-α) élevée pour que l’intégrale : t(1−α )



f(x)dx

−∞

ait une valeur donnée. Lorsque ν = 0, la valeur de t est infinie pour toutes les valeurs de α, sauf pour α = 100 %.

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

15

Fig. 12 Fractiles de la loi de Student (dispersion bilatérale) en fonction de ν pour α = 10%, 5% et 1% et 0,5% Remarque : Les tables de Student-Fisher sont présentées de différentes manières : les tables de fractiles appelées encore "tables unilatérales" donnent t(1-α, ν) en fonction de 1-α et de ν pour des valeurs α < 0,5. Généralement on pose P = 1 - α (P > 0,5) et on donne la table en fonction de P. On trouve également des tables donnant la valeur de t(P) de façon que : t(P)



f(x)dx = P = 1 − α

− t(P)

Ces tables sont appelées "tables bilatérales de Student-Fisher" ♦ Intérêt de la loi de Student On peut montrer que pour un échantillon de n observations indépendantes d’une grandeur X distribuée aléatoirement suivant une loi Normale N(m,σ)

la grandeur

x−m où s = s n

∑ ( xi − m ) i

n−1

2

suit une loi de Student à ν = n - 1 degrés de liberté.

Cette loi présente donc un intérêt considérable dans tous les tests statistiques relatifs aux moyennes de petits échantillons.

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

16 c) Loi de Fisher-Snédecor ♦ Expression de la densité de probabilité C’est la loi d’une variable aléatoire continue appelée F dont la densité de probabilité dépend de deux paramètres ν1 et ν2 (nombre de degrés de liberté) : Les représentations graphiques sont données à la figure 13 en fonction de ses deux paramètres ν1 et ν2. La loi est dissymétrique et d’autant plus aplatie que ν1 et ν2 sont petits.

Fig.13 Représentation graphique de la loi de Fisher-Snedecor ♦ Fractiles de la loi de Fisher Les tables donnent les valeurs des fractiles supérieurs F(ν1, ν2, 1-α) pour une valeur donnée de α, c’est à dire que les deux entrées de la table sont ν1 et ν2. On prend généralement α = 0,05 ou α = 0,01 et on a toujours P = 1 - α Les fractiles inférieurs peuvent être calculés sachant que F ( ν 2 , ν1 , α) =

1 (attention F ( ν1, ν2 ,1 − α)

à l’échange des degrés de liberté ν1, et ν2) Comme pour toutes les lois statistiques, les fractiles deviennent infinis lorsque ν1 et ν2 sont nuls. Numériquement, les valeurs sont très élevées lorsque ν2 < 3. ♦ Intérêt de la loi de Fisher-Snedecor Par conséquent, la loi de Fisher-Snedecor intervient dans tous les problèmes qui font intervenir des comparaisons de variances, c’est à dire les problèmes de précision et de qualité des mesures physico-chimiques.

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

17 d) Loi du Khi-deux ♦ Densité de probabilité La densité de probabilité dépend d’un paramètre ν appelé "nombre de degrés de liberté". La loi de Khi-deux, appelée aussi loi de Pearson, a pour représentation graphique en fonction de ν, une famille de courbes représentées à la figure 14 :

fig.14 Représentation graphique de la loi du khi-deux

E(χ2) = ν

V(χ2) = 2ν

Elle est dissymétrique et d’autant plus aplatie que ν est plus élevé (évolution contraire par rapport aux autres lois.) ♦ Fractiles de la loi du χ2 Comme pour la loi de Fisher, α représente la surface de la courbe entre χ2 et l’infini. On représente les fractiles soit en fonction de P, soit en fonction de α = 1 - P

(α < 0,5 et P > 0,5).

♦ Intérêt de la loi de Khi-deux Dans le cas d’un échantillon de ν observations indépendantes d’une grandeur X qui suit une loi Normale N(m, σ), la somme : n

2

 x − m ∑  i σ  suit une loi de χ2 à ν degrés de liberté. 1

La somme ci-dessus est d’autant plus petite que les valeurs de xi sont proches de la moyenne. La loi du χ2 est donc utilisée dans les problèmes d’adéquation, c’est à dire lorsqu’il faut prouver que des valeurs expérimentales xi sont proches de valeurs modèles (xi (théoriques).

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

18 7. Calcul des lois de probabilités, Fonctions de répartition et fractiles à l’aide du logiciel EXCEL. Le logiciel EXCEL permet de calculer toutes les lois de probabilités classiques, leurs fonctions de répartition et leurs fractiles. Toutefois les explications concernant ces lois sont souvent incomplètes ou erronées. On accède à ces fonctions par : Insertion d’une fonction/fonctions statistiques Fonctions

Paramètres

Significations

Loi.Binomiale

k, n, p

n : nombre de tirages, p : probabilité d’un tirage Si VRAI on renvoie la probabilité cumulée de 0 à k, valeur P(X=k) comprise. Si FAUX, on renvoie la probabilité, P(X=k) Si VRAI on renvoie la probabilité cumulée de 0 à X (entier) , valeur P(X) comprise. Si FAUX, on renvoie la probabilité, P(X) Si VRAI on renvoie la fonction de répartition pour l’abscisse X. Si FAUX, on renvoie l’ordonnée de la loi Normale pour l’abscisse x Renvoie la fonction de répartition de la loi Normale

VRAI/FAUX

Loi.Poisson

X, E(X), VRAI/FAUX

Loi.Normale

X, E(X), σ, VRAI/FAUX

Loi.Normale Standard

z

réduite pour l’abscisse z. Loi.Normale.Inverse

P, E(x), σ

Fractile de la loi Normale d’espérance E et d’écarttype σ pour la probabilité P

Loi.Normale Standard.Inverse

P

Fractile de la loi Normale réduite pour la probabilité P

Loi.Student

X, ν, 1 ou 2

Loi.Student.Inverse

P, ν

Loi.F

X, ν1, ν2

Inverse.loi.F

P, ν1, ν2

Loi.Khideux

ν, X

Renvoie la probabilité cumulée de X à l’infini pour une loi de Student à ν degrés de liberté. Si 1 : distribution unilatérale, si 2 : distribution bilatérale, la fonction renvoie la probabilité totale extérieure ATTENTION, cette fonction renvoie le fractile bilatéral d’une loi de Student à ν degrés de liberté, P étant la probabilité extérieure à l’intervalle –X, +X . Pour le fractile unilatéral introduire 2P Renvoie la probabilité cumulée de X à l’infini pour une loi de Fisher à ν1, et ν2 degrés de liberté. Renvoie le fractile unilatéral d’une loi de Fisher à ν1, et ν2 degrés de liberté pour la probabilité 1-P. Renvoie la probabilité cumulée de X à l’infini pour une loi de Pearson à ν degrés de liberté. Renvoie le fractile unilatéral d’une loi de Pearson à ν degrés de liberté pour la probabilité 1-P

Khideux.inverse

P,

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

ν

19

STATISTIQUES PROBABILISTES CE QU’IL FAUT ABSOLUMENT RETENIR Calcul de l’Espérance mathématique Calcul de la variance Variable centrée réduite Propriétés d’additivité de l’espérance et de la variance E (αX + βY) = αE(X) + βE(Y) V(αX) = α2 V(X) V(X ± Y) = V(X) + V(Y) (X et Y : variables indépendantes) Loi de probabilité

Fonction de répartition

Fractiles unilatéraux,

Fractiles bilatéraux

Allure générale des lois Binomiale, Poisson, Normale, Student, Fisher-Snedecor, Khi-deux Signification de: u(α), u(1-α), u(α/2), u(1-α/2) t(α), t(1-α), t(α/2), t(1-α/2) F(α), F(1-α), χ2 (α), χ2(1-α), χ2 (α/2), χ2(1-α/2) Savoir lire les tables statistiques

Pierre Jost

Statistiques à l’usage des ingénieurs et des techniciens

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF