P(B i

P(B i P(B i

univ.st.etienne.fr
from univ.st.etienne.fr More from this publisher
12.07.2015 Views

COURS DE STATISTIQUESINFERENTIELLESLicence d’économie et de gestionLaurence GRAMMONTLaurence.Grammont@univ-st-etienne.frhttp://www.univ-st-etienne.fr/maths/CVLaurence.htmlSeptember 19, 2003

COURS DE STATISTIQUESINFERENTIELLESLicence d’économie et de gestionLaurence GRAMMONTLaurence.Grammont@univ-st-etienne.frhttp://www.univ-st-etienne.fr/maths/CVLaurence.htmlSeptember 19, 2003


Contents1 Rappels 51.1 Statistique descriptive . . . . . . . . . . . . . . . . . . . . . . . . 51.1.1 Statistique descriptive univariée . . . . . . . . . . . . . . . 51.1.2 Statistique descriptive bivariée . . . . . . . . . . . . . . . 71.2 Rappels de probabilité . . . . . . . . . . . . . . . . . . . . . . . . 81.2.1 Espace probabilisable, espace probabilisé . . . . . . . . . . 81.2.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . 91.2.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . 111.3 Notions de convergence de v.a . . . . . . . . . . . . . . . . . . . . 111.4 Lois discrètes usuelles . . . . . . . . . . . . . . . . . . . . . . . . 121.4.1 La loi binomiale B(n, p) . . . . . . . . . . . . . . . . . . . 121.4.2 La loi hypergéométrique H(N, n, p) . . . . . . . . . . . . 131.4.3 La loi de Poisson P(m) . . . . . . . . . . . . . . . . . . . 131.5 Lois continues usuelles . . . . . . . . . . . . . . . . . . . . . . . . 141.5.1 La loi normale (Laplace-Gauss) N (µ, σ) . . . . . . . . . . 141.5.2 La loi du Khi-deux à n degrés de liberté (χ 2 n) . . . . . . . 161.5.3 La loi de Student à n degrés de liberté (T n ) . . . . . . . . 171.5.4 La loi de Fischer-Snedecor (F(n 1 , n 2 )) . . . . . . . . . . . 182 Introduction à la statistique inférentielle 192.1 Généralités sur l’inférence statistique . . . . . . . . . . . . . . . . 192.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 192.1.2 Les problèmes à résoudre . . . . . . . . . . . . . . . . . . 202.1.3 Echantillon, réalisation d’échantillon, statistiques . . . . . 212.2 Quelques statistiques classiques . . . . . . . . . . . . . . . . . . . 232.2.1 La moyenne empirique et la variance empirique . . . . . . 232.2.2 Lois de probabilité des statistiques ¯X et S 2 . . . . . . . . 242.2.3 Fréquence empirique F . . . . . . . . . . . . . . . . . . . 273 Estimation 293.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.2 Généralités sur les estimateurs . . . . . . . . . . . . . . . . . . . 303.3 Estimation ponctuelle des paramètres usuels . . . . . . . . . . . . 313.3.1 Estimation de la moyenne . . . . . . . . . . . . . . . . . 313


4 CONTENTS3.3.2 Estimation de la variance d’une population Gaussienne . 313.3.3 Estimation d’une proportion . . . . . . . . . . . . . . . . 333.4 Intervalle de confiance . . . . . . . . . . . . . . . . . . . . . . . . 343.4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 343.4.2 Intervalle de confiance pour une moyenne . . . . . . . . . 343.4.3 Intervalle de confiance pour la variance d’une variablegaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . 373.4.4 Intervalle de confiance pour une proportion . . . . . . . . 394 Tests de conformité 414.1 Généralités sur les tests statistiques . . . . . . . . . . . . . . . . . 414.2 Généralités sur les tests de conformité . . . . . . . . . . . . . . . 424.3 Tests de conformité sur une moyenne . . . . . . . . . . . . . . . . 424.3.1 Cas d’une variable Gaussienne . . . . . . . . . . . . . . . 424.3.2 Cas d’un échantillon de grande taille . . . . . . . . . . . . 464.4 Tests de conformité sur une variance d’une v.a Gaussienne . . . . 464.5 Tests de conformité sur une proportion . . . . . . . . . . . . . . . 494.6 Tests de choix entre deux valeurs du paramètre . . . . . . . . . . 505 Tests de comparaison 515.1 Généralités sur les tests de comparaison . . . . . . . . . . . . . . 515.2 Tests de comparaison de deux moyennes . . . . . . . . . . . . . 515.2.1 Cas où σ 1 et σ 2 sont connus . . . . . . . . . . . . . . . . . 525.2.2 Cas où σ 1 et σ 2 sont inconnus avec σ 1 = σ 2 et n 1 et n 2< 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535.2.3 Cas où σ 1 et σ 2 sont inconnus et n 1 et n 2 > 30 . . . . . . 545.3 Tests de comparaison de deux variances . . . . . . . . . . . . . 555.4 Tests de comparaison de deux proportions . . . . . . . . . . . . 566 Tests du Khi-deux 596.1 Tests d’adéquation à une loi théorique . . . . . . . . . . . . . . . 596.2 Tests d’indépendance de deux caractères . . . . . . . . . . . . . . 616.3 Tests d’homogénéité (d’une v.a X) . . . . . . . . . . . . . . . . . 62


Chapter 1Rappels1.1 Statistique descriptiveC’est une méthode de description et non une théorie. Elle permet de décrire etnon d’expliquer.1.1.1 Statistique descriptive univariée• Ω : ensemble d’individus (population)• M: ensemble de modalités• x : Ω −→ M variable statistique⎧⎨ex :⎩Ω = {ω/ω = étudiant en AES}M = {m, b, v, n}x(ω) = couleur des yeux de ω• Soit {C 1 , . . . , C k } une partition de M en k classes.∣classes fréq. abs. fréq. rel. fréq. cumul.C 1 n 1 (nb.ind. ∈ C 1 ) f 1 = n 1F 1 = f 1NC 2 n 2 f 2 = n 2N.C k n k f k = n kNN = cardΩF 2 = F 1 + f 2F k = F k−1 + f k = 1∣a) cas discret : C i = {x i }b) cas continu : C i = [e i−1 , e i [ et l’on pose x i = 1 2 (e i−1 + e i )5


6 CHAPTER 1. RAPPELS• définition(mode): C j est la classe modale (mode) ssi ∀i ∈ {1, . . . , k}• définition (moments):a) moments d’ordre p centrés en 0:f j ≥ f iM p =¯x = M 1 =k∑f i x p ii=1k∑f i x ii=1moyenne de xa) moments d’ordre p centrés en ¯x:m p =V (x) = m 2 =k∑f i (x i − ¯x) pi=1k∑f i (x i − ¯x) 2 variance de x (= M 2 − ¯x 2 )i=1• définition (courbe de distribution):a) cas discretF (x) =∑{i/x i≤x}b) cas continu⎧0 si x ≤ e ⎪⎨0f iF (x) = F i−1 + (x − e i−1 ) si x ∈ [e i−1 , e i [e ⎪⎩i − e i−11 si x ≥ e k• représentation graphique– fréquences relatives : diagramme en bâtons pour les variablesdiscrètes ou diagramme circulaire (secteurs proportionnels aux fréquences)ou diagramme à bandes pour les variables qualitatives.– histogramme pour les variables continues :(surface de l’histogramme =1)f if i[e i−1 , e i [↦−→ h i =e i − e i−1• définition (indices):a) indices centraux (ou paramètres de la tendance centrale)


1.1. STATISTIQUE DESCRIPTIVE 7La moyenne ¯x = représente globalement le caractère de x (résumeen une seule valeur la grandeur typique d’un ensemble de données ;montre une tendance centrale).La médiane Me est définie par F (Me) = 1/2.Le mode M 0 est la valeur x i t.q. P (x = x i ) soit maximale.b) indices de dispersionσ = √ V (x) mesure de l’étendue du caractère x.Quantiles: à l ≥ 2 on associe l − 1 quantiles Q 1 , . . . , Q l−1 t.q.F (Q j ) = j/l, j = 1, . . . , l − 1c) γ 1 = m 3σ 3= indice de dissymétrie(< 0 si x concentré à droite de ¯x, > 0 si x concentré à gauche de ¯x)d) γ 2 = m 4σ 4− 3 = indice d’aplatissement1.1.2 Statistique descriptive bivariée• 2 variables statistiques x, y définies sur Ω• intérêt : si on peut expliquer y par x• {C 1 , . . . , C k } classes de x{D 1 , . . . , D l } classes de yD 1 D 2 . . . D lC 1 n 11 n 12 . . . n 1l n 1•C 2 n 21 n 22 . . . n 2l n 2•C k n k1 n k2 . . . n kl n k•n •1 n •2 . . . n •ln ij = effectifs = card{ω ∈ Ω/x(ω) ∈ C i et y(ω) ∈ D j } = nb.d’individus de C i ∩ D jf ij = fréquences relativeseffectifs marginauxn i• =n •j =l∑j=1k∑i=1f ij = n ijNN = ∑ i,jn ijfréquences marginalesn ij (cardC i ) f i• = n i•Nn ij (cardD j ) f •j = n •jN


8 CHAPTER 1. RAPPELS• définition (indices centraux et de dispersion):¯x =k∑f i• x i ȳ =i=1V (x) =l∑f •j y jj=1k∑f i• (x i − ¯x) 2 V (y) =i=1σ x = √ V (x)• définition (indices de corrélation):cov(x, y) =k∑i=1 j=1cov(x, y)ρ(x, y) =σ x σ yy = ax + b, a =l∑f ij (x i − ¯x)(y j − ȳ)l∑f •j (y j − ȳ) 2j=1σ y = √ V (y)covariancecoeff. de corrélationcov(x, y), b = ȳ − a¯x droite de régression linéaireV (x)1.2 Rappels de probabilité1.2.1 Espace probabilisable, espace probabiliséUne experience aléatoire définit un ensemble d’évènements possibles Ω appeléunivers.• définition : On appelle tribu sur Ω tout sous-ensemble F de P(Ω) tel que(1) Ω ∈ F(2) Si A ∈ F alors Ā ∈ F(3) ∀A n ∈ F, on a ∪ n A n ∈ F(Ω, F) est un espace probabilisable.• définition Soit (Ω, F) est un espace probabilisable. On appelle probabilitésur (Ω, F) toute application P de F dans [0, 1] telle que(1) P (Ω) = 1(2) Pour toute famille (A n ) n∈IN d’éléments deux à deux disjoints de F, on aP (∪ n A n ) = ∑ n P (A n)(Ω, F, P ) est un espace probabilisé.P est appelée loi de probabilité.Si Ω est fini, la tribu F est le plus souvent égale à l’ensemble des parties de Ω(P(Ω)). Par contre si Ω = IR, P(IR) ”possède beaucoup trop d’éléments ” pourdéfinir une axiomatique cohérente.Rappelons quelques propriétés élémentaires :∀A, B ∈ P(Ω) P (A ∪ B) = P (A) + P (B) − P (A ∩ B)∀A, B ∈ P(Ω) P (A|B) =P (A ∩ B)P (A)


1.2. RAPPELS DE PROBABILITÉ 9• Formule de Bayes Soient (B i ) i=1,..,n une partition de Ω en éléments de Fet A ∈ F, on aP (B j |A) = P (A|B j)P (B j )∑i P (A|B i)P (B i )1.2.2 Variables aléatoires• définition Soit (Ω, F, P ) un espace probabilisé. On appelle variable aléatoireX toute application de Ω dans (E, B) un espace probabilisable qui vérifie∀A ∈ B, X −1 (A) ∈ F• définition Soit (Ω, F, P ) un espace probabilisé. On appelle loi de probabilitéde la variable aléatoire X l’application P X définie sur B par∀A ∈ B, P X (A) = P (X −1 (A))• Fonction de répartition : F : IR −→ [0, 1]x ↦−→ F (x) = P (X ≤ x) (F est une fonction croissante)(elle associe à x la probabilité de trouver une valeur inférieure à x)Dans la suite v.a sera l’abréviation de variable aléatoire.Quelques généralités sur les lois discrètes• définition Une variable aléatoire est discrète (v.a.d) si elle est numérique (E = IR) et si l’ensemble de ses valeurs est dénombrable X(Ω) = {x 1 , . . . , x N }ou {x n n ∈ IN}.• Une variable aléatoire discrète est définie parSes valeurs {x 1 , . . . , x N } ou {x n n ∈ IN}Ses probabilités p i = P (X = x i )• Espérance d’une v.a.d• Variance d’une v.a.di=N∑E(X) = p i x ii=1i=N∑V (X) = p i x 2 i − E(X) 2i=1Soient X et Y des v.a.d. dont les valeurs sont respectivement {x 1 , .., x N } et{y 1 , .., y M }. On notera p i = P (X = x i ) et q j = P (Y = y j ).• définition On appelle variable conditionnelle X sachant Y = y j notéeX|Y = y j la v.a.d dont les valeurs sont {x 1 , .., x N } et les probabilités sontP (X = x i |Y = y j )On note p ij = P (X = x i ∩ Y = y j ).


10 CHAPTER 1. RAPPELS• définition L’ espérance conditionnelle de X sachant Y = y j est la quantitéN∑E(X|Y = y j ) = x i P (X = x i |Y = y j )i=1• Théorème de l’espérance conditionnelleM∑E(X) = E(X|Y = y j )P (Y = y j )j=1Quelques généralités sur les lois continues• Une v.a est dite continue si sa fonction de répartition est continue.• une loi de proba continue est totalement définie soit par sa fonction derépartition, soit par sa fonction densité de probabilité.• fonction densité de probabilité: f, positive,• fonction de répartition F (x) =•Propriétés:⎧⎪⎨⎪⎩E(X) =V (X) =∫ +∞∫ x∫ −∞ +∞−∞−∞f(t)dttf(t)dt∫ ∞−∞t 2 f(t)dt − [E(X)] 2f(t)dt = 1Soient X et Y des v.a.c. dont les densités sont respectivement f et g etdont la loi conjointe est définie par la densité h (qui est une fonction de deuxvariables ).• définition La densité conditionnelle de X par rapport à Y = y est lafonction définieh(x, y)f X|Y (x, y) =g(y)• définition L’ espérance conditionnelle de X par rapport à Y = y est laquantitéE(X|Y ) =∫ +∞−∞xf X|Y (x, y)dxSi X est intégrable, E(X|Y ) est une variable aléatoire en y.• Théorème de l’espérance conditionnelleE(X) ==∫ +∞−∞E(X|Y )g(y)dy


1.3. NOTIONS DE CONVERGENCE DE V.A 111.2.3 Indépendance• définition Soient (Ω, F, P ) un espace probabilisé et A, B ∈ F. A et B sontdeux évènements indépendants ssiP (A ∩ B) = P (A) × P (B)• Soient X et Y deux v.a.d telles que X(Ω) = {x 1 , . . . , x N }, Y (Ω) ={y 1 , . . . , y M }X et Y sont indépendantes si∀i, j P (X = x i ∩ Y = y j ) = P (X = x i ) × P (Y = y j ).• Soient X et Y deux v.a.c de fonction densité respectivement f et g et defonction densité conjointe h.X et Y sont indépendantes si∀x, yh(x, y) = f(x) × g(y).1.3 Notions de convergence de v.a• définition Soit (X n ) n∈IN une suite de v.a on dit que (X n ) converge en probabilitévers la v.a X (X n → X en probabilité) ssi∀ɛ, η, ∃N, (n ≥ N) ⇒ P (|X n − X| > ɛ) < ηou plus simplement lim n→∞ P (|X n − X| > ɛ) = 0.• Loi faible des grands nombresSi 1 n∣∣Soient X 1 , . . . , X n , n v.a indépendantes,soient µ i = E(X i ) , σi 2 1= V (X i ), ¯X =nn∑i=1X in∑µ i −→ µ et 1 ∑ nn 2 σi 2 −→ 0 quand n −→ ∞i=1i=1alors ¯X −→ µ en probabilité(P [| ¯X − µ| > ε] −→ 0 quand n −→ ∞ ∀ε).• Corollaire de la loi faible des grands nombresSoient X 1 , . . . , X n , n v.a indépendantes, de même loiSi µ = E(X i )∣∣alors ¯X −→ µ en probabilité.• définition on dit que (X n ) converge en loi vers la v.a X(X n −→ X en loi ) ssi∀x, F n (x) −→ F (x)F n (x) et F (x) étant les fonctions de répartition de X n et X.


12 CHAPTER 1. RAPPELS• La convergence en probabilité implique la convergence en loi mais laréciproque est fausse.∣∣•Théorème de limite centraleSoient (X 1 , X 2 , . . . , X n ) n v.a. indépendantes de même loi, de même espérance µet de même écart type σ.Posons S n = X 1 + X 2 + . . . + X n . Alors:E(S n ) = nµV (S n ) = nσ 2S n − nµσ √ n −→ N (0, 1) en loi quand n −→ ∞ (S n ∼ N (nµ, σ √ n) quand n −→ ∞)Exemple: Convergence de la loi binomiale (somme de n lois de Bernouilli)vers la loi normale.1.4 Lois discrètes usuelles1.4.1 La loi binomiale B(n, p)La loi de Bernouilli B(1, p)• On réalise une expérience aléatoire qui a deux résultats possibles : soit le succèsqui a un probabilité p de se réaliser, soit l’échec qui a une probabilité q=1-p. Lavariable aléatoire X= nombre de succès obtenus suit la loi de Bernouilli notéeB(1, p) et définie par :P : {0, 1} −→ [0, 1]P (X = 0) = 1 − p et P (X = 1) = p• Propriétés: ⎧⎨ si X ∼ B(1, p) alorsE(X) = p⎩V (X) = pqLa loi binomiale B(n, p)• On réalise n fois successivement et d’une manière indépendante une expériencealéatoire qui a deux résultats possibles, le succès ( associé au résultat pour lequelnous voulons déterminer la probabilité) qui a une probabilité p de se réaliser etl’échec qui a une probabilité q = 1 − p de se réaliser. La v.a X = nombre desuccès obtenus au cours des n épreuves suit la loi binomiale notée B(n, p) définiepar:P : {0, 1, . . . , n} −→ [0, 1]k ↦−→ P (X = k) = C k np k (1 − p) n−k , C k n =n!k!(n − k)!(qui représente la probabilité d’obtenir k succès en n essais)• ex: lancement d’une pièce de monnaie (pile ou face); qualité d’un produit(bon ou défectueux); sondage électoral (pour ou contre);...


1.4. LOIS DISCRÈTES USUELLES 13⎧⎪⎨⎪⎩•Propriétés:si X ∼ B(n, p) alorsE(X) = npV (X) = npqsi X 1 ∼ B(n 1 , p) et X 2 ∼ B(n 2 , p) alors, si ces 2 v.a. sont indépendantes,Y = X 1 + X 2 ∼ B(n 1 + n 2 , p)• remarque: Une variable binomiale est la somme de n variables de Bernouilliindépendantes.X ∼ B(n, p); X = X 1 + . . . + X n , X i ∼ B(1, p)1.4.2 La loi hypergéométrique H(N, n, p)• Dans une population de taille N, on a deux types d’éléments, N 1 éléments detype I et N 2 éléments de type II. On effectue n tirages sans remise (=prélèvementd’un seul coup de n éléments). La v.a. discrète X = nombre d’éléments de typeI obtenus après les n tirages suit la loi hypergéométrique notée H(N, n, p) avecp = N1N, définie parP : {0, 1, . . . , n} −→ [0, 1]k ↦−→ P (X = k) = Ck N 1C n−kN 2•Propriétés:⎧⎪⎨⎪⎩C n Navec N 1 = Np, N 2 = Nqsi X ∼ H(N, n, p) alorsE(X) = npV (X) = N − nN − 1 npq•Convergence de la loi hypergéométrique vers la loi binomiale∣∣ Si N −→ ∞ avec N 1/N et N 2 /N restant finisH(N, n, p) −→ B(n, p) en loi.(en pratique n/N < 10%).1.4.3 La loi de Poisson P(m)• Elle convient à la description d’ évènements dont les chances de réalisationsont faibles.• ex: nb d’occurences d’un évènement dans un certain laps de temps ou dansune région donnée (nb. d’accidents/semaine sur une autoroute; nb. d’appelstéléphoniques dans un intervalle de temps; nb. de naissances/ année dans unepetite municipalité...)


14 CHAPTER 1. RAPPELS• La probabilité d’observer exactement k occurrences d’un certain évènementdans une unité de temps ou de région si X ∼ P(m), est donnée par:P (X = k) = e−m m kk!où m = nb. moyen d’occurences.•Propriétés:⎧si X ∼ P(m) alorsE(X) = m⎪⎨V (X) = msi X 1 ∼ P(m 1 ) et X 2 ∼ P(m 2 ), X 1 , X 2 indépendantes, alorsY = X 1 + X 2 ∼ P(m 1 + m 2 )⎪⎩généralisation: Z = X 1 + X 2 + . . . + X n ∼ P(m 1 + m 2 + . . . + m n )• exemple: Parmi la production de pièces d’une machine, 4% sont défectueuses.On prélève un échantillon de 100 pièces. X= nb. de pièces défectueuses danscet échantillon.a) P (X = 0) =? ; X ∼ H(N, 100, 0.04) ∼ B(100, 0.04) ∼ P(m), m =100 × 0.04 = 4P (X = 0) = 0.0183b) P (X < 10) = P (X ≤ 9) = 0.9919 (tables)c) P (X > 5) = 1 − P (X ≤ 5) = 1 − 0.7852 = 0.2148•Convergence de la loi binomiale vers la loi de PoissonSoit X ∼ B(n, p) alors , si n grand et p petiton peut approximer la loi binomiale par une loi de PoissonP(m), m = np.∣∣(il s’agit d’une convergence en loi)(en pratique n > 50, p < 0.1)1.5 Lois continues usuelles1.5.1 La loi normale (Laplace-Gauss) N (µ, σ)• µ ∈ IR, σ ∈ IR ∗ +C’est la plus importante des lois de probabilité continues. Des questionstant théoriques que pratiques font appel à cette loi (souvent loi limite). Historiquementelle apparaît vers 1773 comme la forme limite de la loi binomiale(Abraham de Moivre). Gauss en 1809 et Laplace en 1812 lui donnèrent sa formedéfinitive.• définition (fonction densité): Une v.a. suit une loi de Laplace-Gauss deparamètres µ et σ si sa fonction densité est:f(t) = 1σ √ 2π e−1 2 (t − µσ )2 pour t ∈ IR


1.5. LOIS CONTINUES USUELLES 15• X ∼ N (µ, σ)• fonction de répartitionF (x) =∫ x−∞1σ √ 2π e−1 2 (t − µσ)2 dt•Propriétés:⎧⎨⎩si X ∼ N (µ, σ) alorsE(X) = µV (X) = σ 2• La loi normale centrée réduite∣∣Soit X ∼ N (µ, σ) alorsU = X − µ ∼ N (0, 1) loi normale centrée réduiteσf U (t) = √ 1 e −1 2 t2 (X = σU + µ)2π• remarque: La loi normale centrée réduite est tabulée et la formule ci-dessus(U = X − µ ) permet un calcul rapide des probabilités.σb)∣∣• Exemple:a)X ∼ N (µ, σ)P (a < X < b) = P ( a − µ < X − µ < b − µσ σ σ ) = P (a − µ < U < b − µσσ )numérique : µ = 2, σ = 0.5, a = 1.7, b = 2.1P (1.7 < X < 2.1) = P (−0.6 < U < 0.2)U ∼ N (0, 1)si P (U < a), a > 0 est connue, alorsP (U < −a) = 1 − P (U < a);P (−a < U < a) = P (U < a) − P (U < −a)= P (U < a) − [1 − P (U < a)] = 2P (U < a) − 1;numérique : a = 1.87P (U < 1.87) = 0.9693;P (U < −1.87) = 1 − 0.9693 = 0.0307;P (−1.87 < U < 1.87) = 0.9693 − 0.0307 = 0.9386 (= 2 × 0.9693 − 1 = 0.9386).


16 CHAPTER 1. RAPPELS•Additivité ( v.a. indépendantes)Soient X 1 ∼ N (µ 1 , σ 1 ) √et X 2 ∼ N (µ 2 , σ 2 ) indépendantes, alorsX 1 + X 2 ∼ N (µ 1 + µ 2 , σ1 2 + σ2 2 )généralisation : a)X i ∼ N (µ i , σ i ), i = 1, . . . , n indépendantesn∑n∑∑X i ∼ N ( µ i , √ n σi 2 )i=1i=1 i=1b) X i ∼ N (µ, σ), i = 1, . . . , n indépendantes1∣∣n (X σ1 + . . . + X n ) ∼ N (µ, √ ) n•Convergence de la loi binomiale vers la loi normaleSoit X ∼ B(n, p) alorsX − np√ −→ N (0, 1) en loi quand n −→ ∞npq∣∣ou bien B(n, p) ≈ N (np, √ npq) (n −→ ∞)Ceci signifie que lorsque n est assez grand, on peut approximer laloi binomiale par la loi normale; en pratique p ∈ [0.1, 0.9], n > 30.Dans certains ouvrages, on trouve la condition np(1 − p) > 9 ounp , nq > 5.• Convergence de la loi de Poisson vers la loi normaleSoit X ∼ P(m) alors si m −→ ∞X − m∣∣√ −→ N (0, 1) en loimL’approximation est très satisfaisante pour m > 18.1.5.2 La loi du Khi-deux à n degrés de liberté (χ 2 n)• elle joue un rôle important dans les tests statistiques.• on obtient une valeur χ 2 n en additionnant des nombres au carré, donc cettevaleur ne peut pas être négative• l’aspect de la courbe d’une distribution χ 2 n variera selon le nombre dedegrés de liberté n qui est le seul paramètre de cette distribution.• définition: Soient X 1 , . . . , X n n v.a. indépendantes t.q. X i ∼ N (0, 1) ∀i.AlorsX 2 1 + . . . + X 2 n ∼ χ 2 n• remarque: la fonction densité de probabilité de χ 2 n estf χ 2n(t) = c n t n/2−1 e −t/2


1.5. LOIS CONTINUES USUELLES 17où c n sont t.q.∫IRf χ 2n(t)dt = 1.• si n > 2 alors le mode = n − 2 (mode = valeur pour laquelle la courbeatteint son maximum)• Propriétés:⎧⎨⎩si X ∼ χ 2 n (mode = n − 2, n > 2) alorsE(X) = nV (X) = 2n• Convergence de la loi χ 2 n vers la loi normale (approximation)Soit X ∼ χ 2 n alorsX − n√ −→ N (0, 1) en loi quand n −→ ∞2nou bien χ 2 n ≈ N (n, √ 2n) n −→ ∞∣∣(en pratique n > 30)• Additivité ( v.a. indépendantes)Soient X 1 ∼ χ 2 n 1, . . . , X k ∼ χ 2 n k∣∣Alors Z = X 1 + . . . + X k ∼ χ 2 nindépendantesavec n = n 1 + . . . + n k1.5.3 La loi de Student à n degrés de liberté (T n )• Elle joue un rôle important dans l’estimation par intervalle de confiance. Elleest symétrique, de moyenne nulle et dépend d’un paramètre n appelé nombrede degrés de liberté.• L’aspect de la courbe variera selon le nombre de degrés de liberté n (defaçon générale, elle est plus aplatie que N (0, 1) et quand n augmente (n > 30)les 2 courbes se confondent)• définition: Soient X ∼ N (0, 1), Y ∼ χ 2 n v.a. indépendantes. AlorsZ =X √Y/n∼ t n• remarque: la fonction densité de probabilité de t n estoù c n sont t.q.∫• Propriétés:IRf tn (t)dt = 1.f tn (t) = c n (1 + t2 n )−(n+1)/2⎧⎪⎨⎪⎩si X ∼ t n alorsE(X) = 0 , n > 1V (X) =nn − 2 , n > 2


18 CHAPTER 1. RAPPELS• Convergence de la loi Student vers la loi normale (approximation)Soit X ∼ t n alorsX −→ N (0, 1) en loi quand n −→ ∞∣∣(en pratique n > 30)1.5.4 La loi de Fischer-Snedecor (F(n 1 , n 2 ))• loi continue• définition: Soient Y 1 ∼ χ 2 n 1et Y 2 ∼ χ 2 n 2, 2 v.a. indépendantes. AlorsF = Y 1/n 1Y 2 /n 2∼ F(n 1 , n 2 )(loi de Fischer-Snedecor à n 1 et n 2 degrés de liberté)• remarque: la fonction densité de probabilité de F(n 1 , n 2 ) estf F (t) = c n1,n 2t n1/2−1 (n 1 t + n 2 ) −(n1+n2)/2 , t > 0• 2 paramètres: n 1 , n 2• Propriétés:⎧si F ∼ F(n 1 , n 2 ) alors⎪⎨E(F ) = n 1n 2 − 2 , n 2 > 2⎪⎩V (F ) = 2n2 2(n 1 + n 2 − 2)n 1 (n 2 − 2) 2 (n 2 − 4) , n 2 > 4


Chapter 2Introduction à la statistiqueinférentielle2.1 Généralités sur l’inférence statistique2.1.1 Définitionspopulation, échantillon• population = ensemble d’unités statistiques(poulets, étudiants inscrits en AES en 1996, firmes commerciales ...)recensement = observer toutes les unités de la population• échantillon = sous-ensemble de la population étudiée(joueurs de foot = populationéquipe de St-Etienne = échantillon)sondage = observer les unités de l’échantillon (il aboutit, on le verraplus tard, à une distribution expérimentale)• en statistique, on décrit ces groupes d’unités (population ou échantillon)à l’aide de mesures ou caractéristiques (effectif, moyenne, écart-type, pourcentage...)∥– mesures ou caractéristiques utilisées pour décrire une populations’appellent PARAMETRES.– mesures ou caractéristiques utilisées pour décrire un échantillons’appellent réalisations (ou observations) de STATISTIQUES.19


20CHAPTER 2. INTRODUCTION À LA STATISTIQUE INFÉRENTIELLEL’inférence statistiqueC’ est l’ensemble des méthodes permettant de tirer des conclusions sur un groupedéterminé à partir des données provenant d’un échantillon choisi dans cettepopulation.2.1.2 Les problèmes à résoudreQuestion 1exemple: Le responsable de la diffusion d’un produit fait un sondagepour connaître la dépense moyenne par différentes catégories socioprofessionnellesde la population française pour ce type d’achat. Ilfera ainsi une estimation de cette dépense moyenne. Il peut aussivouloir connaître la précision de cette estimation.Ainsi, les statistiques sont utilisées pour ESTIMER les paramètres.Un premier problème qui se pose est donc de faire desestimations ponctuellesestimations par intervalle de confianceet fera l’objet du chapitre 3.Question 2exemple: En matière de contrôle de qualité, on souhaite lors de laréception d’échantillons de pièces mécaniques comparer le taux dedéchets observés par rapport à la norme fixée de manière à refuserle lot si son le taux de déchets dépasse la norme.Dans la plupart des situations réelles, la valeur du paramètre est inconnue,mais il arrive que l’on ait une idée du paramètre et qu’on puisse formuler uneHYPOTHESE concernant la valeur de celui-ci. Les observations peuvent confirmerou infirmer l’hypothèse formulée. Il arrive souvent que la différence entrela valeur de la statistique d’échantillon et la valeur hypothétique du paramètrene soit ni petite ni grande, de sorte que la décision à prendre ne s’impose pasd’elle même. Il faut donc définir les critères qui permettent la prise de décision.Ce sont les TESTS DE CONFORMITE (chapitre 4).Question 3Les personnes qui décident sont souvent intéressées à déterminer si deux populationsdonnées sont semblables ou nettement différentes par rapport à unecaractéristique particulière.ex.1: un médecin peut vouloir déterminer si la réponse à un certainmédicament (expérimental) diffère d’un groupe à un autre.


2.1.GÉNÉRALITÉS SUR L’INFÉRENCE STATISTIQUE 21ex.2: un acheteur peut vouloir comparer la durée de vie d’un certainproduit provenant de 2 fournisseurs. différentsCe sont les TESTS DE COMPARAISON (chapitre 5).Question 4D’autres problèmes peuvent se poser, par exemple de savoir si une populationdonnée suit une loi de probabilité particulière connue.Ce sont les TESTS D’AJUSTEMENT (analytique) qui permettent de vérifierla qualité de l’ajustement de la population étudiée à une loi normale, binomiale,de Poisson ou encore uniforme.Ils ont pour but d’établir s’il est plausible que l’échantillon (aléatoire) provienned’une population dont la loi de probabilité aurait été celle spécifiée (chapitre6).Question 5Il est intéressant de savoir, dans certaines situations, si 2 caractères qualitatifssont indépendants. Les TESTS D’INDEPENDANCE seront traités dans lechapitre 6.Question 6On peut vouloir savoir si plusieurs populations sont homogènes par rapport àun certain caractère. Les TESTS D’HOMOGENEITE seront traités dans lechapitre 6).2.1.3 Echantillon, réalisation d’échantillon, statistiquesOn veut, à partir d’un échantillon de la population, déduire des informationssur cette population. Le problème qui se pose alors est le suivant: commentchoisir une partie de la population qui reproduit le plus fidèlement possible sescaractéristiques. C’est le problème de l’échantillonnage.Prélèvement d’un échantillon (échantillonnage)1. Echantillonnages sur la base des méthodes empiriquesLa Méthode des quotas (respect de la composition de la population pourcertains critères) est la plus utilisée.2. Echantillonnages aléatoires– Quand la probabilité de sélection de chaque élément de la populationest déterminée avant même que l’échantillon soit choisi.– Il permet de juger objectivement la valeur des estimations.Echantillonnage aléatoire simple – on tire au hasard et avec remise lesunités dans la population concernée.


22CHAPTER 2. INTRODUCTION À LA STATISTIQUE INFÉRENTIELLEEchantillonnage stratifié– Subdiviser d’abord la population en sous-ensembles (strates) relativementhomogènes.– Extraire de chaque strate un échantillon aléatoire simple.– Regrouper tous ces échantillons.Echantillonnage par grappes– Choisir un échantillon aléatoire d’unités qui sont elles-mêmes des sousensemblesde la population (grappes).(ex : diviser la ville en quartiers; un certain nombre de quartiers sontchoisis pour faire partie de l’échantillon; on fait l’enquête auprès de toutesles familles résidant dans ces quartiers).Modélisation de l’échantillonnage aléatoire simpleDans la suite, on traite le cas de l’échantillonnage aléatoire simple, car les conceptsfondamentaux et les formules importantes découlent de cette méthode.Ce type d’échantillonnage consiste à extraire un échantillon de taille n dans unepopulation de taille N par des tirages aléatoires équiprobables et indépendants(tirages avec remise). On introduit le modèle suivant :Soit Ω = {w 1 , . . . , w N } la population constituée d’éléments appelés unités d’observation.Soit X le caractère que l’on voudrait étudier sur l’ensemble de cette population.X k , le résultat aléatoire du k ièm tirage, est une v.a qui suit la même loi queX. On note x k le résultat du k ièm tirage.On note (X 1 , . . . , X n ) les résultats aléatoires de ces tirages.• définition: (X 1 , . . . , X n ) sont n v.a. indépendantes et de même loi (cellede X); il est appelé n-échantillon ou échantillon de taille n de X.Après tirage au sort,(X 1 , . . . , X n ) prend les valeurs (x 1 , . . . , x n )• définition: La réalisation unique (x 1 , . . . , x n ) de l’échantillon (X 1 , . . . , X n )est l’ensemble des valeurs observées.• définition: Une statistique Y sur un échantillon (X 1 , . . . , X n ) est une v.a.,fonction mesurable des X k ; Y = f(X 1 , . . . , X n ).Après réalisation, la v.a. Y (statistique) prend la valeur f(x 1 , . . . , x n ).Les statistiques sont utilisées pour estimer les caractéristiques de la populationtotale. Les statistiques les plus utilisées sont la moyenne empirique, lavariance empirique, la fréquence empirique.


2.2. QUELQUES STATISTIQUES CLASSIQUES 232.2 Quelques statistiques classiquesRappelsE(aX + b) = aE(X) + bE(X + Y ) = E(X) + E(Y )V (aX + b) = a 2 V (X)V (X) = E(X 2 ) − [E(X)] 2 = E([X − E(X)] 2 )si X, Y indépendantes,V (X + Y ) = V (X) + V (Y )2.2.1 La moyenne empirique et la variance empiriquePosons E(X) = µ, V (X) = σ 2 (inconnues)• définition : On appelle moyenne empirique de l’échantillon (X 1 , . . . , X n )de X, la statistique¯X = 1 nn∑X i .Sa réalisation est ¯x = 1 n∑x i (qui est la moyenne de l’échantillon) aussini=1appelée moyenne observée.(on verra plus tard que ¯X estimera l’espérance E(X))• Propriétés:Calculonsi=1{ E( ¯X) = µV ( ¯X) = 1 n σ2E( ¯X) = E( 1 n∑X i ) = 1 n∑E(X i ) = 1 n∑E(X) = E(X) = µn nni=1i=1i=1V ( ¯X) = V ( 1 n∑X i ) = 1 n n 2 V ( ∑ nX i ) = 1 ∑ nn 2 V (X i ) = 1 ∑ nn 2 V (X)i=1i=1i=1i=1nV (X)=n 2 = 1 n V (X) = 1 n σ2• définition : On appelle variance empirique de l’échantillon (X 1 , . . . , X n )de X , la statistiqueS 2 = 1 nn∑(X i − ¯X) 2 = 1 n n ( ∑Xi 2 ) − ¯X 2 .i=1i=1


24CHAPTER 2. INTRODUCTION À LA STATISTIQUE INFÉRENTIELLESa réalisation est s 2 = 1 n∑(x i − ¯x) 2 (qui est la variance de l’échantillon), aussini=1appelée variance observée.• Propriétés: {E(S 2 ) = n − 1nσ2CalculonsE(S 2 )= E( 1 n∑(X i −n¯X) 2 ) = E( 1 n∑Xi 2 −n¯X 2 )i=1i=1= 1 n n E( ∑Xi 2 ) − E( ¯X 2 ) = 1 n∑E(Xi 2 ) − E(n¯X 2 )i=1i=1= 1 n∑[V (X i ) + (E(X i )) 2 ] − [V (n¯X) + (E( ¯X)) 2 ]= 1 ni=1n∑[V (X) + (E(X)) 2 ] − 1 n σ2 − µ 2i=1= V (X) + (E(X)) 2 − 1 n σ2 − µ 2 = σ 2 + µ 2 − 1 n σ2 − µ 2= (1 − 1 n )σ2 = n − 1nσ22.2.2 Lois de probabilité des statistiques ¯X et S 2• Théorème limite centrale (pour l’échantillon) (rappel):Soit X une v.a. t.q. E(X) = µ, V (X) = σ 2 ≠ 0Soit (X 1 , . . . , X n ) un n- échantillon de X¯X = 1 n (X 1 + . . . + X n )¯X − µAlorsσ/ √ ∼ N (0, 1) pour n → ∞n (loi approximative)∥ (ou bien ¯X σ∼ N (µ, √ ) pour n → ∞)n• 2 cas à étudier:– a) la taille n de l’échantillon est grande– b) X suit une loi gaussiennea) Taille n grande(d’après le thm. limite centrale)1)¯X − µσ/ √ nsuit approximativement N (0, 1)


2.2. QUELQUES STATISTIQUES CLASSIQUES 25¯X − µσ/ √ ∼ N (0, 1) pour n → ∞nou bien¯X suit approximativement N (µ,σ√ n) (en pratique n > 30)• exercice Soit un lot de 500 chocolats. Le poids d’un chocolat est une v.a.telle que µ = 5g et σ = 0.5g. Quelle est la probabilité qu’une boîte de 50chocolats issus de ce lot ait un poids total supérieur à 260g?solutionL’échantillon étant grand (n = 50 > 30) et on peut appliquer lapremière formule:¯X ∼ N (5,0.5√50)approximativementon pose T = 50 ¯X; cette nouvelle v.a. suit approximativement:T ∼ N (50 × 5,50 × 0.5√50) = N (250, 0.5 √ 50)calculonsP (T > 260)= P (U > 260−2500.5 √ ) = P (U > 2.83)50= 1 − P (U < 2.83) = 1 − 0.9977b) Echantillon gaussienSoit X ∼ N (µ, σ)(d’après l’additivité pour des v.a. suivant des lois normales)1) ¯X ∼ N (µ,σ √n )ou bien¯X − µσ/ √ ∼ N (0, 1)nAttention!!!!!c’est une loi exacte et non une approximation comme dans le casd’un échantillon de grande taille où la loi n’est pas connue.n2)σ 2 S2 ∼ χ 2 n−13)¯X − µ√S2 / √ n − 1 ∼ t n−1


26CHAPTER 2. INTRODUCTION À LA STATISTIQUE INFÉRENTIELLEU = ¯X − µσ/ √ nY = nS2σ 2∼ N (0, 1)∼ χ2 n−1et alorsUZ = √ ∼ t n−1Y/(n − 1)calculons Z : Z = ¯X − µσ/ √ n ·√1nS 2σ 2 (n−1)= ¯X − µ√S 2n−1•exercice On prélève 25 pièces dans une production industrielle. Une étudepréalable a montré que le diamètre de ces pièces suivait une loi gaussiennede moyenne 10mm et d’écart-type 2mm. Entre quelles valeurs a-t-on 85% dechances de trouver l’écart-type de ces pièces?solutionpour commencer, il faut déterminer α et β t.q.0.85 = P (α < nS2σ 2= 1 − P ( nS2σ 2= P ( nS2σ 2< β) = P ( nS2σ< β) − P ( nS22σ< α)2> β) − [1 − P ( nS2σ> α)]2> α) − P ( nS2σ> β)2on sait que nS2 ∼ χ2 25−1 = χ 2 24 et alors on cherche dans la table duσ 2χ 2 n à 24 degrés de liberté les valeurs α et β comme suit:{P ( nS2σ> α) = 0.902P ( nS2σ> β) = 0.052(choix du aux tables)on trouve: { α = 15.659β = 36.415et alorsP (15.659 < 25S22 2 < 36.415) = 0.85P (2.5054 < S 2 < 5.8264) = 0.85P (1.58 < S < 2.41) = 0.85Attention: il ne faut pas confondre l’écart-type de l’échantillon, noté s, valeurobservée de la statistique S (les calculs ont été faits pour cette statistique S),avec le PARAMETRE écart-type sur la population, noté σ, de la loi normalequi était connu dans ce problème!


2.2. QUELQUES STATISTIQUES CLASSIQUES 272.2.3 Fréquence empirique FSoit une population comportant deux modalités A et B. Soit π la proportiond’individus de la population possédant la modalité A. 1−π est donc la proportiondes individus de la population possédant la modalité B.On extrait de la population un échantillon de taille n. Soit K n la v.a quireprésente le nombre d’individus dans l’échantillon ayant la modalité A.• définition: La v.a. F = K ns’appelle fréquence empirique.nSa réalisation f est la proportion d’individus dans l’échantillon ayant lamodalité A.• Propriétés:⎧K ∼ B(n, π) donc⎪⎨E(F ) = π⎪⎩ π(1 − π)V (F ) =n• Loi de probabilité pour F√π(1 − π)F ∼ N (π,)ndès que n > 30, π ∈ [0.1, 0.9]. On trouve aussi nπ > 5, n(1 − π) > 5ou les seules conditions nπ > 5, n(1 − π) > 5)(loi approximative).F − π√π(1−π)n∼ N (0, 1)


28CHAPTER 2. INTRODUCTION À LA STATISTIQUE INFÉRENTIELLE


Chapter 3Estimation3.1 IntroductionLa distribution exacte d’une variable X modélisant le caractère qui intéressele statisticien (taux de pollution d’une rivière, dépenses des ménages pour lelogement...) est généralement partiellement connue. Souvent la loi de X dépendd’un paramètre inconnu. On cherche à se faire une idée sur ce paramètre à partirdes données observées sur l’échantillon.Attribuer au paramètre une valeur numérique unique est une ESTIMATIONPONCTUELLE. Pour ce faire, on choisit une statistique dont la valeur est, aprèstirage aléatoire de l’échantillon, l’estimation du paramètre. Cette statistique estl’ESTIMATEUR.Mais quelles sont les chances pour que cette estimation ponctuelle soit exacte?Plutôt que d’estimer un paramètre à l’aide d’un seul nombre, il arrivefréquemment que l’on fasse l’estimation en donnant un INTERVALLE devaleurs. Un INTERVALLE D’ESTIMATION (ou de CONFIANCE) est définide telle sorte que l’on puisse affirmer avec un degré de confiance fixé que leparamètre visé se trouve dans cet intervalle.Nous nous intéresserons dans ce chapitre à l’estimation des principales caractéristiques(ou paramètres) d’une v.a dans une population, à savoir la moyenne,la variance et la fréquence.Notations• les paramètres à estimer seront notés par des lettres grecques minusculesµ : moyenneσ : écart-typeσ 2 : varianceπ : proportion• les réalisations d’échantillon seront notées par des lettres latines minuscules29


30 CHAPTER 3. ESTIMATIONx 1 , . . . , x n : valeur de l’échantillon¯x : moyenne de l’échantillons : écart-type de l’échantillons 2 : variance de l’échantillonp : proportion dans l’échantillon• les estimateurs ( v.a. ou statistiques) seront notés par des majuscules¯XS 2F3.2 Généralités sur les estimateursSoit X une v.a. dont la loi dépend d’un paramètre inconnu θ.Soit (X 1 , . . . , X n ) un n-échantillon de X et (x 1 , . . . , x n ) sa réalisation. Ils’agit d’estimer le paramètre θ.• définition : Un ESTIMATEUR de θ sera une statistique T = f(X 1 , . . . , X n )et sa réalisation sera notée t = f(x 1 , . . . , x n )Pour un même paramètre, il peut y avoir plusieurs estimateurs possibles(ex: Le paramètre λ d’une loi de Poisson admet comme estimateurs possiblesla moyenne empirique et la variance empirique). Pour pouvoir choisir, il fautdéfinir les qualités qui font qu’un estimateur sera meilleur.• On appelle erreur d’estimation: T − θ.Celle-ci peut se décomposer de la façon suivante:T − θ = T − E(T ) + E(T ) − θLe terme T − E(T ) traduit la fluctuation de T autour de son espéranceet le terme E(T ) − θ = B(T ) représente l’erreur systématique et s’appelleBIAIS de l’ESTIMATEUR• définition (estimateur sans biais):Un estimateur T de θ est dit sans biais siE(T ) = θ, (ou bien B(T ) = 0)• exemple : La moyenne empirique est un estimateur sans biais du paramètreλ d’une loi de Poisson. La variance empirique est estimateur biaisé du mêmeparamètre λ.En effet, E( ¯X) = λ, E(S 2 ) = n − 1 λ car E(X) = V (X) = λ.n


3.3. ESTIMATION PONCTUELLE DES PARAMÈTRES USUELS 31• définition :Un estimateur T de θ est dit asymptotiquement sans biais si E(T ) −→ θpour n → ∞.• définition :Un estimateur{sans biaisasymptotiquement sans biais}est dit convergent si V (T ) −→0 pour n → ∞.• définition :Soient T et T ′ deux estimateurs sans biais de θ. T est dit plus efficace queT ′ siV (T ) ≤ V (T ′ )• définition :L’estimateur sans biais et de variance minimale est appelé estimateur efficace.3.3 Estimation ponctuelle des paramètres usuels3.3.1 Estimation de la moyenneSoit X une v.a dont on veut estimer la moyenne (ou espérance) µ = E(X) àpartir d’un n-échantillon (X 1 , . . . , X n ) de X.On ne suppose rien sur la loi de X.de µ.• théorème¯X = 1 n (X 1 + . . . + X n ) , la moyenne empirique, est un estimateur efficacecar sans biais E( ¯X) = µ et de plus V ( ¯X) = V (X) −→ 0 pournn → ∞, et ∀T , un autre estimateur de µ , V (T ) > V ( ¯X).• ¯x est la réalisation de ¯X et donc une estimation efficace de µ3.3.2 Estimation de la variance d’une population GaussienneSoit X une v.a qui suit une loi normale N (µ, σ). On veut estimer la varianceσ 2 de X.a) µ connue• théorème :T 2 = 1 n∑(X i − µ) 2 est un estimateur efficace de σ 2ni=1


32 CHAPTER 3. ESTIMATIONen effet,E(T 2 )= E( 1 n∑(X i − µ) 2 ) = E( 1 n∑Xi 2 − 2 1 n∑µX i + µ 2 )nnni=1i=1i=1= 1 n n E( ∑Xi 2 ) − 2µ 1 n∑E(X i ) + µ 2ni=1i=1= 1 n∑E(Xi 2 ) − µ 2 = 1 n∑[V (X i ) + (E(X i )) 2 ] − µ 2nni=1= σ 2 + µ 2 − µ 2 = σ 2i=1donc sans biaisV (T 2 ) = V ( 1 nn∑(X i − µ) 2 ) = 1 n n 2 V ( ∑(X i − µ) 2 )i=1= 1 ∑nn 2 V ((X i − µ) 2 ) = 1 n 2i=1n i=1∑i=1[E((X i − µ) 4 ) − (E((X i − µ) 2 )) 2 ] = . . . −→ 0b) µ inconnue• théorème :S 2 = 1 n∑(X i −n¯X) 2 , c’est-à-dire la variance empirique, est un estimateuri=1biaisé de σ 2 , mais asymptotiquement sans biais.en effet,E(S 2 ) = n − 1nσ2B(S 2 ) = E(S 2 ) − σ 2 = (1 − 1 n )σ2 = − 1 n σ2V (S 2 ) −→ 0 pour n → ∞• théorème :(S ′ ) 2 = nn − 1 S2 = 1n − 1n∑(X i − ¯X) 2i=1est un estimateur sans biais de σ 2en effet,donc sans biaisE((S ′ ) 2 ) = nn − 1 E(S2 ) =n n − 1n − 1 n σ2 = σ 2• n grand, E(S 2 ) ≈ E((S ′ ) 2 ) et on préfère S 2• n petit, on préfère (S ′ ) 2


3.3. ESTIMATION PONCTUELLE DES PARAMÈTRES USUELS 333.3.3 Estimation d’une proportionSoit une population ayant des individus possédant une certaine caractéristiqueA. On veut estimer à partir d’un échantillon de taille n la proportion d’individuspossédant cette caractéristique A. Soit K la v.a qui représente le nombre d’individusdans l’échantillon possédant la caractéristique A.• théorème :La fréquence empirique F = K/n est l’estimateur efficace de π.donc F est un es-E(F ) = E(X 1) + . . . + E(X n )nπV (F ) = V (X 1) + . . . + V (X n )n 2 =timateur convergent de π= π donc F est un estimateur sans biais denπ(1 − π) π(1 − π)n 2 =nExemples d’estimations ponctuelles• Exercice 1: (estimation d’une moyenne, d’un écart-type)Lors d’un concours radiophonique, on note X: le nb. de réponses reçueschaque jour. On suppose X ∼ N (µ, σ). Durant 10 jours on a obtenu:x i — 200 240 190 150 220 180 170 230 210 210 . Donner une estimationponctuelle de µ, σ 2 .solutionn = 10¯X = 1 10 (X 1 + . . . + X 10 ) est un estimateur de µsa réalisation ¯x = 110 (x 1 + . . . + x 10 ) = 2000 = 200 est une estimation ponctuelle,10efficace de µ– on est dans le cas où la moyenne µ n’est pas connue (cas b))S 2 = 1 10 (X2 1 + . . . + X 2 10) − ( ¯X) 2 est un estimateur biaisé de σ 2sa réalisation s 2 = 1 10 (x2 1 + . . . + x 2 10) − ¯x 2 = 40700 − 40000 = 700 est uneestimation ponctuelle, biaisé de σ 2(S ′ ) 2 = nn − 1 S2 = 10 9 S2 est un estimateur sans biais de σ 2sa réalisation (s ′ ) 2 = 109 s2 = 10 700 = 778 est une estimation ponctuelle,9sans biais de σ 2• Exercice 2: (estimation d’une proportion)Dans une population d’étudiants AES, on a prélevé indépendamment 2échantillons de taille n 1 = 120, n 2 = 150. On constate que 48 étudiants du1-er échantillon et 66 du 2-ème ont une formation scientifique secondaire. Soitπ la proportion d’étudiants ayant suivi une formation scientifique. Calculer 3estimations ponctuelles de π.


34 CHAPTER 3. ESTIMATIONsolutionF = K n ; f 1 = 48120 = 0.4, f 2 = 66150 = 0.44, f 48 + 663 =120 + 150 = 0.4223.4 Intervalle de confiance3.4.1 GénéralitésIl est plus réaliste et plus intéressant de fournir une estimation du typet 1 < θ < t 2plutôt que d’écrire sèchement θ = t, car on sait que la valeur estimée t diffèretoujours de la valeur exacte du paramètre recherché, θ. Il est donc souhaitablede donner la précision de l’estimation en acceptant de faire une erreur α surcelle-ci.• définition:Soit X une v.a. dont la loi dépend d’un paramètre inconnu θ; on appelleINTERVALLE DE CONFIANCE pour θ de niveau 1 − α (ou de seuil α), unintervalle qui a la probabilité 1 − α de contenir la vraie valeur de θ.[t 1 , t 2 ] est un intervalle de confiance de niveau 1 − α pour θ signifieP (t 1 < θ < t 2 ) = 1 − α(plus le niveau de confiance est élevé, plus la certitude est grande que la méthoded’estimation produira une estimation contenant la vraie valeur de θ)• les niveaux de confiance les plus fréquemment utilisés sont 90%, 95%, 99%• α est appelé le seuil (le risque); on choisira dans la plupart des cas unintervalle à risques symétriques, c-a-d t.q.P (θ < t 1 ) = α 2 , P (θ > t 2) = α 2• remarque: Si on augmente le niveau de confiance 1 − α, on augmente lalongueur de l’intervalle.3.4.2 Intervalle de confiance pour une moyennea) cas où n, la taille de l’échantillon, est petite n < 30On suppose que X ∼ N (µ, σ).On distingue deux cas σ connu et σ inconnu.a-1) σ connu• ¯X ∼ N (µ,σ√ n) d’après un résultat du chapitre 2


3.4. INTERVALLE DE CONFIANCE 35(ou bien ¯X − µσ/ √ n∼ N (0, 1))• On se fixe le risque α et on cherche dans la table de la loi normale la valeuru 1− α telle que 2P (−u 1− α < ¯X − µ2σ/ √ n < u 1− α ) = 1 − α2⇕P ( ¯X − µσ/ √ n < u 1− α ) = 1 − α/22u 1− α2 est le fractile d’ordre 1 − α 2de la loi normale centrée réduite.P (−u 1− α < ¯X − µ2σ/ √ n < u 1− α ) = 1 − α2⇕P ( ¯X − u 1− α2σ√ n< µ < ¯X + u 1− α2σ√ n) = 1 − α• Conclusion : si ¯x est une réalisation de ¯X, l’intervalle de confiance de µde seuil α estI = [¯x − u 1− α2σ√ n, ¯x + u 1− α2σ√ n]∑ 15• exemple: n = 15, σ = 3.75, α = 5%,i=1 x i = 2400 alors ¯x =2400/15 = 160, u 1− α = 1.96 car P (U < −1.96) = 0.0252on suppose X gaussienne et on obtient l’intervalle de confiance:[160 − 1.96 3.75 √15, 160 + 1.96 3.75 √15] = [158.10, 161.90]a-2) σ inconnu¯X − µ•S √ n − 1 ∼ t n−1 d’après le chapitre 2.• On cherche dans la table de la loi de Student,t n−1(1− α2 ) telle queα étant fixé, la valeurP (−t n−1(1− α2 ) < ¯X − µS/ √ n − 1 < t n−1(1− α 2 ) ) = 1 − α⇕¯X − µP (S/ √ n − 1 < t n−1(1− α 2 ) ) = 1 − α/2.


36 CHAPTER 3. ESTIMATIONOn aP (−t n−1(1− α2 ) < ¯X − µS/ √ n − 1 < t n−1(1− α 2 ) ) = 1 − α⇕P ( ¯X S− t n−1(1− α2 ) √ < µ < ¯X S+ t n−1(1− αn − 12 ) √ ) = 1 − αn − 1• Conclusion : si ¯x est une réalisation de ¯X et s une réalisation de S,l’intervalle de confiance de µ de seuil α estI = [¯x − t n−1(1− α2 ) s√ n − 1, ¯x + t n−1(1− α2 ) s√ n − 1]∑ 30• exemple n = 30,i=1 x ∑ 30i = 1673,i=1 x2 i = 98285, α = 10% alors¯x = 55.77, s 2 = 165.87, s = 12.88, t 29(10%) = 1.699I = [55.77 − 1.699 12.88 √29, 55.77 + 1.699 12.88 √29] = [51.71, 59.83]b) cas où n, la taille de l’échantillon, est grande n > 30Il n’est plus nécessaire de supposer que X est Gaussienne.b-1) σ connu• D’après le chapitre 2¯X − µσ/ √ nLa démarche est la même que dans a-1)∼ N (0, 1) pour n → ∞• Conclusion : Si ¯x est une réalisation de ¯X et si s une réalisation de S,l’intervalle de confiance de µ de seuil α estI = [¯x − u 1− α2σ√ n, ¯x + u 1− α2σ√ n]b-2) σ inconnuOn peut prendre comme intervalle de confiance celui de la section a-2). Onpeut également utiliser l’approximation suivante :¯X − µ•S √ → N (0, 1) .n• On se fixe l’erreur α et on cherche dans la table de la loi normale la valeur


3.4. INTERVALLE DE CONFIANCE 37u 1− α2 telle que P (−u 1− α2 < ¯X − µS/ √ n < u 1− α 2 ) = 1 − αOn a⇕P ( ¯X − µS/ √ n < u 1− α 2 ) = 1 − α/2.P (−u 1− α < ¯X − µ2S/ √ n < u 1− α ) = 1 − α2⇕P ( ¯X − u 1− α2S√ n< µ < ¯X + u 1− α2S√ n) = 1 − α• Conclusion : si ¯x est une réalisation de ¯X et s une réalisation de S,l’intervalle de confiance de µ de seuil α estI = [¯x − u 1− α2s√ n, ¯x + u 1− α2s√ n]• remarque: Plus n est grand, plus I est petit (car 1/ √ n ou bien 1/ √ n − 1est petit) et donc meilleure est la précision de l’estimation.3.4.3 Intervalle de confiance pour la variance d’une variablegaussienneOn suppose que X ∼ N (µ, σ).a) µ connue (peu fréquent)• T 2 = 1 n∑(X i − µ) 2 est un estimateur efficace de σ 2 (voir estimationni=1ponctuelle); sa réalisation est t 2 = 1 n∑(x i − µ) 2 . Comme X i − µ∼ N (0, 1),nσi=1nT 2 n∑σ 2 = ( X i − µ) 2 est une somme de n v.a. indépendantes qui suivent la loiσi=1normale N (0, 1) et doncnT 2σ 2∼ χ 2 n• L’erreur α étant fixée, on cherche dans la table χ 2 n les valeurs k n(1− α2 ) etk n(1−α/2) telles queP (k n( α2 ) < n σ 2 T 2 < k n(1− α2 ) ) = 1 − α (1)⇑


38 CHAPTER 3. ESTIMATION⎧⎪⎨⎪⎩P ( nT 2σ 2P ( nT 2σ 2(1) ⇐⇒ P (< k n(1− α2 ) ) = 1 − α/2< k n( α2 ) ) = α/2nT 2k n(1− α< σ 2 < nT 2) = 1 − α2 ) k n( α2 )• Conclusion : si t 2 est une réalisation de T 2 , l’intervalle de confiance de σ 2de seuil α estalorsnt 2 nt 2I = [ , ]k n(1− α2 ) k n( α2 )l’intervalle de confiance pour σ au seuil α est• exemple:b) µ inconnue• On a√ √n nI = [t , t ]k n(1− α2 ) k n( α2 )n = 10, µ = 6,10∑i=1x 2 i = 402, α = 5%t 2 = 40.2 − 36 = 4.2, k 10(0.025) = 20.5, k 10(0.975) = 3.25I = [10 × 4.220.510 × 4.2, ] = [2.05, 12.92]3.25nS 2σ 2∼ χ2 n−1• On cherche dans la table χ 2 n−1 les valeurs k n−1(1− α2 ) et k n−1( α2 ) telles queP (k n−1( α2 ) < n σ 2 S2 < k n−1(1− α2 ) ) = 1 − α (1)⇑⎧⎪⎨ P ( nS2σ 2 < k n−1( α 2 ) ) = α/2⎪⎩ P ( nS2σ 2 < k n−1(1− α 2 ) ) = 1 − α/2(1) ⇐⇒ P (nS 2k n−1(1− αk n−1( α2 ) < σ 2 < nS22 ) ) = 1 − α• Conclusion : si s 2 est une réalisation de S 2 , l’intervalle de confiance de σ 2de seuil α est


3.4. INTERVALLE DE CONFIANCE 39ns 2 ns 2I = [ , ]k n−1(1− α2 ) k n−1( α2 )l’intervalle de confiance pour σ au seuil α est√√nnI = [s, s ]k n−1(1− α2 ) k n−1( α2 )• remarque: Si dans les tables du χ 2 n ou de t n vous ne trouvez pas les valeurscorrespondantes à α/2 et à 1 − α/2, on prendra un risque asymétrique.• ATTENTION à ne pas confondre S avec T et ¯x avec µ• exemple:n = 30,30∑i=1x i = 1683,30∑i=1x 2 i = 98295, α = 10%alors¯x = 55.77, s 2 = 165.87, k 29(0.05) = 42.6, k 29(0.95) = 17.7I = [30 × 165.87,42.630 × 165.87] = [116.81, 281.14]17.73.4.4 Intervalle de confiance pour une proportion• on sait que F = K est un estimateur de π où π est la proportion de lanpopulation possédant le caractère considéré.ou bien√π(1 − π)F ∼ N (π,) pour nπ, n(1 − π) > 5n( ou les autres conditions citées en 2.2.3)F − π√π(1−π)n∼ N (0, 1) pour nπ, n(1 − π) > 5• On cherche dans la table de N (0, 1) la valeur u 1− α2P (−u 1− α < √F − π2P ( √F − ππ(1−πnπ(1−πn⇕< u 1− α2 ) = 1 − α< u 1− α2 ) = 1 − α/2.telle que


40 CHAPTER 3. ESTIMATIONOn aP (F − u 1− α2P (−u 1− α < √F − π2√π(1 − π)nπ(1−πn• problème: π(1 − π) est inconnu !!!⇕< π < F + u 1− α2< u 1− α2 ) = 1 − α√π(1 − π)) = 1 − αn• solution 1 : √méthode par estimation √ de l’écart-typeπ(1 − π) f(1 − f)on remplacepar, f étant la valeur observée de Fnn(estimation de π) et on aI = [f − u 1− α2√f(1 − f)n, f + u 1− α2√f(1 − f)]n• solution√2: méthode de l’ellipse (moins√classique, mais plus rigoureuse)π(1−ππ(1−πP (−u 1− α2 n< F − π < u 1− α2 n) = 1 − α√π(1−π⇐⇒ P (|π − F | < u 1− α2 n) = 1 − α⇐⇒ P ((π − F ) 2 − u 2 π(1−π1− α 2 n< 0) = 1 − α⇐⇒ P (π 2 (1 + u2 1− α 2n ) − π(2F + u2 1− α 2n) + F 2 < 0) = 1 − αOn cherche les racines π 1 et π 2 de l’équation (π − F ) 2 − u 2 1− α 2en connaissant u 1− α et f, la valeur observée de F2I = [π 1 , π 2 ]π(1 − πn= 0 ,


Chapter 4Tests de conformité4.1 Généralités sur les tests statistiquesUn test statistique est un mécanisme visant à trancher entre deux hypothèsesà partir de résultats observés sur un ou plusieurs échantillon(s). On formuleune hypothèse de départ, appelée hypothèse nulle et souvent notée (H 0 ) et ils’agit de décider si on rejette ou non cette hypothèse par opposition à un contrehypothèseappelée hypothèse alternative et souvent notée (H 1 ).On ne pourra jamais conclure avec certitude dans un test statistique. Il yaura toujours des erreurs de décision. Pour effectuer le test statistique, il faudrachoisir un certain risque d’erreur qui est la probabilité de se tromper en prenantla décision retenue. Il existe deux types d’erreurs :• On appelle erreur de première espèce ou erreur de type I, notée α, la probabilitéde rejeter (H 0 ) alors qu’elle est vraie. α est aussi appelé niveau ou seuil de signification.• On appelle erreur de deuxième espèce ou erreur de type II, notée β, laprobabilité d’accepter (H 0 ) alors qu’elle est fausse.• on appelle puissance du test pour (H 1 ) la probabilité de retenir (H 1 ) alorsqu’elle est vraie (= 1 − β).Mécanisme des tests• Il s’agit d’abord de formuler les hypothèses (H 0 ) et (H 1 ).• On choisit en général le risque de type I , α. (souvent donné dans l’énoncé).• On détermine la variable de décision Z (qui est une statistique) dont onconnaît la loi si (H 0 ) est vraie.• On calcul la région critique ou région de rejet W qui est l’ensemble desvaleurs de Z qui conduiront à rejeter (H 0 ). Ainsi, si α est fixé, W est déterminépar α = P [Z ∈ W avec (H 0 ) vraie ] . Le complémentaire de W est appelérégion d’acceptation. Les points de jonction entre les deux régions sont lespoints critiques.41


42 CHAPTER 4. TESTS DE CONFORMITÉ• On calcul la valeur de Z à partir de l’observation de l’échantillon.• Conclusion du test : acceptation ou rejet de (H 0 ) selon que la valeur de Zest ou non dans la région d’acceptation.4.2 Généralités sur les tests de conformitéSoit X une v.a dont la loi dépend d’un paramètre inconnu θ.• (H 0 ) θ = θ 0 , θ 0 étant une valeur numérique. (H 1 ) peut être de 3 types :- (H 1 ) θ ≠ θ 0 test bilatéral- (H 1 ) θ > θ 0 test unilatéral à droite- (H 1 ) θ < θ 0 test unilatéral à gauche.• Choix de la variable de décision Z qui est l’estimateur de θ ou une fonctionsimple de l’estimateur de θ.• Calcul de la région critique :α = P [décider (H 1 )alors que (H 0 ) est vraie] ⇐⇒α = P [Z ∈ W alors que θ = θ 0 ].a) tests bilatérauxOn peut chercher W sous la forme ] − ∞, z 1 [ ∪ ]z 2 , ∞[ ( ¯W =[z 1 , z 2 ]).AinsiP [z 1 ≤ Z ≤ z 2 avec θ = θ 0 ] = 1 − αb) tests unilatéraux à droiteOn peut chercher W sous la forme ]z, ∞[.AinsiP [Z > z avec θ = θ 0 ] = αc) tests unilatéraux à gaucheOn peut chercher W sous la forme ] − ∞, z[.AinsiP [Z < z avec θ = θ 0 ] = αOn traitera également (dans la section 4.6) les tests de choix entredeux valeurs du paramètre:(H 0 ) θ = θ 0 contre (H 1 ) θ = θ 1 où θ 0 et θ 1 sont des valeursnumériques.4.3 Tests de conformité sur une moyenne4.3.1 Cas d’une variable GaussienneOn supposera que X ∼ N (µ, σ).• On veut tester l’hypothèse(H 0 ) µ = µ 0 , µ 0 étant une valeur numérique contre


4.3. TESTS DE CONFORMITÉ SUR UNE MOYENNE 43(H 1 ) µ ≠ µ 0 ou µ > µ 0 ou µ < µ 0 .• On se fixe α, le risque de type I et on connaît la taille de l’échantillon.a) cas σ connu• On prend comme variable de décision ¯X [ou Z = ¯X − µσ/ √ n ].Si µ = µ 0alors¯X − µ 0σ/ √ n∼ N (0, 1)• Calcul de la région critique et conclusion du test.a-1) test bilatéral (H 1 ) µ ≠ µ 0On cherche la région d’acceptation sous la forme [x 1 , x 2 ], intervalle symétriqueautour de µ 0 .Soit u 1− α le réel déterminé comme habituellement dans la table de la loi2normale (P (−u 1− α < U < u 2 1− α ) = 1 − α avec U ∼ N (0, 1) ).2Ainsi, si µ = µ 0 alors P (µ 0 − u 1− α2(on remplace U par ¯X − µ 0σ/ √ n ).L’intervalle d’acceptation pour ¯X au risque α estI accept = [µ 0 − u 1− α2σ√ n< ¯X < µ 0 + u 1− α2σ√ n, µ 0 + u 1− α2σ√ n]• Conclusion :Si ¯x , la réalisation de ¯X, ∈ I accept , on ne peut rejeter (H 0 ) ,sinon, on rejette (H 0 ).σ√ n) = 1 − αRemarque Si on choisit comme variable de décision Z, l’intervalle d’acceptationpour Z au risque α est [−u 1− α2 ; u 1− α 2 ] . Si z, la réalisation de Z, ∈ [−u 1− α 2 ; u 1− α 2 ],on ne rejette pas (H 0 ). Sinon, on la rejette.a-2) test unilatéral à droite (H 1 ) µ > µ 0On cherche la région critique sous la forme [x 1 , +∞[.Soit u 1−α le réel déterminé dans la table de la loi normale tel que P (U < u 1−α ) = 1 − αavec U ∼ N (0, 1).Ainsi, si µ = µ 0 alors P ( ¯X > µ 0 + u 1−ασ √n ) = α(on remplace U par ¯X − µ 0σ/ √ n )La région critique (ou intervalle de rejet) pour ¯X au risque α estσI rejet = [µ 0 + u 1−α √n , +∞[


44 CHAPTER 4. TESTS DE CONFORMITÉ• Conclusion :Si ¯x , la réalisation de ¯X, ∈ I rejet , on rejette (H 0 ) ,sinon, on ne la rejette pas.Remarque Si on choisit comme variable de décision Z, l’intervalle d’acceptationpour Z au risque α est [u 1−α ; +∞] . Si z, la réalisation de Z , ∈ [u 1−α ; +∞[,on rejette (H 0 ). Sinon, on ne la rejette pas.a-3) test unilatéral à gauche (H 1 ) µ < µ 0On cherche la région critique sous la forme ] − ∞, x 1 ].Soit u 1−α le réel déterminé dans la table de la loi normale tel que P (U < u 1−α ) = 1 − αavec U ∼ N (0, 1). On a donc P (U < −u 1−α ) = α.Ainsi, si µ = µ 0 alors P ( ¯X < µ 0 − u 1−ασ √n ) = α (on remplace U par¯X − µ 0σ/ √ n )La région de rejet pour ¯X au risque α estI rejet =] − ∞, µ 0 − u 1−ασ √n ]• Conclusion :Si ¯x , la réalisation de ¯X, ∈ I rejet , on rejette (H 0 ) ,sinon, on ne la rejette pas.Remarque Si on choisit comme variable de d ] − ∞ : −u 1−α ] . Si z, laréalisation de Z , ∈ ] − ∞ : −u 1−α ], on rejette (H 0 ). Sinon, on ne la rejettepas.b) cas σ inconnu• On prend comme variable de décision ¯X [ou Z = ¯X − µS/ √ n − 1 ].¯X − µ 0Si µ = µ 0 alorsS/ √ n − 1 ∼ t n−1• Calcul de la région critique et conclusion du test.b-1) test bilatéral (H 1 ) µ ≠ µ 0On cherche la région d’acceptation sous la forme [x 1 , x 2 ], intervalle symétriqueautour de µ 0 .Soit t n−1(1− α2 ) le réel déterminé comme habituellement dans la table de t n−1(P (−t n−1(1− α2 ) < T < t n−1(1− α2 ) ) = 1 − α avec T ∼ t n−1 ).Ainsi, si µ = µ 0 alors P (µ 0 − t n−1(1− α2 ) S√ n − 1< ¯X < µ 0 + t n−1(1− α(on remplace T par¯X − µ 0S/ √ n − 1 ).√ n − 1) = 1 − α2 ) S


4.3. TESTS DE CONFORMITÉ SUR UNE MOYENNE 45L’intervalle d’acceptation pour ¯X au risque α estI accept = [µ 0 − t n−1(1− α2 ) s√ n − 1, µ 0 + t n−1(1− α2 ) s√ n − 1]• Conclusion :Si ¯x , la réalisation de ¯X, ∈ I accept , on ne peut rejeter (H 0 ) ,sinon, on rejette (H 0 ).Remarque Si on choisit comme variable de décision Z, l’intervalle d’acceptationpour Z au risque α est [−t n−1(1− α2 ) ; t n−1(1− α2 ) ] . Si z, la réalisation de Z ,∈ [−t n−1(1− α2 ) ; t n−1(1− α2 ) ], on ne rejette pas (H 0 ). Sinon, on la rejette.b-2) test unilatéral à droite (H 1 ) µ > µ 0On cherche la région critique sous la forme [x 1 , +∞[.Soit t n−1(1−α) le réel déterminé dans la table de t n−1 tel que P (T < t n−1(1−α) ) = 1 − αavec T ∼ t n−1 .Ainsi, si µ = µ 0 alors P ( ¯X > µ 0 + t n−1(1−α)S√ n − 1) = α (on remplace T¯X − µ 0parS/ √ n − 1 )La région de rejet pour ¯X au risque α estsI rejet = [µ 0 + t n−1(1−α) √ , +∞[ n − 1• Conclusion :Si ¯x , la réalisation de ¯X, ∈ I rejet , on rejette (H 0 ) ,sinon, on ne la rejette pas.Remarque Si on choisit comme variable de décision Z, l’intervalle de rejetpour Z au risque α est [t n−1(1−α) , +∞] . Si z, la réalisation de Z , ∈ ] − ∞ :−u 1−α ], on rejette (H 0 ). Sinon, on ne la rejette pas.b-3) test unilatéral à gauche (H 1 ) µ < µ 0On cherche la région critique sous la forme ] − ∞, x 1 ].On a P (T < −t n−1(1−α) ) = α.Ainsi, si µ = µ 0 alors P ( ¯X < µ 0 − t n−1(1−α)S√ n − 1) = α.La région de rejet pour ¯X au risque α estsI rejet =] − ∞, µ 0 − t n−1(1−α) √ ] n − 1• Conclusion :Si ¯x , la réalisation de ¯X, ∈ I rejet , on rejette (H 0 ) ,sinon, on ne la rejette pas.


46 CHAPTER 4. TESTS DE CONFORMITÉRemarque Si on choisit comme variable de décision Z, l’intervalle de rejetpour Z au risque α est [−∞ : −t n−1(1−α) ] . Si z, la réalisation de Z , ∈ [−∞ :−t n−1(1−α) ], on rejette (H 0 ). Sinon, on ne la rejette pas.4.3.2 Cas d’un échantillon de grande taille(Ce qui signifie en pratique n > 30)a) cas σ connuQuand n est grand, on peut considérer que si µ = µ 0 ,¯X − µ 0σ√ n∼ N (0, 1) .Tous les résultats du paragraphe 4.3.1a) sont valables.b) cas σ inconnuQuand n est grand, on peut considérer que si µ = µ 0 ,¯X − µ 0S√ n∼ N (0, 1) .Il faut reprendre les résultats du paragraphe 4.3.1 b) en remplaçant n − 1par n , t n−1(1−α) par u 1−α et t n−1(1− α2 ) par u 1− α . 2• test bilatéral : L’intervalle d’acceptation pour ¯X au risque α estssI accept = [µ 0 − u 1−α/2 √ , µ 0 + u 1−α/2 √ ]n n• test unilatéral à droite : L’intervalle de rejet pour ¯X au risque α estsI rejet = [µ 0 + u 1−α √ , +∞] n• test unilatéral à gauche : L’intervalle de rejet pour ¯X au risque α estsI rejet = [−∞, µ 0 − u 1−α √ ] n4.4 Tests de conformité sur une variance d’unev.a GaussienneOn suppose X ∈ N (µ, σ).• On veut tester l’hypothèse(H 0 ) σ 2 = σ 2 0 , σ 2 0 étant une valeur numérique. contre(H 1 ) σ 2 ≠ σ 2 0 ou σ 2 > σ 2 0 ou σ 2 < σ 2 0.• On se fixe α, le risque de type I et on connaît la taille de l’échantillon.a) cas µ connu


4.4. TESTS DE CONFORMITÉ SUR UNE VARIANCE D’UNE V.A GAUSSIENNE47nT 2σ 2 ].• On prend comme variable de décision T 2 == 1 nSi σ 2 = σ 2 0alorsnT 2σ 2∼ χ 2 n• Calcul de la région critique et conclusion du test.a-1) test bilatéral (H 1 ) σ 2 ≠ σ 2 0n∑(X i − µ) 2 [ou Z =On cherche la région d’acceptation sous la forme [t 1 , t 2 ].Soit k n(α/2) et k n(1−α/2) les réels déterminés dans la table de la loi χ 2 n telsque ⎧⎪⎨P ( nT 2< k n(1− α2 ) ) = 1 − α/2⎪ ⎩σ 2P ( nT 2σ 2< k n( α2 ) ) = α/2Si σ 2 = σ 2 0 , on a donc P (k n(α/2) < n σ 2 0T 2 < k n(1−α/2) ) = 1 − αd’où P ( σ2 0n k n( α 2 ) < T 2 < σ2 0n k n(1− α 2 ) ) = 1 − αL’intervalle d’acceptation pour T 2 au risque α estI accept = [ σ2 0n k n( α 2 ) , σ2 0n k n(1− α 2 ) ]• Conclusion :Si t 2 , la réalisation de T 2 , ∈ I accept , on ne peut rejeter (H 0 ) ,sinon, on rejette (H 0 ).Remarque Si α est tel que l’on ne peut déterminer k n(α/2) et k n(1−α/2) ,on cherche l’intervalle d’acceptation sous la forme [k α1 , k α2 ] déterminés dans latable de la loi χ 2 n tels que P ( n σ02 T 2 > k α2 ) = α 2 et P ( n σ0 2 T 2 < k α1 ) = α 1 avecα = α 1 + α 2 donc I accept = [ σ2 0n k α 1, σ2 0n k α 2]a-2) test unilatéral à droite (H 1 ) σ 2 > σ 2 0On cherche la région critique sous la forme [t 1 , +∞[.Soit k n(1−α) le réel déterminé dans la table de la loi χ 2 n par P ( n σ 2 0T 2 < k n(1−α) ) = 1 − αLa région critique (ou intervalle de rejet) pour T 2 au risque α esti=1I rejet = [ σ2 0n k n(1−α), +∞[• Conclusion :Si t 2 , la réalisation de T 2 , ∈ I rejet , on rejette (H 0 ) ,


48 CHAPTER 4. TESTS DE CONFORMITÉsinon, on ne rejette pas (H 0 ).a-3) test unilatéral à gauche (H 1 ) µ < µ 0On cherche la région critique sous la forme ] − ∞, t 1 ].Soit k n(α) le réel déterminé dans la table de la loi χ 2 n par P ( n σ0 2 T 2 < k n(α) ) = αLa région critique (ou intervalle de rejet) pour T 2 au risque α estI rejet = [−∞, σ2 0n k n(α)]• Conclusion :Si t 2 , la réalisation de T 2 , ∈ I rejet , on rejette (H 0 ) ,sinon, on ne rejette pas (H 0 ).Remarque Si on choisit comme variable de décision Z, l’intervalle d’acceptationpour Z au risque α pour un test bilatéral est I accept = [k n( α2 ) , k n(1− α2 ) ] l’intervallede rejet pour Z au risque α pour un test unilatéral à droite et à gauche est respectivementI rejet = [k n(1−α) , +∞] et I rejet = [−∞, k n(α) ]b) cas µ inconnu• On anS 2σ 2∼ χ2 n−1On reprend les résultats de a) en remplaçant T 2 par S 2 et χ 2 n par χ 2 n−1.• Résumé–Intervalle d’acceptation pour S 2 dans un test bilatéralI accept = [ σ2 0n k n−1( α 2 ) , σ2 0n k n(1− α 2 ) ]–Intervalle de rejet pour S 2 dans un test unilatéral à droiteI rejet = [ σ2 0n k n−1(1−α), +∞]–Intervalle d’acceptation pour S 2 dans un test unilatéral à gaucheI rejet = [−∞, σ2 0n k n−1(α)]


4.5. TESTS DE CONFORMITÉ SUR UNE PROPORTION 494.5 Tests de conformité sur une proportionSoit π la proportion de la population possédant le caractère considéré. On veuttester l’hypothèse• On veut tester l’hypothèse(H 0 ) π = π 0 , π 0 étant une valeur numérique. contre(H 1 ) π ≠ π 0 ou π > π 0 ou π < π 0 .• On prend comme variable de décision F = K/n.Si π = π 0√π0 (1 − π 0 )F ∼ N (π 0 ,) (approximation)n• On se fixe α, le risque de type I et on connaît la taille de l’échantillon.• Calcul de la région critique et conclusion du testa) Test bilatéral π ≠ π 0On cherche un intervalle symétrique autour de π 0 . On cherche dans la tablede N (0, 1) la valeur u 1− α telle que2P (−u 1− α < F − π 0√2P ( F − π 0√π 0(1−π 0nπ 0(1−π 0n⇕< u 1− α2 ) = 1 − α< u 1− α2 ) = 1 − α/2L’intervalle d’acceptation pour F au risque α estI = [π 0 − u 1− α2√π0 (1 − π 0 )n, π 0 + u 1− α2√π0 (1 − π 0 )]n• Conclusion :Si f , la réalisation de F , ∈ I accept , on ne peut pas rejeter (H 0 ) ,sinon, on rejette (H 0 ).b) Test unilatéral à droite π > π 0On cherche dans la table de N (0, 1) la valeur u 1−α telle que P ( F − π 0√π 0(1−π 0nL’intervalle de rejet pour F au risque α est√π0 (1 − π 0 )I = [π 0 + u 1−α , +∞]n• Conclusion :Si f , la réalisation de F , ∈ I rejet , on rejette (H 0 ) ,< u 1−α ) = 1 − α


50 CHAPTER 4. TESTS DE CONFORMITÉsinon, on ne rejette pas (H 0 ).c) Test unilatéral à gauche π < π 0On a P ( F − π 0√ < −u 1−α ) = απ 0(1−π 0nL’intervalle de rejet pour F au risque α est donc√π0 (1 − π 0 )I = [−∞, π 0 − u 1−α ]n• Conclusion :Si f , la réalisation de F , ∈ I rejet , on rejette (H 0 ) ,sinon, on ne rejette pas (H 0 ).4.6 Tests de choix entre deux valeurs du paramètreOn présentera ici un test d’hypothèse un peu différent dans sa formulation maisdont les étapes sont essentiellement les mêmes que celles des tests de conformitédéjà vus. On présentera deux types de problèmes.Soit X une v.a qui dépend d’un paramètre θ inconnu. Le problème est dechoisir entre deux valeurs numériques θ 0 et θ 1 du paramètre θ.(H 0 ) θ = θ 0contre(H 1 ) θ = θ 1 .premier type de test• Le risque de type I est donné, ainsi que la taille de l’échantillon.• Calcul de la région critique W , Z étant la variable de décision.a) Si θ 1 > θ 0 W = [¯θ, +∞[ avec P (Z > ¯θ avec θ = θ 0 ) = α.b) Si θ 1 < θ 0 W =] − ∞, ¯θ] avec P (Z < ¯θ avec θ = θ 0 ) = α.• Calcul du risque de deuxième espèce β = P (accepter(H 0 )alors que (H 1 )est vraie)a) β = P (Z < ¯θ avec θ = θ 1 ).b) β = P (Z > ¯θ avec θ = θ 1 ).deuxième type de testOn suppose que les risques α et β sont donnés et on veut déterminer la régioncritique et la taille de l’échantillon.On peut faire le premier type de test avec la moyenne, la variance et laproportion. On fera le deuxième test sur la moyenne d’un grand échantillon etsur la proportion.


Chapter 5Tests de comparaison5.1 Généralités sur les tests de comparaisonOn considère deux variables aléatoires X 1 et X 2 définies sur deux populationsP 1 et P 2 respectivement. Ces v.a dépendent d’un paramètre inconnu θ 1 et θ 2respectivement.• On veut tester l’hypothèse(H 0 ) θ 1 − θ 2 = 0contre(H 1 ) θ 1 − θ 2 ≠ 0 ou θ 1 − θ 2 > 0 ou θ 1 − θ 2 < 0.• On choisit le risque α.On dispose d’un n 1 -échantillon de X 1 et d’un n 2 -échantillon de X 2 qui fournissentrespectivement T 1 un estimateur de θ 1 et T 2 un estimateur de θ 2 .• On détermine la variable de décision Z qui est une fonction de T 1 et T 2 ,et dont on connaît la loi de probabilité si (H 0 ) est vraie.• α étant connu, on calcule la région critique ou la région d’acceptationcomme dans le chapitre précédent.• On calcule la valeur z de Z à partir des résultats des échantillons.Si z ∈ I rejet , on rejette (H 0 ) avec un risque α de se tromper.Sinon, on ne peut rejeter (H 0 ).5.2 Tests de comparaison de deux moyennesSoient deux populations P 1 et P 2 et deux v.a X 1 et X 2 définies respectivementsur P 1 et P 2 , X 1 et X 2 étant indépendantes.On pose µ 1 = E(X 1 ) , µ 2 = E(X 2 ) , σ 1 = σ(X 1 ) , σ 2 = σ(X 2 ).On dispose d’un n 1 -échantillon de X 1 qui donne une moyenne ¯x 1 et un écarttype s 1 et d’un n 2 -échantillon de X 2 qui donne une moyenne ¯x 2 et un écart types 2 .• On veut tester l’hypothèse(H 0 ) µ 1 − µ 2 = 051


52 CHAPTER 5. TESTS DE COMPARAISONcontre(H 1 ) µ 1 − µ 2 ≠ 0 ou µ 1 − µ 2 > 0 ou µ 1 − µ 2 < 0.• On choisit le risque α.5.2.1 Cas où σ 1 et σ 2 sont connusOn supposera que X 1 ∼ N (µ 1 , σ 1 ) et X 2 ∼ N (µ 2 , σ 2 ) ou que n 1 , n 2 > 30.• On prend comme variable de décision Z = ¯X 1 −√¯X 2.σ12 + σ2 2n 1 n 2Si µ 1 − µ 2 = 0, alors¯X 1 −√¯X 2∼ N (0, 1)σ12 + σ2 2n 1 n 2a) test bilatéral µ 1 − µ 2 ≠ 0On cherche un intervalle d’acceptation centré en 0. Soit u 1− α le réel déterminé2comme habituellement dans la table de la loi centrée réduite N (0, 1).L’intervalle d’acceptation pour Z au risque α estI accept = [−u 1− α2 , +u 1− α 2 ]• Conclusion :Si z = ¯x 1 − ¯x 2√σ 21n 1+ σ2 2n 2, la réalisation de Z, ∈ I accept , on ne peut rejeter (H 0 ); sinon, on rejette (H 0 ).b) test unilatéral à droite µ 1 − µ 2 > 0Soit u 1−α le réel déterminé comme habituellement dans la table de la loicentrée réduite N (0, 1).L’intervalle de rejet pour Z au risque α estI rejet = [u 1−α , +∞[• Conclusion :Si z = ¯x 1 − ¯x√ 2, la réalisation de Z, ∈ Iσ 2 rejet , on rejette (H 0 ) au risque1n 1+ σ2 2n 2α de se tromper; sinon, on ne peut pas rejeter (H 0 ).c) test unilatéral à gauche µ 1 − µ 2 < 0Soit u 1−α le réel déterminé comme habituellement dans la table de la loicentrée réduite N (0, 1).L’intervalle de rejet pour Z au risque α est


5.2. TESTS DE COMPARAISON DE DEUX MOYENNES 53I rejet =] − ∞, −u 1−α ]• Conclusion :Si z = ¯x 1 − ¯x√ 2, la réalisation de Z, ∈ Iσ 2 rejet , on rejette (H 0 ) au risque1n 1+ σ2 2n 2α de se tromper; sinon, on ne peut pas rejeter (H 0 ).5.2.2 Cas où σ 1 et σ 2 sont inconnus avec σ 1 = σ 2 et n 1 etn 2 < 30On supposera que X 1 ∼ N (µ 1 , σ 1 ) et X 2 ∼ N (µ 2 , σ 2 ).• On prend comme variable de décision Z = √Si µ 1 − µ 2 = 0,n 1 S 2 1 + n 2S 2 2n 1 + n 2 − 2¯X 1 − ¯X 2√ .1+ 1 n 1 n 2√¯X 1 − ¯X 2n 1 S1 2 + n √2S22 1+ 1 n 1 + n 2 − 2 n 1 n 2∼ t n1+n 2−1a) test bilatéral µ 1 − µ 2 ≠ 0On cherche un intervalle d’acceptation centré en 0. Soit t 1−α/2 le réeldéterminé dans la table de la loi de student t n1+n 2−1 tel que P (−t 1−α/2 0Soit t 1−α le réel déterminé dans la table de la loi de student t n1+n 2−1 tel queP (Z < t 1−α ) = 1 − α.L’intervalle de rejet pour Z au risque α est• Conclusion :I rejet = [t 1−α , +∞[


54 CHAPTER 5. TESTS DE COMPARAISON¯x 1 − ¯x 2Si z = √n 1 s 2 1 + n √ , la réalisation de Z, ∈ I rejet , on rejette2s 2 2 1+ 1 n 1 + n 2 − 2 n 1 n 2(H 0 ) au risque α de se tromper ,sinon, on ne peut pas rejeter (H 0 ).c) test unilatéral à gauche µ 1 − µ 2 < 0L’intervalle de rejet pour Z au risque α estI rejet =] − ∞, −t 1−α ]• Conclusion :¯x 1 − ¯x 2Si z = √n 1 s 2 1 + n √ , la réalisation de Z, ∈ I rejet , on rejette2s 2 2 1+ 1 n 1 + n 2 − 2 n 1 n 2(H 0 ) au risque α de se tromper ,sinon, on ne peut pas rejeter (H 0 ).5.2.3 Cas où σ 1 et σ 2 sont inconnus et n 1 et n 2 > 30• On prend comme variable de décision Z = √¯X 1 − ¯X 2.S12n 1 − 1 + S2 2n 2 − 1Si µ 1 − µ 2 = 0, alors¯X 1 −√¯X 2S12n 1 − 1 + S2 2n 2 − 1∼ N (0, 1)a) test bilatéral µ 1 − µ 2 ≠ 0On cherche un intervalle d’acceptation centré en 0. Soit u 1− α le réel déterminé2comme habituellement dans la table de la loi centrée réduite N (0, 1).L’intervalle d’acceptation pour Z au risque α est• Conclusion :¯x 1 − ¯x 2Si z =√s 21n 1−1 + s2 2n 2−1(H 0 ) ,sinon, on rejette (H 0 ).I accept = [−u 1− α2 , +u 1− α 2 ], la réalisation de Z, ∈ I accept , on ne peut rejeterb) test unilatéral à droite µ 1 − µ 2 > 0Soit u 1−α le réel déterminé comme habituellement dans la table de la loicentrée réduite N (0, 1).L’intervalle de rejet pour Z au risque α est


5.3. TESTS DE COMPARAISON DE DEUX VARIANCES 55I rejet = [u 1−α , +∞[• Conclusion :¯x 1 − ¯x 2Si z =√s 21n 1−1 + s2 2n 2−1risque α de se tromper ,sinon, on ne peut pas rejeter (H 0 )., la réalisation de Z, ∈ I rejet , on rejette (H 0 ) auc) test unilatéral à gauche µ 1 − µ 2 < 0Soit u 1−α le réel déterminé comme habituellement dans la table de la loicentrée réduite N (0, 1).L’intervalle de rejet pour Z au risque α estI rejet =] − ∞, −u 1−α ]• Conclusion :¯x 1 − ¯x 2Si z =√s 21n 1−1 + s2 2n 2−1risque α de se tromper ,sinon, on ne peut pas rejeter (H 0 )., la réalisation de Z, ∈ I rejet , on rejette (H 0 ) au5.3 Tests de comparaison de deux variancesSoient deux v.a indépendantes X 1 ∼ N (µ 1 , σ 1 ) et X 2 ∼ N (µ 2 , σ 2 ).On dispose d’un n 1 -échantillon de X 1 qui donne un écart type s 1 et d’unn 2 -échantillon de X 2 qui donne un écart type s 2 .• On veut tester l’hypothèse(H 0 ) σ1 2 − σ2 2 = 0contre(H 1 ) σ1 2 − σ2 2 ≠ 0.• On choisit le risque α.n 1 S12n• On choisit comme variable de décision, la statistique Z = 1 − 1n 2 S22n 2 − 1Si σ1 2 − σ2 2 = 0, alorsZ =n 1 S 2 1n 1 − 1n 2 S 2 2n 2 − 1∼ F(n 1 − 1, n 2 − 1)


56 CHAPTER 5. TESTS DE COMPARAISON• Pour calculer la région critique, on détermine dans la table de la loi deFischer-Snedecor F(n 1 − 1, n 2 − 1) les réels f α/2 et f 1−α/2 tels que{ P (Z < f1−α/2 ) = 1 − α/2P (Z < f α/2 ) = α/2(⇒ P (f 1−α/2 < Z < f α/2 ) = 1 − α).L’intervalle d’acceptation au risque α estI accept = [f 1−α/2 , f α/2 ]• Conclusionn 1 s 2 1nSi z = 1 − 1n 2 s 2 , la réalisation de Z , ∈ I accept , on accepte (H 0 ); sinon on2n 2 − 1rejette (H 0 ).• Remarque importanteSi α est tel que l’on ne puisse pas lire dans la table de Fischer-Snedecor lesvaleurs f α/2 et f 1−α/2 , on cherchera un intervalle d’acceptation pour Z de laforme [f α1 , f α2 ], f α1 étant définie par P (Z < f α1 ) = α 1 et f α2 étant définie parP (Z > f α2 ) = α 2 avec α = α 1 + α 2 .5.4 Tests de comparaison de deux proportionsSoient π 1 la proportion d’individus possédant le caractère considéré A dans lapopulation P 1 et π 2 la proportion d’individus possédant le même caractère dansla population P 2 .On dispose d’un n 1 - échantillon de P 1 et un n 2 - échantillon de P 2 . Soient F 1la fréquence empirique associée à l’échantillon de P 1 et F 2 la fréquence empiriqueassociée à l’échantillon de P 2 .• On veut tester l’hypothèse(H 0 ) π 1 = π 2contre(H 1 ) π 1 ≠ π 2 ou π 1 > π 2 ou π 1 < π 2 .• On choisit le risque de type I α.• Choix de variable de décision :Si π 1 = π 2 (= π)Z = √F 1 − F 2π(1 − π)( 1 n 1+ 1 n 2)∼ N (0, 1).PROBLÈME : π est inconnu !!!On remplace π par f = n 1f 1 + n 2 f 2. Ainsin 1 + n 2


5.4. TESTS DE COMPARAISON DE DEUX PROPORTIONS 57F 1 − F 2Z = √f(1 − f)( 1 + 1 ∼ N (0, 1).)n 1 n 2a) test bilatéral π 1 ≠ π 2On cherche un intervalle d’acceptation centré en 0. Soit u 1− α le réel déterminé2comme habituellement dans la table de la loi centrée réduite N (0, 1).L’intervalle d’acceptation pour Z au risque α estI accept = [−u 1− α2 , +u 1− α 2 ]• Conclusion :f 1 − f 2Si z = √f(1 − f)( 1 n 1+ 1 n 2)rejeter (H 0 ) ,sinon, on rejette (H 0 )., la réalisation de Z, ∈ I accept , on ne peutb) test unilatéral à droite π 1 > π 2Soit u 1−α le réel déterminé comme habituellement dans la table de la loicentrée réduite N (0, 1).L’intervalle de rejet pour Z au risque α estI rejet = [u 1−α , +∞[• Conclusion :Si z , la réalisation de Z, ∈ I rejet , on rejette (H 0 ) au risque α de setromper ,sinon, on ne peut pas rejeter (H 0 ).c) test unilatéral à gauche π 1 < π 2Soit u 1−α le réel déterminé comme habituellement dans la table de la loicentrée réduite N (0, 1).L’intervalle de rejet pour Z au risque α estI rejet =] − ∞, −u 1−α ]• Conclusion :Si z , la réalisation de Z, ∈ I rejet , on rejette (H 0 ) au risque α de setromper ,sinon, on ne peut pas rejeter (H 0 ).


58 CHAPTER 5. TESTS DE COMPARAISON


Chapter 6Tests du Khi-deux6.1 Tests d’adéquation à une loi théoriqueOn a un phénomène aléatoire représenté par une v.a notée X. Généralement,on ne connaît ni la forme de la loi de probabilité suivie par ce phénomène,ni les paramètres de cette loi. Pour remédier à cette ignorance, on tire un n-échantillon que l’on analyse selon les méthodes de statistiques descriptives. Celanous permettra de choisir parmi les lois de probabilité classiques (binomiale,de Poisson, normale,..) celle qui semble être le plus proche de la distributionexpérimentale induite par l’échantillon.On estime ensuite, à partir des résultats observés sur l’échantillon, les paramètresde cette loi théorique choisie pour modéliser le phénomène aléatoire.Mais il subsiste toujours des écarts entre la loi théorique ainsi déterminée etla distribution issue du sondage.Si ces écarts ne sont pas trop grands, on conclura qu’ils sont dus au hasardet l’hypothèse selon laquelle le phénomène suit la loi théorique choisie ne pourrapas être refusée; sinon, on conclura que le phénomène ne suit pas la loi théoriqueretenue.Ce qui précède résume le principe des tests d’hypothèses concernant la validitéde l’ajustement d’une distribution expérimentale issue d’un sondage à uneloi théorique.On veut tester l’hypothèse selon laquelle la v.a X suit une loi Q.• L’hypothèse sera donc(H 0 ) X suit la loi Qcontre(H 1 ) X ne suit pas la loi Q.• Il s’agit de déterminer la variable de décision.Pour cela on dispose de n observations ou réalisations de cette v.a. Cesobservations peuvent être groupées en k classes ou modalités notées C 1 , . . . , C k .A chaque classe C i correspond un EFFECTIF OBSERVE noté n i .La distribution expérimentale peut être mise sous la forme :59


60 CHAPTER 6. TESTS DU KHI-DEUXclasses de Xeffectifs observésC 1 n 1C 2 n 2..C kn k∑i=kn itotal n =i=1Ecart entre une distribution expérimentale et une loi théoriqueSi X ∼ Q, on peut calculer la probabilité de la classe C i , notée p iC i )) car on connaît Q.(p i = P (X ∈définition On appelle EFFECTIF THEORIQUE le produit np i .( Ce n’est pas forcément un entier).définition L’écart entre la distribution théorique et expérimentale est mesurépar la distanced =∑i=ki=1(n i − np i ) 2A cette distance d, on associe la statistique D dont la réalisation est d:∑i=k(N i − np i ) 2D =, N i étant la v.a qui compte l’effectif de la classe C i etnpi=1 idont la réalisation est n i .np iOn choisira comme variable de décision D.Si X ∼ Q, alors∑i=ki=1(N i − np i ) 2np i∼ χ 2 k−r−1où r est le nombre de paramètres de la loi Q qui ont été estimés et k, le nombrede classes de X.• On choisit le risque de type I α et on va rejeter (H 0 ) si l’écart D est tropgrand. Ainsi, on choisira la zone de rejet de la forme [d ∗ , +∞[. On déterminedans la table de χ 2 k−r−1 , le réel k k−r−1(1−α) tel que P (D < k k−r−1(1−α) ) = 1−α.


6.2. TESTS D’INDÉPENDANCE DE DEUX CARACTÈRES 61• conclusionSi d ∈ [k k−r−1(1−α) , +∞[ on rejette (H 0 ) avec le risque α de se tromper;sinon on ne la rejette pas.6.2 Tests d’indépendance de deux caractèresSoient X et Y deux variables aléatoires définies sur la même population Ωmesurant deux caractères (X et Y peuvent être des variables qualitatives).X : Ω → M, M étant un ensemble de modalités divisé en k classes C 1 , C 2 , . . . , C k .Y : Ω → M ′ , M ′ étant un ensemble de modalités divisé en l classes D 1 , D 2 , . . . , D l .On veut savoir s’il existe une liaison significative entre X et Y .• On veut tester l’hypothèse(H 0 ) X et Y sont indépendantescontre(H 1 ) X et Y ne sont pas indépendantes.• Il s’agit de déterminer la variable de décision.Pour cela, on dispose d’un échantillon de X et d’un échantillon de Y dontles résultats peuvent se mettre sous la forme du tableau de contingence suivant:D 1 D 2 . . . D l Effectifs des C iC 1 n 11 n 12 . n 1l n 1•C 2 n 21 n 22 . n 2l n 2•......C k n k1 n k2 . n kl n k•Effectif desD j n •1 n •2 . n •l n∑i=k∑j=l∑i=k∑j=lavec n •j = n ij et n i• = n ij et n = n ij .i=1Si (H 0 ) est vraie, alorsj=1i=1 j=1P ((X ∈ C i ) ∩ (X ∈ D j )) = P (X ∈ C i ) × P (Y ∈ D j ) ∀i, j.Comme on ne connaît pas les probabilités théoriques de X et Y , on peuttraduire cette propriété par :f ij = f i• × f •j ∀i, j (1)avec f ij = n ijn, f i• = n i•n, f •j = n •jndéfinition On appelle EFFECTIF THEORIQUE la quantité t ij = n i• × n •jn


62 CHAPTER 6. TESTS DU KHI-DEUXOn a (1) ⇐⇒ n ij = t ij ∀i, jtotal de la ligne × total de la colonne(effectif théorique = ).n∑i=k∑j=l(n ij − t ij ) 2On définit la quantité d =. Il est naturel de décider quei=1 j=1si d est trop grande, on rejette (H 0 ).On choisit comme variable de décision la v.a D associée à d.Si (H 0 ) est vraie,t ij∑i=k∑j=l(N ij − T ij ) 2Ti=1 j=1 ij∼ χ 2 (k−1)(l−1)où T ij et N ij sont les v.a dont les réalisations sont respectivement t ij et n ij .• Le risque de type I, α, étant fixé, n calcule la région critique en déterminantle réel k (k−1)(l−1) (1 − α) dans la table du χ 2 correspondante tel que P (D


6.3. TESTS D’HOMOGÉNÉITÉ (D’UNE V.A X) 63On a à notre disposition un échantillon de X dans chacune des r populationsdont les résultats peuvent se mettre sous la forme du tableau de contingencesuivant :C 1 C 2 . . . C k Taille des échantillonsP 1 n 11 n 12 . n 1k n 1•P 2 n 21 n 22. . n2k n 2•......P r n r1 n r2 . n rk n r•Effectif desC j n •1 n •2 . n •k n∑i=r∑j=k∑i=r∑j=kavec n •j = n ij et n i• = n ij et n = n ij .i=1j=1i=1 j=1On estimera naturellement le paramètre p j par la proportion correspondantedans l’échantillon : p j ≈ n •jnAinsi si (H 0 ) est vraie, l’effectif théorique de la classe C j dans la populationP i est à peu près t ij = n i• × p j = n i• × n •jn∑i=k∑j=l(n ij − t ij ) 2On définit la quantité d =. Il est naturel de décider quei=1 j=1si d est trop grand, on rejette (H 0 ).On choisit comme variable de décision la v.a D associée à d.Si (H 0 ) est vraie,t ij∑i=k∑j=l(N ij − T ij ) 2Ti=1 j=1 ij∼ χ 2 (k−1)(r−1)où T ij et N ij sont les v.a dont les réalisations sont respectivement t ij et n ij .• Le risque de type I, α, étant fixé, on calcule la région critique en déterminantle réel k (k−1)(r−1) (1 − α) dans la table du χ 2 correspondante tel que P (D


64 CHAPTER 6. TESTS DU KHI-DEUX


Bibliography[1] B. Goldfarb et C. PardouxIntroduction à la méthode statistiqueDunod.65

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!