12.07.2015 Views

Chapitre 5 ESTIMATION - Méthodes de Statistique Appliquée - Free

Chapitre 5 ESTIMATION - Méthodes de Statistique Appliquée - Free

Chapitre 5 ESTIMATION - Méthodes de Statistique Appliquée - Free

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Statistique</strong> appliquée à la gestion et au marketinghttp://foucart.thierry.free.fr/StatPC<strong>Chapitre</strong> 5<strong>ESTIMATION</strong>La statistique inférentielle regroupe un ensemble <strong>de</strong> métho<strong>de</strong>s consistant à prendre encompte le hasard dans l’analyse <strong>de</strong>s données. Elle est fondée sur l’hypothèse que lesobservations proviennent <strong>de</strong> tirages aléatoires dans une population statistique, constituant ceque l’on appelle couramment un échantillon, et que la proportion dans laquelle un événementest réalisé se rapproche <strong>de</strong> sa probabilité lorsque le nombre d’observations augmenteindéfiniment. La démarche est inversée par rapport à celle <strong>de</strong>s probabilités : les paramètres<strong>de</strong>s lois <strong>de</strong> probabilités sont inconnus, et leur estimation consiste à en donner uneapproximation la meilleure possible sous la forme d’une valeur précise ou d'un intervalle.Nous suivrons l’habitu<strong>de</strong> <strong>de</strong> plus en plus fréquente d’utiliser <strong>de</strong>s caractères grecs pourles paramètres théoriques, majuscules latins pour les variables aléatoires et minuscules latinspour les valeurs observées.1. DES PROBABILITÉS À LA STATISTIQUE.La statistique inférentielle repose sur une hypothèse intuitive élaborée à partird’expériences diverses : celle <strong>de</strong> la convergence <strong>de</strong> la proportion dans laquelle un événementest réalisé au cours d’expériences répétées vers sa probabilité telle que nous l’avons définiedans le chapitre précé<strong>de</strong>nt.


<strong>Chapitre</strong> 5 2 Estimation1.1 Simulation.Les expériences montrant cette convergence sont nombreuses : les jeux <strong>de</strong> hasard(jeux <strong>de</strong> casino, loto, etc.) en produisent un grand nombre, et le calcul <strong>de</strong>s gains est fondé surcette convergence. Certains jeux <strong>de</strong> stratégie sont fondés aussi sur le calcul <strong>de</strong>s probabilités,comme le bridge.Nous utilisons dans cet ouvrage <strong>de</strong>s expériences virtuelles, effectuées à l’ai<strong>de</strong> d’unordinateur 1 et <strong>de</strong> logiciels spécifiques 2 : ces expériences relèvent ce que l’on appelle lasimulation. Cette démarche, qui consiste à générer <strong>de</strong>s nombres « pseudo-aléatoires » 3 , estfréquemment utilisée dans le cas où il est difficile ou impossible d’effectuer un calculnumérique (ce sont « les métho<strong>de</strong>s <strong>de</strong> Monte Carlo », appliquées par exemple au calculd’intégrales).Ces nombres pseudo-aléatoires peuvent être considérés comme <strong>de</strong>s observations d’unev.a. suivant la loi uniforme, et, à l’ai<strong>de</strong> <strong>de</strong> transformations mathématiques (données dans lesexercices 1 et 2), on peut en déduire <strong>de</strong>s observations d’une v.a. suivant une loi quelconque.Ce qui nous intéresse particulièrement ici, c’est la facilité avec laquelle on peutobserver une variable aléatoire autant <strong>de</strong> fois que l’on veut sans problème matériel. On créeainsi <strong>de</strong>s données vérifiant les propriétés que l’on a choisies et que l’analyse statistiquepermet <strong>de</strong> détecter. Inversement, lorsqu’une métho<strong>de</strong> n’est efficace que si les donnéespossè<strong>de</strong>nt <strong>de</strong>s propriétés particulières, on pourra vérifier qu’elle ne donne pas <strong>de</strong> bon résultatdans le cas où les données ne les possè<strong>de</strong>nt pas.Exemple <strong>de</strong> tableau <strong>de</strong> données simulées (ou table <strong>de</strong> nombres au hasard) :1 2 3 4 5 6 7 81 0.833 0.275 0.972 0.004 0.978 0.532 0.376 0.5162 0.518 0.936 0.341 0.333 0.177 0.879 0.010 0.0903 0.863 0.195 0.187 0.439 0.436 0.870 0.226 0.374Tableau 1.5 : nombres pseudo-aléatoires1 Une calculatrice munie <strong>de</strong> la touche Rnd (ou Random) peut suffire pour <strong>de</strong>s expériences simples.2 Nous avons aussi utilisé <strong>de</strong>s logiciels publiés dans Introduction aux tests statistiques, EnseignementAssisté par Ordinateur, <strong>de</strong> T. Foucart, édité par Technip, Paris, 1991.3 Ces nombres ne sont pas tirés au hasard au sens strict du terme, d’où le préfixe pseudo.


<strong>Chapitre</strong> 5 3 EstimationOn déduit facilement <strong>de</strong> ces nombres compris entre 0 et 1 (exclus) <strong>de</strong>s nombrespseudo-aléatoires variant entre <strong>de</strong>ux valeurs a et b fixées, ou <strong>de</strong>s nombres entiers.Par exemple, on obtiendra <strong>de</strong>s nombres compris entre –1 et 2 en effectuant latransformation suivante, pour toute valeur x du tableau précé<strong>de</strong>nt :y = 3 x − 1Pour obtenir <strong>de</strong>s nombres entiers compris entre 1 et 6, on pose :y = Int(6 x +1)Int(z) désignant le plus grand entier inférieur ou égal à z : Int(5.456) = 5, Int(4) = 4.1.2 Loi <strong>de</strong>s grands nombres.Considérons le cas d’un dé à 6 faces, que l’on suppose parfaitement équilibré : lapopulation est P = {1, 2, 3, 4, 5, 6}. L’équilibre parfait <strong>de</strong> ce dé signifie qu’il n’y a aucuneraison physique d’observer une face plus qu’une autre dans une série <strong>de</strong> lancers.En jetant le dé n fois, on obtient bien sûr n faces : à chaque jet, la probabilité d’obtenir{1} est égale à 1/6, et la face obtenue au i e jet n’a aucune inci<strong>de</strong>nce sur les autres facesobtenues : il y a équiprobabilité, et les lancers sont indépendants.Dans ces conditions, l’expérience montre que, pour n suffisamment grand, laproportion <strong>de</strong> faces {1} va tourner autour <strong>de</strong> 1/6. De même la proportion <strong>de</strong> faces {2}, <strong>de</strong>faces {3} etc.Considérons les faces 1 à 4 du dé. On définit ainsi un événement A = {1, 2, 3, 4}dontla probabilité est égale à 4/6 = 2/3. L’événement A se produit dans une proportion égale à lasomme <strong>de</strong>s proportions <strong>de</strong> chaque face et est donc <strong>de</strong> l’ordre <strong>de</strong> 4 x 1/6 soit 2/3. Cetteproportion est là aussi <strong>de</strong> l’ordre <strong>de</strong> la probabilité.Exemple : nous avons effectué n = 600 lancers d’un dé parfaitement équilibré.Les numéros ont tous été observés dans une proportion voisine <strong>de</strong> 1/6.L’événement A = {1,2,3,4} et l’événement B = {5,6} ont été observés dans <strong>de</strong>sproportions proches <strong>de</strong> 2/3 et <strong>de</strong> 1/3 <strong>de</strong> l’effectif total : P(A) = 2/3, P(B) = 1/3.numérosévénementsn° 1 n° 2 n° 3 n° 4 n° 5 n° 6 A B102 103 99 92 102 102 396 204


<strong>Chapitre</strong> 5 4 EstimationL’expérience du dé peut être schématisée à l’ai<strong>de</strong> d’une urne contenant six boulesnumérotées <strong>de</strong> 1 à 6. Pour que les tirages soient indépendants, il suffit <strong>de</strong> remettre chaqueboule tirée dans l’urne : les tirages sont donc effectués « avec remise ». On peut généraliserl’expérience en tirant dans une urne contenant un nombre quelconque <strong>de</strong> boules numérotées àpartir <strong>de</strong> 1.Axiome <strong>de</strong> la loi <strong>de</strong>s grands nombres : On considère une population contenant Nunités statistiques. On y effectue n tirages avec remise et on compte le nombre n A <strong>de</strong>réalisations d’un événement A donné d’effectif N A . La proportion observée n A / n convergevers la probabilité N A / N <strong>de</strong> l’événement A lorsque le nombre <strong>de</strong> tirages augmenteindéfiniment.Dans la pratique <strong>de</strong>s sondages, on évite d’interroger <strong>de</strong>ux fois une même personne.Les tirages d’unités statistiques sont donc effectués sans remise, et, par suite, ne sont pasindépendants. Mais on montre que si la taille <strong>de</strong> la population dans laquelle on effectue lestirages est gran<strong>de</strong> par rapport au nombre d’unités statistiques que l’on tire au hasard, on peutconsidérer les tirages comme indépendants.Comme nous supposerons toujours cette condition réalisée, il n’est pas gênant <strong>de</strong>supposer que les tirages sont effectués avec remise.1.3 Notion <strong>de</strong> convergence.La loi <strong>de</strong>s grands nombres utilise une notion <strong>de</strong> convergence particulière qui <strong>de</strong>man<strong>de</strong><strong>de</strong>s explications.Considérons l’ensemble <strong>de</strong>s 6 faces du dé. La loi <strong>de</strong> probabilité <strong>de</strong> la v.a. X définie parle numéro <strong>de</strong> la face obtenue est la loi uniforme sur {1, 2, 3, 4, 5, 6} :Pour tout i <strong>de</strong> 1 à 6 P(X=i) = 1/6Les proportions dans lesquelles les faces ont été observées en jetant le dé plusieurs foisest une approximation <strong>de</strong> cette loi, chacune étant plus ou moins proche <strong>de</strong> 1/6.Nous avons réalisé cette expérience en lançant 100 fois le dé. On constate (figure 1.5)une proximité entre ces proportions et ces probabilités. Les proportions observées <strong>de</strong>s faces 1,4, 5 et 6 sont inférieures aux probabilités.


<strong>Chapitre</strong> 5 5 EstimationCes écarts sont compensés par <strong>de</strong>s écarts opposés concernant les faces 2 et 3. Celas’explique par le fait que la somme <strong>de</strong>s proportions comme la somme <strong>de</strong>s probabilités esttoujours égale à 1.Effectuons la même expérience, mais en lançant le dé 1000 fois : il est clair que lesproportions sont plus proches <strong>de</strong>s probabilités que précé<strong>de</strong>mment (figure 2.5).


<strong>Chapitre</strong> 5 6 EstimationEn augmentant le nombre <strong>de</strong> tirages, les proportions donnent généralement unemeilleure approximation <strong>de</strong>s probabilités. Mais ce n’est pas toujours vrai : on aurait puobtenir <strong>de</strong>s proportions plus proches <strong>de</strong> 1/6 en lançant le dé 100 fois, et même il n’est pasexclu qu’en lançant le dé 6 fois seulement, on obtienne les six faces une fois chacune et parsuite <strong>de</strong>s proportions strictement égales à 1/6 (la probabilité <strong>de</strong> cet événement est toutefoisfaible : 6!/6 6 = 0.0154).En conclusion, dans le cas d’une variable aléatoire discrète, il y a convergence <strong>de</strong>sproportions vers les probabilités, mais cette convergence dépend elle-même du hasard. Ellen’est pas systématique.Définition : la convergence <strong>de</strong> la proportion <strong>de</strong> réalisations d’un événement au coursd’une suite d’expériences vers sa probabilité est appelée « convergence en probabilité ».Propriété fondamentale : la <strong>de</strong>nsité observée d’une variable qualitative ou discrèteconverge en probabilité vers la <strong>de</strong>nsité <strong>de</strong> la v.a. lorsque le nombre d’observations augmenteindéfiniment.Les <strong>de</strong>nsités observées et théoriques sont en effet définies par les suites <strong>de</strong>sproportions et <strong>de</strong>s probabilités. Cette convergence apparaît dans les diagrammes : les figures1.5 et 2.5 en donnent une illustration.Remarque : La convergence <strong>de</strong>s proportions vers les probabilités ne signifie pas qu’ily ait convergence <strong>de</strong>s effectifs. Dans le cas du dé par exemple, la convergence <strong>de</strong> laproportion <strong>de</strong> l’événement {1, 3, 5} vers 1/2 ne montre pas que le nombre d’observations <strong>de</strong>cet événement tend vers la moitié du nombre d’expériences. Une explication est donnée parles <strong>de</strong>ux formules :n 1 = 0.5 n + √n n 2 = 0.5 n − √nLa somme n 1 + n 2 est égale à n , et les proportions n 1 /n et n 2 /n ten<strong>de</strong>nt vers 0.5 lorsquen tend vers l’infini :lim(n 1 /n ) = lim (0.5 + 1/√n) = 0.5 lim(n 2 /n ) = lim (0.5 − 1/√n) = 0.5


<strong>Chapitre</strong> 5 7 EstimationPourtant, la différence n 1 – 0.5 n, égale à √n, tend vers l’infini : il y a divergence entreles valeurs 0.5 n et n 1 (<strong>de</strong> même entre n 2 et 0.5 n). On peut vérifier aussi que n 1 – n 2 = 2√naugmente indéfiniment.1.4 Densité et histogramme.Nous avons vu dans le chapitre 1 comment construire l’histogramme d’une variablestatistique quantitative continue définie par n observations (x i ) i = 1, …, n. : on choisit kintervalles I 1 , I 2 , …, I i, …, I k , <strong>de</strong> longueur l 1 , l 2 , …, l k , et on dénombre les observationsappartenant à chaque intervalle : n 1 , n 2 , …, n k . On en déduit enfin la <strong>de</strong>nsité observée d 1 , d 2 ,…, d k par la formule :Pour tout i <strong>de</strong> 1 à k d i = [n i / n] / l iPour chaque intervalle I i , la proportion n i / n est une approximation <strong>de</strong> la probabilitéP(X∈I i ), et la <strong>de</strong>nsité observée d i est une valeur approchée <strong>de</strong> la <strong>de</strong>nsité par intervalle δ i quenous avons définie dans le chapitre précé<strong>de</strong>nt.La <strong>de</strong>nsité observée est donc une approximation <strong>de</strong> la <strong>de</strong>nsité par intervalle et par suite<strong>de</strong> la <strong>de</strong>nsité théorique lorsque le nombre d’observations augmente indéfiniment et que leslongueurs <strong>de</strong>s intervalles <strong>de</strong>viennent <strong>de</strong> plus en plus petites. L’histogramme, qui représente la<strong>de</strong>nsité observée, est une approximation <strong>de</strong> la représentation graphique <strong>de</strong> la <strong>de</strong>nsitéthéorique.Propriété fondamentale : la <strong>de</strong>nsité observée d’une variable quantitative converge« en probabilité » vers la <strong>de</strong>nsité <strong>de</strong> la v.a. lorsque le nombre d’observations augmenteindéfiniment et que la longueur <strong>de</strong>s intervalles tend vers 0.Exemple : Considérons une série <strong>de</strong> 100 nombres pseudo-aléatoires compris entre 0et 1. L’histogramme (figure 3.5) apparaît <strong>de</strong> façon évi<strong>de</strong>nte comme une approximation <strong>de</strong> lacourbe représentant la <strong>de</strong>nsité théorique <strong>de</strong> la loi uniforme continue sur [0, 1].En générant 10 000 valeurs comprises entre 0 et 1, nous pouvons diminuer la taille<strong>de</strong>s intervalles en augmentant leurs effectifs pour observer la convergence. L’histogramme estalors plus proche <strong>de</strong> la <strong>de</strong>nsité théorique <strong>de</strong> la loi uniforme sur [0, 1].


<strong>Chapitre</strong> 5 8 EstimationOn examinera aussi la figure 6.5 du chapitre 4.2. ESTIMATEUR D’UN PARAMÈTREL’estimation statistique est un chapitre fondamental <strong>de</strong> la statistique mathématique.Son objectif est d’affecter aux paramètres théoriques <strong>de</strong>s lois <strong>de</strong> probabilité <strong>de</strong>s valeursnumériques, ou estimations, vérifiant <strong>de</strong>s propriétés précises. Ces valeurs numériques sont lesobservations <strong>de</strong> variables aléatoires appelées estimateurs.2.1 Estimations empiriques.Considérons tout d’abord la v.a. discrète X définie par la face obtenue en lançant le dé.En relançant le dé 100 fois puis 1000 fois, nous avons obtenu les répartitions suivantes :


<strong>Chapitre</strong> 5 9 EstimationFaces 1 2 3 4 5 6Probabilités 1/6 1/6 1/6 1/6 1/6 1/6Proportions (100 valeurs) 0.16 0.12 0.16 0.14 0.21 0.21Proportions (1000 valeurs) 0.175 0.162 0.154 0.164 0.162 0.183Tableau 2.5 : résultats <strong>de</strong>s lancers d’un dé équilibré à 6 facesLes moyennes sont donc :• Moyenne théorique :µ = p 1 x x 1 + p 2 x x 2 + p 3 x x 3 + p 4 x x 4 +p 5 x x 5 + p 6 x x 6= (1/6) x 1 + (1/6) x 2 + (1/6) x 3 + (1/6) x 4 + (1/6) x 5 + (1/6) x 6• Moyenne observéem = f 1 x x 1 + f 2 x x 2 + f 3 x x 3 + f 4 x x 4 + f 5 x x 5 + f 6 x x 6sur les 100 valeurs :m 100 = 0.16 x 1 + 0.12 x 2 + 0.16 x 3 + 0.14 x 4 + 0.21 x 5 + 0.21 x 6sur les 1000 valeurs :m 1000 = 0.175 x 1 + 0.162 x 2 + 0.154 x 3 + 0.164 x 4 + 0.162 x 5 + 0.183 x 6On trouve :µ = 3.5 m 100 = 3.75 m 1000 = 3.525La proximité entre la moyenne théorique (3.5) et les moyennes observées (3.75 et3.525) est due à la convergence <strong>de</strong>s proportions observées f i vers les probabilités p i . Plus leseffectifs sont importants, plus ces proportions sont proches <strong>de</strong>s probabilités, et plus lamoyenne observée est proche <strong>de</strong> la moyenne théorique (au sens <strong>de</strong> la convergence enprobabilité).Il y a également convergence dans le cas d’une v.a. continue. Examinons le cas <strong>de</strong> laloi uniforme que nous avons simulée dans le paragraphe précé<strong>de</strong>nt (figure 3.5).Toutes les valeurs observées appartenant à la première classe sont proches du centre<strong>de</strong> cette classe, soit 0.1. De même pour les autres classes.Classe [0, 0.2 [ [0.2, 0.4 [ [0.4, 0.6 [ [0.6, 0.8 [ [0.8, 1 [Centre 0.1 0.3 0.5 0.7 0.9Proportion 0.23 0.19 0.15 0.22 0.21Tableau 3.5 : Classification <strong>de</strong>s 100 observations d’une v.a. <strong>de</strong> loi uniforme sur ]0, 1[


<strong>Chapitre</strong> 5 11 EstimationPropriété :Les estimations empiriques <strong>de</strong> la moyenne et <strong>de</strong> la variance convergent en probabilitévers les paramètres théoriques lorsque le nombre d’observations augmente indéfiniment.2.2 Estimateurs <strong>de</strong> la moyenne et <strong>de</strong> la variance.On peut formaliser la notion d’échantillon et d’estimation. En effet, une suited’observations x i d’une v.a. X peut être considérée comme une suite d’observations <strong>de</strong> nvariables aléatoires X i suivant la loi <strong>de</strong> X, correspondant chacune à un tirage au hasard dans lapopulation. Il existe donc <strong>de</strong>ux notions d’échantillons :Définitions :• L’échantillon <strong>de</strong> v.a. X i , i = 1, …, n, est une suite <strong>de</strong> v.a. indépendantes et <strong>de</strong>même loi que X, la v.a. X i représentant simplement la v.a. X au i ième tirage.• L’échantillon observé x i , i = 1, …, n, est une suite <strong>de</strong> valeurs observées <strong>de</strong> la v.a.X ou <strong>de</strong> chaque v.a. X i , i = 1, …, n.Définition : on appelle estimateur d’un paramètre d’une loi <strong>de</strong> probabilité d’une v.a. Xune v.a. calculée sur un échantillon X i , i = 1, …, n <strong>de</strong> X, dont la valeur observée est uneapproximation <strong>de</strong> ce paramètre, et qui vérifie certaines propriétés d’optimalité.variance.Les estimateurs les plus utilisés sont les estimateurs empiriques <strong>de</strong> la moyenne et <strong>de</strong> laLa moyenne observée <strong>de</strong> la suite x i , i = 1, …, n est par définition le nombre m :1 nm = ––– Σ x in i = 1La moyenne <strong>de</strong> l’échantillon X i , i = 1, …, n, est par définition la v.a. M :1 nM = ––– Σ X in i = 1En conclusion, M est une v.a. dont la valeur observée à l’issue d’une suite <strong>de</strong> n tiragesau hasard est égale à m : la v.a. M est antérieure aux tirages, et m en est une valeur observée,postérieure aux tirages.


<strong>Chapitre</strong> 5 12 EstimationOn peut définir <strong>de</strong> la même façon l’estimateur <strong>de</strong> la variance :1 nV = ––– Σ (X i – µ) 2n i = 1dont la valeur observée v est la variance <strong>de</strong> l’échantillon observé :1 nv = ––– Σ (x i – µ) 2n i = 1On ne peut toutefois calculer cet estimateur que si l’on connaît la moyenne théoriqueµ, ce qui n’est pas le cas en général. On considère donc souvent l’estimateur ci-<strong>de</strong>ssous :1 nS 2 = ––– Σ (X i – Μ) 2n i = 1dont la valeur observée s 2 est la variance <strong>de</strong> l’échantillon observé :Définitions :1 ns 2 = ––– Σ (x i – m) 2n i = 1• L’estimateur empirique <strong>de</strong> la moyenne théorique d’une v.a. est la v.a. M :1 nM = ––– Σ X in i = 1• L’estimateur empirique <strong>de</strong> la variance théorique est la v.a. S 2 :1 nS 2 = ––– Σ (X i – M) 2n i = 12.3 Propriétés caractéristiques <strong>de</strong>s estimateurs.Ce que l’on appelle estimation en statistique inférentielle regroupe <strong>de</strong>s métho<strong>de</strong>sbeaucoup plus générales que celles que nous avons présentées dans les paragraphesprécé<strong>de</strong>nts. Les estimateurs empiriques comme M et S 2 ne sont pas toujours les « meilleurs »pour estimer la moyenne et la variance théoriques d’une loi <strong>de</strong> probabilité. Dans le cas d’unev.a. qui suit la loi <strong>de</strong> Poisson P(λ) par exemple, le paramètre λ est à la fois la moyenne et lavariance <strong>de</strong> la v.a. : l’estimateur <strong>de</strong> λ qu’il faut choisir est-il M ou S 2 ?


<strong>Chapitre</strong> 5 13 EstimationPour répondre à ce genre <strong>de</strong> question, il est nécessaire <strong>de</strong> formaliser la démarche et <strong>de</strong>préciser ce que l’on entend par « meilleur ». On cherche donc <strong>de</strong>s estimateurs possédantcertaines propriétés. En voici quelques-unes :Un estimateur d’un paramètre ω est :• sans biais si son espérance est égale à ω, et biaisé dans le cas contraire ;• asymptotiquement sans biais si son espérance converge vers ω lorsque le nombred’observations tend vers l’infini ;• convergent si sa valeur observée converge en probabilité vers ω lorsque le nombred’observations tend vers l’infini ;• efficace s’il n’existe pas d’estimateur sans biais <strong>de</strong> ω <strong>de</strong> variance strictementinférieure.Les estimateurs empiriques précé<strong>de</strong>nts possè<strong>de</strong>nt <strong>de</strong>s propriétés particulières :• L’estimateur empirique <strong>de</strong> la moyenne est sans biais.• L’estimateur empirique <strong>de</strong> la variance est asymptotiquement sans biais.• Ils sont convergents.• Lorsque les v.a. X i suivent la loi normale, l’estimateur empirique <strong>de</strong> la moyenneest efficace.En ce qui concerne le second <strong>de</strong>s quatre points précé<strong>de</strong>nts, on montre que l’estimateurempirique <strong>de</strong> la variance a pour espérance (n−1) σ 2 /n. Cela explique que, surtout pour <strong>de</strong>séchantillons <strong>de</strong> taille faible, on choisit souvent comme estimateur ponctuel <strong>de</strong> σ 2 la statistiqueS’ 2 = n S 2 /(n−1). On a en effet (ex. 3) :E(S’ 2 ) = E[ n S 2 /(n−1) ] = n E(S 2 ) /(n − 1) = σ 22.4 Loi <strong>de</strong> l’estimateur <strong>de</strong> la moyenne (théorème <strong>de</strong> la limite centrée).Théorème <strong>de</strong> la limite centrée : on considère une suite <strong>de</strong> n v.a. X i indépendantes et<strong>de</strong> même loi <strong>de</strong> probabilité, d’espérance µ et <strong>de</strong> variance σ 2 . La loi <strong>de</strong> probabilité <strong>de</strong>l’estimateur M est, pour une valeur suffisante <strong>de</strong> n, la loi normale d’espérance µ et <strong>de</strong>variance σ 2 /n.L’expression « valeur suffisante <strong>de</strong> n » est vague : cela vient du fait que le nombre n àpartir duquel on peut considérer que la loi <strong>de</strong> M est normale dépend <strong>de</strong> la loi <strong>de</strong>s v.a. X i .


<strong>Chapitre</strong> 5 14 EstimationPar exemple, si les v.a. X i suivent elles-mêmes la loi normale, il suffit que n soitsupérieur ou égal à 1 : la propriété est toujours vraie. Pour une loi uniforme, on considère engénéral n = 12, ou n = 24. Dans le cas <strong>de</strong> lois non symétriques comme la loi exponentielle, lavaleur minimale <strong>de</strong> la taille <strong>de</strong> l’échantillon assurant la convergence vers la loi normale peutêtre beaucoup plus gran<strong>de</strong> (>50).Étudions le cas <strong>de</strong> v.a. X i suivant la loi uniforme sur ] 0, 1 [. La moyenne théorique estégale à µ = 0.5 et la variance à σ 2 = 1/12. Un échantillon <strong>de</strong> cette loi, pour une taillesuffisante, n = 24 par exemple, aura pour moyenne une valeur m proche <strong>de</strong> 0.5 et pourvariance une valeur s 2 proche <strong>de</strong> 1/12. Ces valeurs m et s 2 sont les valeurs observées <strong>de</strong>sestimateurs M et S 2 :0.628 0.923 0.935 0.397 0.955 0.133 0.978 0.4910.247 0.781 0.715 0.493 0.853 0.379 0.914 0.1610.308 0.891 0.003 0.271 0.094 0.427 0.962 0.946Tableau 4.5 : 24 observations <strong>de</strong> la loi uniforme sur ] 0, 1 [m = 0.5785487, s 2 = 0.1043021Le théorème <strong>de</strong> la limite centrée dit que la variable M suit la loi normale <strong>de</strong> moyenneµ et <strong>de</strong> variance σ 2 /n. La simulation par ordinateur concrétise cette propriété : en générant 100échantillons <strong>de</strong> taille 24, on obtient 100 valeurs observées m 1 , m 2 , …, m 100 <strong>de</strong> M.


<strong>Chapitre</strong> 5 15 EstimationOn constate effectivement, sur la figure 5.5, la proximité <strong>de</strong> l’histogramme <strong>de</strong> ces 100valeurs avec la <strong>de</strong>nsité théorique <strong>de</strong> la loi normale.On pourra, en simulant <strong>de</strong>s échantillons <strong>de</strong> taille 12 d’une v.a. suivant la loiexponentielle par le logiciel TESTEAO 4 , constater que la taille <strong>de</strong> ces échantillons est trèsinsuffisante pour que leur moyenne suive la loi normale.Ce théorème est vrai aussi lorsque la v.a. est discrète, avec les mêmes réserves sur lataille n <strong>de</strong> l’échantillon nécessaire pour que la convergence <strong>de</strong> la v.a. M vers la loi normalesoit acceptable.Une première application est <strong>de</strong> permettre une prévision <strong>de</strong> la valeur moyenneobservée si l’on connaît les paramètres théoriques <strong>de</strong> la loi <strong>de</strong> probabilité <strong>de</strong>s X i .Exemple : on lance 100 fois le dé. D’après le théorème <strong>de</strong> la limite centrée, lamoyenne empirique M définie par la moyenne <strong>de</strong>s 100 chiffres obtenus suitapproximativement la loi normale d’espérance µ = 3.5 et <strong>de</strong> variance σ 2 /n = 0.0292. On peutdonc effectuer <strong>de</strong>s calculs <strong>de</strong> probabilités sur cette v.a. :Paris, 1991.4 Introduction aux tests statistiques, Enseignement Assisté par Ordinateur, <strong>de</strong> T. Foucart, Technip,


<strong>Chapitre</strong> 5 16 Estimation• La probabilité <strong>de</strong> l’intervalle [µ − 1.96 σ /√n, µ + 1.96 σ /√n] = [3.165,3.835] est égale à 0.95. Il est donc très probable que la valeur moyenneobtenue en lançant le dé 100 fois soit comprise entre ces <strong>de</strong>ux valeurs.• La probabilité <strong>de</strong> l’intervalle ]−∞ , µ − 1.6449 σ /√n] = ]−∞ , 3.219 ] est égaleà 0.05. On est presque sûr d’obtenir une valeur moyenne supérieure à 3.219.2.5 Loi <strong>de</strong> l’estimateur <strong>de</strong> la variance.L’étu<strong>de</strong> <strong>de</strong> l’estimateur <strong>de</strong> la variance est fondée sur une propriété supplémentaire : laloi <strong>de</strong>s v.a. X i doit être la loi normale.Théorème : si les v.a. X i , i = 1, …, n sont indépendantes et suivent la loi normaled’espérance µ et <strong>de</strong> variance σ 2 , la v.a. n S 2 /σ 2 suit la loi du χ 2 <strong>de</strong> <strong>de</strong>gré <strong>de</strong> liberté n − 1.Ce théorème est une conséquence <strong>de</strong> la définition <strong>de</strong> la loi du χ 2 . La v.a. n S 2 /σ 2 estune somme <strong>de</strong> carrés <strong>de</strong> variables qui suivent approximativement la loi normale centréeréduite, si les X i suivent la loi normale :n S 2 (X 1 – M) 2 (X 2 – M) 2 (X 3 – M) 2 … (X n – M) 2––– = ––––––– + –––––––– + –––––––– + ––––––––σ 2 σ 2 σ 2 σ 2 … σ 2Le <strong>de</strong>gré <strong>de</strong> liberté est diminué <strong>de</strong> 1 pour tenir compte du fait que les variables <strong>de</strong> laforme (X i – M) / σ, ne sont pas indépendantes puisqu’elles dépen<strong>de</strong>nt toutes <strong>de</strong> M, et qu’ellesne sont pas exactement <strong>de</strong> variance 1. On notera que la connaissance <strong>de</strong> la moyenne théoriqueµ n’est pas nécessaire pour appliquer le théorème.Nous avons simulé, pour visualiser la loi <strong>de</strong> probabilité <strong>de</strong> la v.a. n S 2 /σ 2 , 1000échantillons <strong>de</strong> taille n <strong>de</strong> la loi <strong>de</strong>s X i , construit l’histogramme <strong>de</strong>s valeurs n s 2 /σ 2 obtenues,et superposé la loi du χ 2 correspondante.En figure 7.5, la loi <strong>de</strong>s v.a. X i simulée est la loi normale et chaque échantillon <strong>de</strong>taille 10. On constate la proximité entre l’échantillon et la loi du χ 2 , ce qui confirme lethéorème.L’histogramme est par contre différent <strong>de</strong> la <strong>de</strong>nsité <strong>de</strong> la loi du χ 2 lorsque cesvariables suivent la loi uniforme (figure 8.5).


<strong>Chapitre</strong> 5 17 EstimationComme dans le cas <strong>de</strong> l’estimateur M, on peut prévoir dans quel intervalle se trouveraprobablement la variance calculée sur n observations d’une v.a. qui suit la loi normale <strong>de</strong>moyenne µ et <strong>de</strong> variance σ 2 .Exemple : supposons n = 50 et σ 2 = 25. La v.a. X 2 = 50 S 2 /25 = 2 S 2 suit la loi du χ 2<strong>de</strong> <strong>de</strong>gré <strong>de</strong> liberté 49 (on suppose donc que les v.a. X i suivent la loi normale). La tablestatistique pour ν = 49 <strong>de</strong>grés <strong>de</strong> liberté donne les valeurs suivantes :


<strong>Chapitre</strong> 5 18 EstimationP(2 S 2 < 31.55) = 0.025 P(2 S 2 > 70.22) = 0.025On en déduit la probabilité ci-<strong>de</strong>ssous :P(31.55


<strong>Chapitre</strong> 5 19 EstimationDéfinition : l’intervalle <strong>de</strong> confiance du paramètre ω est défini au niveau <strong>de</strong> confiance1 – α par l’observation <strong>de</strong> <strong>de</strong>ux v.a. B 1 et B 2 dépendant <strong>de</strong> l’échantillon X i , i = 1, …, n etvérifiant la propriété suivante :P(ω ∈[B 1 , B 2 ]) = 1−αLes bornes B 1 et B 2 <strong>de</strong> l’intervalle dépen<strong>de</strong>nt du hasard. Chaque échantillon observédonne donc un intervalle <strong>de</strong> confiance [b 1 , b 2 ] différent. L’intervalle <strong>de</strong> confiance estfinalement l’ensemble <strong>de</strong>s valeurs vraisemblables du paramètre ω compte tenu <strong>de</strong>l’échantillon observé.On donne en figure 9.5 une suite d’intervalles <strong>de</strong> confiance <strong>de</strong> la moyenne théorique µd’une v.a. X. Chaque intervalle [m 1 , m 2 ] résulte <strong>de</strong> l’observation d’un échantillon <strong>de</strong> X et estla réalisation <strong>de</strong> l’intervalle aléatoire [M 1 , M 2 ] contenant le paramètre théorique m avec laprobabilité 0.95. Les v.a. M 1 et M 2 sont définies dans le paragraphe 3.2.3.2 Intervalle <strong>de</strong> confiance <strong>de</strong> la moyenne (variance connue).Nous cherchons à évaluer la moyenne µ <strong>de</strong> la population (figure 9.5). Pour cela, onchoisit un niveau <strong>de</strong> confiance égal à (100−α)%, qui permet <strong>de</strong> définir l’intervalle <strong>de</strong>confiance. On suppose tout d’abord que la variance théorique σ 2 est connue.Propriété : lorsque les v.a. X i sont indépendantes et suivent la loi normale, la


<strong>Chapitre</strong> 5 20 Estimationstatistique U définie parsuit la loi centrée réduite.U = [M − µ ]/[σ 2 /n ] 1/2On sait que la v.a. M suit la loi normale <strong>de</strong> moyenne µ et <strong>de</strong> variance σ 2 /n. La variableU ci-<strong>de</strong>ssus est obtenue en centrant et en réduisant M.On peut donc déterminer le nombre u α tel que :P(−u α < U < u α ) = 1 − αPour obtenir un intervalle symétrique, on pose :Exemple (figure 10.5) :On en déduit :On obtient l’intervalle ci-<strong>de</strong>ssous :avec :P(U < − u α ) = α/2 P(U > u α ) = α/2α = 1% 1 – α = 99% u α = 2.58α = 5% 1 – α = 95% u α = 1.96α = 10% 1 – α = 90% u α = 1.65P(− u α σ/√n < M − µ < u α σ/√n ) = 1 − αP(M − u α σ/√n < µ < M + u α σ/√n ) = 1 − αIC = [M − u α σ/√n, M + u α σ/√n] = [M 1 , M 2 ]


<strong>Chapitre</strong> 5 21 EstimationM 1 = M − u α σ/√n M 2 = M + u α σ/√nÀ ce niveau, les bornes <strong>de</strong> l’intervalle IC dépen<strong>de</strong>nt <strong>de</strong> la v.a. M et sont aléatoires : onpeut donc dire que la moyenne théorique µ appartient à l’intervalle <strong>de</strong> confiance IC avec laprobabilité 1 – α.Par contre, après observation <strong>de</strong> l’échantillon, on connaît la valeur observée m <strong>de</strong> M :on ne peut tenir le même discours que précé<strong>de</strong>mment puisque les bornes <strong>de</strong> l’intervalle nedépen<strong>de</strong>nt plus du hasard. La moyenne théorique µ est très « vraisemblablement » compriseentre les <strong>de</strong>ux valeurs numériques.Définition : lorsque la variance théorique σ 2 est connue, l’intervalle <strong>de</strong> confiance <strong>de</strong> lamoyenne au niveau <strong>de</strong> confiance (100−α)% est l’intervalle :[m − u α σ/√n , m + u α σ/√n ]le nombre u α étant choisi dans la table <strong>de</strong> la loi normale centrée réduite U <strong>de</strong> façon queP(− u α < U < u α ) = 1 − α.Remarques :• Les bornes <strong>de</strong> l’intervalle <strong>de</strong> confiance sont symétriques par rapport à la moyenneobservée. Il est possible <strong>de</strong> les choisir différemment. Par exemple, on choisit la valeur u α telleque :P(U < u α ) = 1 − αL’intervalle <strong>de</strong> confiance est alors <strong>de</strong> la forme ] − ∞, M + u α σ/√n ] : la moyennethéorique est très vraisemblablement inférieure à m + u α σ/√n.• La longueur <strong>de</strong> l’intervalle aléatoire tend vers 0 lorsque le nombre d’observationsaugmente indéfiniment. On retrouve la convergence <strong>de</strong> l’estimateur M vers la moyennethéorique µ.• Le théorème <strong>de</strong> la limite centrée permet <strong>de</strong> calculer cet intervalle <strong>de</strong> confiancemême lorsque la v.a. X ne suit pas la loi normale, à condition que l’échantillon soit <strong>de</strong> taillesuffisante.


<strong>Chapitre</strong> 5 22 Estimation3.3 Intervalle <strong>de</strong> confiance <strong>de</strong> la moyenne (variance inconnue).L’estimation <strong>de</strong> la moyenne est plus fréquemment effectuée sans que l’on connaisse lavariance théorique. On ne peut donc plus effectuer les calculs précé<strong>de</strong>nts. Le calcul <strong>de</strong>l’intervalle <strong>de</strong> confiance est fondé sur la propriété suivante :Propriété : lorsque les v.a. X i sont indépendantes et suivent la loi normale, lastatistique T définie par :T = [M − µ ]/[S 2 / (n−1) ] 1/2suit la loi <strong>de</strong> Stu<strong>de</strong>nt <strong>de</strong> <strong>de</strong>gré <strong>de</strong> liberté n−1.Une démarche analogue à la précé<strong>de</strong>nte nous donne l’intervalle <strong>de</strong> confiance.Définition : lorsque la variance théorique σ 2 est inconnue, l’intervalle <strong>de</strong> confiance <strong>de</strong>la moyenne au niveau <strong>de</strong> confiance (100−α)% est l’intervalle :[m − t α s/(n − 1) 1/2 , m + t α s/(n − 1) 1/2 ]Pour déterminer t α , on utilise :• si n ≤ 120, la table <strong>de</strong> la loi <strong>de</strong> probabilité <strong>de</strong> Stu<strong>de</strong>nt <strong>de</strong> <strong>de</strong>gré <strong>de</strong> liberté ν = n−1 ;• pour n > 120 la table <strong>de</strong> la loi normale centrée réduite.Nous donnons ci-<strong>de</strong>ssous quelques valeurs <strong>de</strong> t α :n = 10 ν = 9 α= 5% t α = 2.26n = 20 ν = 19 α= 5% t α = 2.09n = 20 ν = 19 α= 10% t α = 1.73n = 50 ν = 49 α= 5% t α = 2.02Remarque : les remarques du paragraphe précé<strong>de</strong>nt restent vraies.Exemple : nous avons calculé dans le chapitre 1 la moyenne et la variance <strong>de</strong>s 50achats <strong>de</strong> l’échantillon tiré au hasard : m = 316.945F, s = 207.1291, s 2 = 42902.472. On a,pour α = 5%, t α = 2.02. L’intervalle <strong>de</strong> confiance <strong>de</strong> la moyenne est égal à :[316.945 − 2.02 x 207.1291/√49 , 316.945 + 2.02 x 207.1291/√49 ]


<strong>Chapitre</strong> 5 23 EstimationSoit :[ 257.173, 376.717 ]Dans le calcul <strong>de</strong> l’intervalle <strong>de</strong> confiance <strong>de</strong> la moyenne, le manque <strong>de</strong> symétrie <strong>de</strong> larépartition, constaté précé<strong>de</strong>mment par l’étu<strong>de</strong> <strong>de</strong> l’histogramme et la valeur du coefficientd’asymétrie (1.16, est compensé par le nombre d’observations (50).3.4 Intervalle <strong>de</strong> confiance <strong>de</strong> la variance.En ce qui concerne la variance, le principe est le même, mais la loi <strong>de</strong> probabilitéutilisée est la loi du χ 2 <strong>de</strong> <strong>de</strong>gré <strong>de</strong> liberté ν = n−1.Propriété : lorsque les v.a. X i sont indépendantes et suivent la loi normale, la v.a.n S 2 /σ 2 suit la loi du χ 2 <strong>de</strong> <strong>de</strong>gré <strong>de</strong> liberté n−1.La loi du χ 2 n’est pas symétrique (figure 11.5), puisque les valeurs appartiennent àl’intervalle [0, + ∞ [. Pour obtenir un intervalle <strong>de</strong> confiance <strong>de</strong> niveau <strong>de</strong> confiance 1 −αsymétrique en probabilité, il faut déterminer <strong>de</strong>ux bornes (figure 11.5) :• χ 2 α telle que P(n S 2 / σ 2 < χ 2 α ) = α/2• χ 2 1−α telle que P(n S 2 /σ 2 > χ 2 1−α ) = α/2


<strong>Chapitre</strong> 5 24 EstimationLes valeurs ci-<strong>de</strong>ssous sont obtenues dans la table <strong>de</strong> la loi du χ 2 :n ν α2χ α2χ 1−α10 9 5% 2.700 19.02320 19 5% 8.907 32.85220 19 10% 10.117 30.14450 49 5% 31.555 70.22250 49 10% 33.93 66.34On en déduit la probabilité <strong>de</strong> l’intervalle [χ α 2 , χ 1−α 2 ] suivant la loi du χ 2 :Un calcul simple donne :P(χ α 2 < n S 2 /σ 2 < χ 1−α 2 ) = 1 − αP(n S 2 /χ 1−α 2 < σ 2 < n S 2 /χ α 2 ) = 1 − αDéfinition : l’intervalle <strong>de</strong> confiance <strong>de</strong> la variance au niveau <strong>de</strong> confiance (100 −α)% est l’intervalle :[n s 2 /χ 1−α 2 , n s 2 /χ α 2 ]Le calcul <strong>de</strong> l’intervalle <strong>de</strong> confiance <strong>de</strong> la variance est plus compliqué pour n>100 etnous n’en parlerons pas (la procédure est expliquée dans la plupart <strong>de</strong>s tables du χ 2 ).Remarques :• Les bornes χ 2 α et χ 2 1−α respectent la symétrie en probabilité. On aurait pu leschoisir <strong>de</strong> façon différente, la seule condition étant :P(n S 2 /σ 2 < χ 2 α ) + P(n S 2 /σ 2 > χ 2 1−α ) = α• En choisissant χ 2 α = 0, on obtient une valeur minimale <strong>de</strong> la variance puisquel’intervalle <strong>de</strong> confiance est <strong>de</strong> la forme [n s 2 /χ 2 1−α , + ∞ [• En choisissant χ 2 1−α = + ∞, on obtient une valeur maximale <strong>de</strong> la variancepuisque l’intervalle <strong>de</strong> confiance est <strong>de</strong> la forme [0, n s 2 /χ 2 α [• La v.a. n S 2 /σ 2 ne suit la loi du χ 2 que lorsque la v.a. X suit la loi normale.L’intervalle <strong>de</strong> confiance peut toujours être calculé, mais son intérêt est limité lorsque cettepropriété n’est pas vraie, même lorsque l’effectif <strong>de</strong> l’échantillon est élevé.• On remarquera que l’intervalle <strong>de</strong> confiance <strong>de</strong> la variance ne dépend pas <strong>de</strong> lamoyenne théorique <strong>de</strong> la v.a. Plus précisément, les v.a. M et S 2 sont indépendantes, ce quisignifie que l’approximation faite sur un paramètre n’a pas d’effet sur l’approximation faite


<strong>Chapitre</strong> 5 25 Estimationsur l’autre.Exemple : calculons l’intervalle <strong>de</strong> confiance <strong>de</strong> la variance <strong>de</strong>s achats <strong>de</strong>s clientsd’Euromarket. L’estimation est s 2 = 42902.472. Le <strong>de</strong>gré <strong>de</strong> liberté est égal à 49 pour 50observations. On a, en choisissant un niveau <strong>de</strong> confiance égal à 95% :χ 2 α = 31.555 χ 2 1−α = 70.222D’où l’intervalle <strong>de</strong> confiance <strong>de</strong> la variance <strong>de</strong>s achats :[50 x 42 902.472/70.222 , 50 x 42 902.472/31.555 ]IC = [30 547.74, 67 980.47]On sait que le montant <strong>de</strong>s achats n’est pas réparti suivant la loi normale dans lapopulation. On accor<strong>de</strong>ra donc un intérêt limité à l’intervalle <strong>de</strong> confiance ci-<strong>de</strong>ssus que nousn’avons calculé qu’à titre d’exemple numérique.3.5 Autres intervalles <strong>de</strong> confiance.Les lois <strong>de</strong>s estimateurs M et S 2 nous ont permis <strong>de</strong> calculer les bornes <strong>de</strong>s intervalles<strong>de</strong> confiance <strong>de</strong>s paramètres µ et σ 2 . On ne peut pas toujours effectuer ce calcul, et larecherche <strong>de</strong>s bornes doit parfois être menée différemment.Étudions les cas particuliers d’une probabilité et du paramètre λ d’une loi <strong>de</strong> Poisson.3.5.1 intervalle <strong>de</strong> confiance d’une probabilité π.La démarche repose sur la loi <strong>de</strong> Bernoulli <strong>de</strong> paramètre π (qui n’est évi<strong>de</strong>mment paségal ici à 3.14) et la loi binomiale. Cette probabilité π est la probabilité d’un événement E, parexemple la proportion <strong>de</strong> femmes dans la clientèle d’Euromarket..On calcule, en effectuant une suite <strong>de</strong> n tirages, le nombre <strong>de</strong> réalisations n E <strong>de</strong>l’événement E : on sait que le rapport p = n E /n est une estimation <strong>de</strong> la probabilité π, et que n Eest la valeur observée x d’une variable aléatoire X qui suit la loi binomiale B(n, π).Lorsque le nombre <strong>de</strong> tirages est suffisant (n>100) on utilise une approximation <strong>de</strong>cette loi par la loi normale :Définition : pour n >100, on appelle intervalle <strong>de</strong> confiance d’une probabilité π auniveau <strong>de</strong> confiance (100−α)%, l’intervalle :


<strong>Chapitre</strong> 5 26 Estimation[ p − u α [p (1 − p)/n] 1/2 , p + u α [p (1 − p)/n] 1/2 ]dans lequel p est la fréquence observée dans l’échantillon et u α est choisi dans la table <strong>de</strong> laloi normale suivant le niveau <strong>de</strong> confiance fixé.Exemple : pour n =200, x= 130 et α = 0.05, on a u α = 1.96. On en déduit p = 0.65 etl’intervalle <strong>de</strong> confiance :[ 0.65 − 1.96 x [ 0.65 x 0.35/200 ] 1/2 , 0.65 + 1.96 x [ 0.65 x 0.35/200 ] 1/2 ]IC = [ 0.584 , 0.716]Pour les petites valeurs <strong>de</strong> n, la procédure consiste à déterminer pour x connue lesvaleurs π α a et π 1−α telles que :P(X>x/π = π α ) = α/2 P(X


<strong>Chapitre</strong> 5 27 Estimationpossible, jusqu’à obtenir P(X>=6) = 0.025. On trouve π = 0.26.La lecture <strong>de</strong> l’abaque donne le même intervalle <strong>de</strong> confiance: [0.26, 0.88].3.5.2 intervalle <strong>de</strong> confiance du paramètre λ <strong>de</strong> la loi <strong>de</strong> Poisson.Définition : l’intervalle <strong>de</strong> confiance du paramètre λ d’une v.a. <strong>de</strong> loi P(λ) au niveau<strong>de</strong> confiance (100 − α)% est l’intervalle :[χ 2 α /2n , χ 2 1−α /2n ]où n est le nombre d’observations, s leur somme et où les valeurs χ 2 α et χ 2 1−α vérifientles propriétés :• χ 2 α telle que P(X 2 1 < χ 2 α ) = α/2, X 2 1 étant une v.a. suivant la loi du χ 2 <strong>de</strong> <strong>de</strong>gré <strong>de</strong>liberté ν 1 = 2 s• χ 2 1−α telle que P(X 2 2 > χ 2 1−α ) = α/2, X 2 2 étant une v.a. suivant la loi du χ 2 <strong>de</strong> <strong>de</strong>gré<strong>de</strong> liberté ν 2 = 2 (s+1)On peut utiliser aussi les tables statistiques ou un logiciel pour calculer l’intervalle <strong>de</strong>confiance comme précé<strong>de</strong>mment.Exemple : pour calculer l’intervalle <strong>de</strong> confiance du paramètre λ d’une loi <strong>de</strong> Poissondont la valeur estimée sur 10 observations est l = 2.5, on cherche les valeurs χ 2 α et χ 2 1−α pourles <strong>de</strong>grés <strong>de</strong> liberté 50 et 52 et pour le niveau <strong>de</strong> confiance choisi (95%). La table donne :χ 2 α = 32.357, χ 2 1−α = 73.810. On en déduit l’intervalle <strong>de</strong> confiance :[1.618, 3.691]CONCLUSIONL’estimation est un chapitre important <strong>de</strong> la statistique inférentielle dont nous n’avonsdonné qu’un aperçu limité aux propriétés fondamentales. Elle donne les outils nécessaires àune approximation contrôlée <strong>de</strong>s paramètres statistiques habituels. On peut ainsi déterminer laprécision d’une estimation, et inversement, calculer le nombre d’observations nécessairespour obtenir une précision donnée. Ce <strong>de</strong>rnier point est utile en particulier dans les sondages.


<strong>Chapitre</strong> 5 28 EstimationTABLE DES MATIÈRES1. DES PROBABILITÉS À LA STATISTIQUE........................................................... 11.1 Simulation............................................................................................................. 21.2 Loi <strong>de</strong>s grands nombres........................................................................................ 31.3 Notion <strong>de</strong> convergence......................................................................................... 41.4 Densité et histogramme. ....................................................................................... 72. ESTIMATEUR D’UN PARAMÈTRE....................................................................... 82.1 Estimations empiriques. ....................................................................................... 82.2 Estimateurs <strong>de</strong> la moyenne et <strong>de</strong> la variance...................................................... 112.3 Propriétés caractéristiques <strong>de</strong>s estimateurs. ....................................................... 122.4 Loi <strong>de</strong> l’estimateur <strong>de</strong> la moyenne (théorème <strong>de</strong> la limite centrée). .................. 132.5 Loi <strong>de</strong> l’estimateur <strong>de</strong> la variance. ..................................................................... 163. <strong>ESTIMATION</strong> PAR INTERVALLE DE CONFIANCE......................................... 183.1 Intervalle <strong>de</strong> confiance. Propriétés <strong>de</strong>s estimateurs empiriques......................... 183.2 Intervalle <strong>de</strong> confiance <strong>de</strong> la moyenne (variance connue). ................................ 193.3 Intervalle <strong>de</strong> confiance <strong>de</strong> la moyenne (variance inconnue). ............................. 223.4 Intervalle <strong>de</strong> confiance <strong>de</strong> la variance. ............................................................... 233.5 Autres intervalles <strong>de</strong> confiance. ......................................................................... 253.5.1 intervalle <strong>de</strong> confiance d’une probabilité π. ................................................ 253.5.2 intervalle <strong>de</strong> confiance du paramètre λ <strong>de</strong> la loi <strong>de</strong> Poisson. ...................... 27CONCLUSION ............................................................................................................ 27

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!