Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2

sites.univ.rennes2.fr
from sites.univ.rennes2.fr More from this publisher
26.06.2013 Views

98 Chapitre 2. Variables aléatoires discrètes Comme on l’a vu ci-dessus, la probabilité qu’aucun des Xn ne soit égal à 1 est nulle donc on exclut ce cas et X est alors une variable aléatoire à valeurs dansÆ∗ . Il nous reste à trouver sa loi, or pour tout n ∈Æ∗ : È(X = n) =È(X1 = 0,...,Xn−1 = 0,Xn = 1), probabilité qu’on évalue facilement via l’indépendance des Xi : È(X = n) =È(X1 = 0)...È(Xn−1 = 0)È(Xn = 1) = (1−p) n−1 p, et X suit donc une loi géométrique de paramètre p. La loi géométrique se rencontre typiquement dans les phénomènes d’attente jusqu’à l’apparition d’un événement. Figure 2.13 – Lois de Poisson P(2) et P(20). Exercice 2.6 (Loi de Poisson) 1. Rappelons que pour tout réel x on a +∞ n=0 xn n! = ex . C’est exactement ce qui s’applique ici : +∞ n=0 e −λλn n! = e−λ +∞ n=0 λ n n! = e−λ e λ = 1. 2. Les lois de Poisson pour λ = 2 et λ = 20 sont représentées figure 2.13. 3. Soit λ > 0 fixé. On lance n fois une pièce amenant Pile avec la probabilité pn = λ/n. Soit Xn le nombre de fois où Pile apparaît durant ces n lancers. (a) La loi de Xn est la loi binomiale B(n,pn) = B(n,λ/n). En particulier : ∀k ∈ {0,...,n} È(Xn = k) = (b) Pour k fixé entre 0 et n, on a : n λ k n D’autre part : k = n! k!(n−k)! n p k k n(1−pn) n−k = n k λ n k 1− λ n−k . n k λ = n λk 1− k! 1 ... 1− n k−1 λ −−−→ n n→∞ k k! . 1− λ n−k = 1− n λ −k e n nln(1−λ/n) . Arnaud Guyader - Rennes 2 Probabilités

2.7. Corrigés 99 Puisque ln(1−x) = −x+o(x), on en déduit que le second terme tend vers e −λ , tandis que le premier tend clairement vers 1, donc : 1− λ n−k −−−→ n n→∞ e−λ . Le tout mis bout à bout donne : n p k k n(1−pn) n−k −−−→ n→∞ e−λλk k! . Lorsque n devient grand, la loi binomiale “ressemble” à une loi de Poisson. (c) Le résultat précédent est encore vrai si on suppose juste que limn→+∞npn = λ, puisque d’une part : et d’autre part : n p k k (npn) k n = 1− k! 1 ... 1− n k −1 λ −−−→ n n→∞ k k! , (1−pn) n−k = (1−pn) −k e nln(1−pn) −−−→ n→∞ e−λ . 4. On considère donc une variable discrète X à valeurs dans {0,1,...,8} et dont la loi p = [p0,p1,...,p8] s’obtient en divisant les données du tableau par 760 : 268 266 152 53 13 7 1 p = , , , , , ,0,0, 760 760 760 760 760 760 760 , ≈ [0.353,0.35,0.2,0.07,0.017,0.009,0,0,0.001]. Bien sûr, supposer que X suit une loi de Poisson semble a priori un peu farfelu puisqu’une loi de Poisson prend ses valeurs dansÆtout entier, tandis que X les prend dans {0,1,...,8}. Néanmoins on voit en figure 2.13 que les probabilités pn d’une loi de Poisson décroissent extrêmement vite vers 0, donc l’approximation de X par une variable Y suivant une loi de Poisson P(λ), pour peu qu’elle colle bien sur les premiers termes, n’est pas déraisonnable. Il nous faut trouver une valeur pour le paramètre λ, or on sait queÈ(Y = 0) = e−λ , donc on peut proposer par exemple : 268 λ = −ln(È(Y = 0)) ≈ −lnp0 = −ln ≈ 1.04. 760 Voyons ce que donnent les 8 premiers termes d’une loi de Poisson P(1.04) : [È(Y = 0),...,È(Y = 8)] ≈ [0.353,0.368,0.191,0.066,0.017,0.004,0.001,0.000,0.000]. On constate donc que l’approximation par une loi de Poisson est excellente, alors même que nous avons pris pour λ un estimateur on ne peut plus rudimentaire! Les deux lois sont représentées figure 2.14. Un estimateur plus sophistiqué est celui du maximum de vraisemblance. Pour une équipe et un match donnés, considérons le nombre de buts marqués comme la réalisation y d’une variable aléatoire Y distribuée suivant une loi de Poisson de paramètre λ. Puisqu’il y a 380 matchs, nous disposons de 760 réalisations (y1,...,y760) de 760 variables aléatoires (Y1,...,Y760) suivant la même loi de Poisson de paramètre λ. Le principe de l’estimation au maximum de vraisemblance (likelihood en anglais) est de chercher le paramètre λmax qui Probabilités Arnaud Guyader - Rennes 2

2.7. Corrigés 99<br />

Puisque ln(1−x) = −x+o(x), on en déduit que le second terme tend vers e −λ , tandis<br />

que le premier tend clairement vers 1, donc :<br />

<br />

1− λ<br />

n−k −−−→<br />

n n→∞ e−λ .<br />

Le tout mis bout à bout donne :<br />

<br />

n<br />

p<br />

k<br />

k n(1−pn) n−k −−−→<br />

n→∞ e−λλk<br />

k! .<br />

Lorsque n devient grand, la loi binomiale “ressemble” à une loi de Poisson.<br />

(c) Le résultat précédent est encore vrai si on suppose juste que limn→+∞npn = λ, puisque<br />

d’une part :<br />

et d’autre part :<br />

<br />

n<br />

p<br />

k<br />

k (npn) k <br />

n = 1−<br />

k!<br />

1<br />

<br />

... 1−<br />

n<br />

<br />

k −1 λ<br />

−−−→<br />

n n→∞<br />

k<br />

k! ,<br />

(1−pn) n−k = (1−pn) −k e nln(1−pn) −−−→<br />

n→∞ e−λ .<br />

4. On considère donc une variable discrète X à valeurs dans {0,1,...,8} et dont la loi p =<br />

[p0,p1,...,p8] s’obtient en divisant les données du tableau par 760 :<br />

<br />

268 266 152 53 13 7 1<br />

p = , , , , , ,0,0,<br />

760 760 760 760 760 760 760 ,<br />

<br />

≈ [0.353,0.35,0.2,0.07,0.017,0.009,0,0,0.001].<br />

Bien sûr, supposer que X suit une loi de Poisson semble a priori un peu farfelu puisqu’une loi<br />

de Poisson prend ses valeurs dansÆtout entier, tandis que X les prend dans {0,1,...,8}.<br />

Néanmoins on voit en figure 2.13 que les probabilités pn d’une loi de Poisson décroissent<br />

extrêmement vite vers 0, donc l’approximation de X par une variable Y suivant une loi de<br />

Poisson P(λ), pour peu qu’elle colle bien sur les premiers termes, n’est pas déraisonnable. Il<br />

nous faut trouver une valeur pour le paramètre λ, or on sait queÈ(Y = 0) = e−λ , donc on<br />

peut proposer par exemple :<br />

<br />

268<br />

λ = −ln(È(Y = 0)) ≈ −lnp0 = −ln ≈ 1.04.<br />

760<br />

Voyons ce que donnent les 8 premiers termes d’une loi de Poisson P(1.04) :<br />

[È(Y = 0),...,È(Y = 8)] ≈ [0.353,0.368,0.191,0.066,0.017,0.004,0.001,0.000,0.000].<br />

On constate donc que l’approximation par une loi de Poisson est excellente, alors même<br />

que nous avons pris pour λ un estimateur on ne peut plus rudimentaire! Les deux lois sont<br />

représentées figure 2.14.<br />

Un estimateur plus sophistiqué est celui du maximum de vraisemblance. Pour une équipe<br />

et un match donnés, considérons le nombre de buts marqués comme la réalisation y d’une<br />

variable aléatoire Y distribuée suivant une loi de Poisson de paramètre λ. Puisqu’il y a<br />

380 matchs, nous disposons de 760 réalisations (y1,...,y760) de 760 variables aléatoires<br />

(Y1,...,Y760) suivant la même loi de Poisson de paramètre λ. Le principe de l’estimation<br />

au maximum de vraisemblance (likelihood en anglais) est de chercher le paramètre λmax qui<br />

<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!