Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2
98 Chapitre 2. Variables aléatoires discrètes Comme on l’a vu ci-dessus, la probabilité qu’aucun des Xn ne soit égal à 1 est nulle donc on exclut ce cas et X est alors une variable aléatoire à valeurs dansÆ∗ . Il nous reste à trouver sa loi, or pour tout n ∈Æ∗ : È(X = n) =È(X1 = 0,...,Xn−1 = 0,Xn = 1), probabilité qu’on évalue facilement via l’indépendance des Xi : È(X = n) =È(X1 = 0)...È(Xn−1 = 0)È(Xn = 1) = (1−p) n−1 p, et X suit donc une loi géométrique de paramètre p. La loi géométrique se rencontre typiquement dans les phénomènes d’attente jusqu’à l’apparition d’un événement. Figure 2.13 – Lois de Poisson P(2) et P(20). Exercice 2.6 (Loi de Poisson) 1. Rappelons que pour tout réel x on a +∞ n=0 xn n! = ex . C’est exactement ce qui s’applique ici : +∞ n=0 e −λλn n! = e−λ +∞ n=0 λ n n! = e−λ e λ = 1. 2. Les lois de Poisson pour λ = 2 et λ = 20 sont représentées figure 2.13. 3. Soit λ > 0 fixé. On lance n fois une pièce amenant Pile avec la probabilité pn = λ/n. Soit Xn le nombre de fois où Pile apparaît durant ces n lancers. (a) La loi de Xn est la loi binomiale B(n,pn) = B(n,λ/n). En particulier : ∀k ∈ {0,...,n} È(Xn = k) = (b) Pour k fixé entre 0 et n, on a : n λ k n D’autre part : k = n! k!(n−k)! n p k k n(1−pn) n−k = n k λ n k 1− λ n−k . n k λ = n λk 1− k! 1 ... 1− n k−1 λ −−−→ n n→∞ k k! . 1− λ n−k = 1− n λ −k e n nln(1−λ/n) . Arnaud Guyader - Rennes 2 Probabilités
2.7. Corrigés 99 Puisque ln(1−x) = −x+o(x), on en déduit que le second terme tend vers e −λ , tandis que le premier tend clairement vers 1, donc : 1− λ n−k −−−→ n n→∞ e−λ . Le tout mis bout à bout donne : n p k k n(1−pn) n−k −−−→ n→∞ e−λλk k! . Lorsque n devient grand, la loi binomiale “ressemble” à une loi de Poisson. (c) Le résultat précédent est encore vrai si on suppose juste que limn→+∞npn = λ, puisque d’une part : et d’autre part : n p k k (npn) k n = 1− k! 1 ... 1− n k −1 λ −−−→ n n→∞ k k! , (1−pn) n−k = (1−pn) −k e nln(1−pn) −−−→ n→∞ e−λ . 4. On considère donc une variable discrète X à valeurs dans {0,1,...,8} et dont la loi p = [p0,p1,...,p8] s’obtient en divisant les données du tableau par 760 : 268 266 152 53 13 7 1 p = , , , , , ,0,0, 760 760 760 760 760 760 760 , ≈ [0.353,0.35,0.2,0.07,0.017,0.009,0,0,0.001]. Bien sûr, supposer que X suit une loi de Poisson semble a priori un peu farfelu puisqu’une loi de Poisson prend ses valeurs dansÆtout entier, tandis que X les prend dans {0,1,...,8}. Néanmoins on voit en figure 2.13 que les probabilités pn d’une loi de Poisson décroissent extrêmement vite vers 0, donc l’approximation de X par une variable Y suivant une loi de Poisson P(λ), pour peu qu’elle colle bien sur les premiers termes, n’est pas déraisonnable. Il nous faut trouver une valeur pour le paramètre λ, or on sait queÈ(Y = 0) = e−λ , donc on peut proposer par exemple : 268 λ = −ln(È(Y = 0)) ≈ −lnp0 = −ln ≈ 1.04. 760 Voyons ce que donnent les 8 premiers termes d’une loi de Poisson P(1.04) : [È(Y = 0),...,È(Y = 8)] ≈ [0.353,0.368,0.191,0.066,0.017,0.004,0.001,0.000,0.000]. On constate donc que l’approximation par une loi de Poisson est excellente, alors même que nous avons pris pour λ un estimateur on ne peut plus rudimentaire! Les deux lois sont représentées figure 2.14. Un estimateur plus sophistiqué est celui du maximum de vraisemblance. Pour une équipe et un match donnés, considérons le nombre de buts marqués comme la réalisation y d’une variable aléatoire Y distribuée suivant une loi de Poisson de paramètre λ. Puisqu’il y a 380 matchs, nous disposons de 760 réalisations (y1,...,y760) de 760 variables aléatoires (Y1,...,Y760) suivant la même loi de Poisson de paramètre λ. Le principe de l’estimation au maximum de vraisemblance (likelihood en anglais) est de chercher le paramètre λmax qui Probabilités Arnaud Guyader - Rennes 2
- Page 51 and 52: 1.5. Corrigés 47 Exercice 1.31 (Le
- Page 53 and 54: 1.5. Corrigés 49 qui se calcule à
- Page 55 and 56: 1.5. Corrigés 51 2. Cette fois la
- Page 57 and 58: 1.5. Corrigés 53 Figure 1.11 - Pro
- Page 59: 1.5. Corrigés 55 3. Nous voulons c
- Page 62 and 63: 58 Chapitre 2. Variables aléatoire
- Page 64 and 65: 60 Chapitre 2. Variables aléatoire
- Page 66 and 67: 62 Chapitre 2. Variables aléatoire
- Page 68 and 69: 64 Chapitre 2. Variables aléatoire
- Page 70 and 71: 66 Chapitre 2. Variables aléatoire
- Page 72 and 73: 68 Chapitre 2. Variables aléatoire
- Page 74 and 75: 70 Chapitre 2. Variables aléatoire
- Page 76 and 77: 72 Chapitre 2. Variables aléatoire
- Page 78 and 79: 74 Chapitre 2. Variables aléatoire
- Page 80 and 81: 76 Chapitre 2. Variables aléatoire
- Page 82 and 83: 78 Chapitre 2. Variables aléatoire
- Page 84 and 85: 80 Chapitre 2. Variables aléatoire
- Page 86 and 87: 82 Chapitre 2. Variables aléatoire
- Page 88 and 89: 84 Chapitre 2. Variables aléatoire
- Page 90 and 91: 86 Chapitre 2. Variables aléatoire
- Page 92 and 93: 88 Chapitre 2. Variables aléatoire
- Page 94 and 95: 90 Chapitre 2. Variables aléatoire
- Page 96 and 97: 92 Chapitre 2. Variables aléatoire
- Page 98 and 99: 94 Chapitre 2. Variables aléatoire
- Page 100 and 101: 96 Chapitre 2. Variables aléatoire
- Page 104 and 105: 100 Chapitre 2. Variables aléatoir
- Page 106 and 107: 102 Chapitre 2. Variables aléatoir
- Page 108 and 109: 104 Chapitre 2. Variables aléatoir
- Page 110 and 111: 106 Chapitre 2. Variables aléatoir
- Page 112 and 113: 108 Chapitre 2. Variables aléatoir
- Page 114 and 115: 110 Chapitre 2. Variables aléatoir
- Page 116 and 117: 112 Chapitre 2. Variables aléatoir
- Page 118 and 119: 114 Chapitre 2. Variables aléatoir
- Page 120 and 121: 116 Chapitre 3. Variables aléatoir
- Page 122 and 123: 118 Chapitre 3. Variables aléatoir
- Page 124 and 125: 120 Chapitre 3. Variables aléatoir
- Page 126 and 127: 122 Chapitre 3. Variables aléatoir
- Page 128 and 129: 124 Chapitre 3. Variables aléatoir
- Page 130 and 131: 126 Chapitre 3. Variables aléatoir
- Page 132 and 133: 128 Chapitre 3. Variables aléatoir
- Page 134 and 135: 130 Chapitre 3. Variables aléatoir
- Page 136 and 137: 132 Chapitre 3. Variables aléatoir
- Page 138 and 139: 134 Chapitre 3. Variables aléatoir
- Page 140 and 141: 136 Chapitre 3. Variables aléatoir
- Page 142 and 143: 138 Chapitre 3. Variables aléatoir
- Page 144 and 145: 140 Chapitre 3. Variables aléatoir
- Page 146 and 147: 142 Chapitre 3. Variables aléatoir
- Page 148 and 149: 144 Chapitre 3. Variables aléatoir
- Page 150 and 151: ∈Ê 146 Chapitre 3. Variables al
2.7. Corrigés 99<br />
Puisque ln(1−x) = −x+o(x), on en déduit que le second terme tend vers e −λ , tandis<br />
que le premier tend clairement vers 1, donc :<br />
<br />
1− λ<br />
n−k −−−→<br />
n n→∞ e−λ .<br />
Le tout mis bout à bout donne :<br />
<br />
n<br />
p<br />
k<br />
k n(1−pn) n−k −−−→<br />
n→∞ e−λλk<br />
k! .<br />
Lorsque n devient grand, la loi binomiale “ressemble” à une loi de Poisson.<br />
(c) Le résultat précédent est encore vrai si on suppose juste que limn→+∞npn = λ, puisque<br />
d’une part :<br />
et d’autre part :<br />
<br />
n<br />
p<br />
k<br />
k (npn) k <br />
n = 1−<br />
k!<br />
1<br />
<br />
... 1−<br />
n<br />
<br />
k −1 λ<br />
−−−→<br />
n n→∞<br />
k<br />
k! ,<br />
(1−pn) n−k = (1−pn) −k e nln(1−pn) −−−→<br />
n→∞ e−λ .<br />
4. On considère donc une variable discrète X à valeurs dans {0,1,...,8} et dont la loi p =<br />
[p0,p1,...,p8] s’obtient en divisant les données du tableau par 760 :<br />
<br />
268 266 152 53 13 7 1<br />
p = , , , , , ,0,0,<br />
760 760 760 760 760 760 760 ,<br />
<br />
≈ [0.353,0.35,0.2,0.07,0.017,0.009,0,0,0.001].<br />
Bien sûr, supposer que X suit une loi de Poisson semble a priori un peu farfelu puisqu’une loi<br />
de Poisson prend ses valeurs dansÆtout entier, tandis que X les prend dans {0,1,...,8}.<br />
Néanmoins on voit en figure 2.13 que les probabilités pn d’une loi de Poisson décroissent<br />
extrêmement vite vers 0, donc l’approximation de X par une variable Y suivant une loi de<br />
Poisson P(λ), pour peu qu’elle colle bien sur les premiers termes, n’est pas déraisonnable. Il<br />
nous faut trouver une valeur pour le paramètre λ, or on sait queÈ(Y = 0) = e−λ , donc on<br />
peut proposer par exemple :<br />
<br />
268<br />
λ = −ln(È(Y = 0)) ≈ −lnp0 = −ln ≈ 1.04.<br />
760<br />
Voyons ce que donnent les 8 premiers termes d’une loi de Poisson P(1.04) :<br />
[È(Y = 0),...,È(Y = 8)] ≈ [0.353,0.368,0.191,0.066,0.017,0.004,0.001,0.000,0.000].<br />
On constate donc que l’approximation par une loi de Poisson est excellente, alors même<br />
que nous avons pris pour λ un estimateur on ne peut plus rudimentaire! Les deux lois sont<br />
représentées figure 2.14.<br />
Un estimateur plus sophistiqué est celui du maximum de vraisemblance. Pour une équipe<br />
et un match donnés, considérons le nombre de buts marqués comme la réalisation y d’une<br />
variable aléatoire Y distribuée suivant une loi de Poisson de paramètre λ. Puisqu’il y a<br />
380 matchs, nous disposons de 760 réalisations (y1,...,y760) de 760 variables aléatoires<br />
(Y1,...,Y760) suivant la même loi de Poisson de paramètre λ. Le principe de l’estimation<br />
au maximum de vraisemblance (likelihood en anglais) est de chercher le paramètre λmax qui<br />
<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2