Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2
112 Chapitre 2. Variables aléatoires discrètes – la valeur 28 est 28/365; – la valeur 30 est (4×30)/365 = 120/365; – la valeur 31 est (7×31)/365 = 217/365; La moyenne de Y est donc E[Y] = 28× 28 120 217 11111 +30× +31× = ≈ 30.44 365 365 365 365 Exercice 2.28 (Loi à partir des moments) On considère une variable aléatoire X à valeurs dans {0,1,2}. On sait queE[X] = 1 et Var(X) = 1 2 . Notons p0, p1 et p2 les probabilités que X prenne respectivement les valeurs 0, 1 et 2. Le fait que les pi doivent sommer à 1 et les connaissances de l’espérance et de la variance permettent d’écrire un système linéaire de 3 équations à 3 inconnues, lequel se résout sans difficulté : ⎧ ⎨ ⎩ p0 +p1 +p2 = 1 0×p0 +1×p1 +2×p2 = 1 0 2 ×p0 +1 2 ×p1 +2 2 ×p2 −1 2 = 1/2 On reconnaît en fait une loi binomiale : X ∼ B(2,1/2). ⎧ ⎨ p0 = 1/4 ⇔ p1 = 1/2 ⎩ p2 = 1/4 Exercice 2.29 (Dés et accidents) 1. On dispose de deux dés qu’on lance simultanément 12 fois de rang et on appelle X le nombre de double six obtenus sur les 12 lancers. (a) La variable X suit une loi binomiale : X ∼ B(12,1/36). Moyenne et variance valent donc E[X] = 1/3 et Var(X) = 35/108. (b) On a È(X ≤ 2) = 12 1 0 36 d’oùÈ(X ≤ 2) ≈ 0.996. 0 12 35 + 36 12 1 1 36 1 11 35 + 36 12 1 2 36 2 10 35 36 (c) On approche la loi de X par une loi de Poisson de même moyenne, donc X ≈ P(1/3), d’où È(X ≤ 2) ≈ e −1 3 1 0 3 3 0! +e−1 1 1 3 1! +e−1 3 1 2 3 2! ≈ 0.995 Ainsi l’approximation fonctionne très bien, bien que le premier paramètre de la loi binomiale n’est pas très grand (ici n = 12). 2. (a) Puisque X ∼ P(2), on a È(X = 4) = e −2 × 24 4! ≈ 0.09 (b) Les lois de Poisson sont stables par sommation indépendante : X1 +X2 ∼ P(λ1 +λ2). (c) La question précédente permet d’affirmer que Y ∼ P(4), d’où È(Y = 0) = e −4 × 40 0! ≈ 0.018. On pouvait également arriver à ce résultat directement en utilisant l’indépendance des accidents d’une semaine à l’autre : È(Y = 0) =È({X1 = 0}∩{X2 = 0}) =È(X1 = 0)È(X2 = 0) = e −2 × 20 0! ×e−2 × 20 0! d’où l’on retrouve bien :È(Y = 0) = e −4 . Arnaud Guyader - Rennes 2 Probabilités
2.7. Corrigés 113 Exercice 2.30 (Test sanguin) 1. Soit X le nombre de soldats porteurs de cette maladie. Puisque les soldats sont porteurs ou non de la maladie indépendamment les uns des autres,X suit une loi binomialeB(500,1/1000). Ainsi sa moyenne vaut-elle E[X] = 500×1/1000 = 1/2. 2. Dans ces conditions, on peut approcher la loi de X par une loi de Poisson de même moyenne, c’est-à-dire X ≈ P(1/2). 3. La probabilité que le test soit positif est, en utilisant la loi binomiale : È(X ≥ 1) = 1−È(X = 0) = 1− 1− 1 500 ≈ 0.3936 1000 Si on utilise l’approximation par la loi de Poisson, on trouve : È(X ≥ 1) = 1−È(X = 0) = 1−e −1 2 ≈ 0.3935 Donc, pour cette probabilité, l’erreur d’approximation est très faible, de l’ordre de 10 −4 . 4. On cherche cette fois une probabilité conditionnelle, à savoir : È(X ≥ 2|X ≥ 1) =È({X ≥ 2}∩{X ≥ 1}) È(X ≥ 1) avec, toujours par l’approximation de Poisson : È(X ≥ 2) = 1−(È(X = 0)+È(X = 1)) = 1− d’où È(X ≥ 2|X ≥ 1) = 1−e−1 2 1− 3 2e−12 ≈ 0.229 =È(X ≥ 2) È(X ≥ 1) , e −1 2 + 1 2 e−1 2 , 5. Si Jean est malade, la probabilité qu’il y ait au moins une autre personne malade est par contre la probabilité que parmi 499 personnes, au moins une soit atteinte. En d’autres termes, on est ramené au calcul de la question 3 en remplaçant 500 par 499 : p = 1− 1− 1 499 ≈ 0.3930 1000 6. Le raisonnement de la question précédente s’applique mutatis mutandis. En notant pn la probabilité, en fonction de n, qu’une des personnes restantes au moins soit malade, on obtient pn = 1− 1− 1 500−n ≈ 1−e 1000 −500−n 1000 Exercice 2.31 (Boules blanches et noires) Cet exercice est corrigé en annexe (sujet de décembre 2009). Exercice 2.32 (Défaut de fabrication) Cet exercice est corrigé en annexe (sujet de décembre 2009). Exercice 2.33 (Recrutement) Cet exercice est corrigé en annexe (sujet de décembre 2009). Exercice 2.34 (Lancer de dé) Cet exercice est corrigé en annexe (sujet de novembre 2010). Probabilités Arnaud Guyader - Rennes 2
- Page 66 and 67: 62 Chapitre 2. Variables aléatoire
- Page 68 and 69: 64 Chapitre 2. Variables aléatoire
- Page 70 and 71: 66 Chapitre 2. Variables aléatoire
- Page 72 and 73: 68 Chapitre 2. Variables aléatoire
- Page 74 and 75: 70 Chapitre 2. Variables aléatoire
- Page 76 and 77: 72 Chapitre 2. Variables aléatoire
- Page 78 and 79: 74 Chapitre 2. Variables aléatoire
- Page 80 and 81: 76 Chapitre 2. Variables aléatoire
- Page 82 and 83: 78 Chapitre 2. Variables aléatoire
- Page 84 and 85: 80 Chapitre 2. Variables aléatoire
- Page 86 and 87: 82 Chapitre 2. Variables aléatoire
- Page 88 and 89: 84 Chapitre 2. Variables aléatoire
- Page 90 and 91: 86 Chapitre 2. Variables aléatoire
- Page 92 and 93: 88 Chapitre 2. Variables aléatoire
- Page 94 and 95: 90 Chapitre 2. Variables aléatoire
- Page 96 and 97: 92 Chapitre 2. Variables aléatoire
- Page 98 and 99: 94 Chapitre 2. Variables aléatoire
- Page 100 and 101: 96 Chapitre 2. Variables aléatoire
- Page 102 and 103: 98 Chapitre 2. Variables aléatoire
- Page 104 and 105: 100 Chapitre 2. Variables aléatoir
- Page 106 and 107: 102 Chapitre 2. Variables aléatoir
- Page 108 and 109: 104 Chapitre 2. Variables aléatoir
- Page 110 and 111: 106 Chapitre 2. Variables aléatoir
- Page 112 and 113: 108 Chapitre 2. Variables aléatoir
- Page 114 and 115: 110 Chapitre 2. Variables aléatoir
- Page 118 and 119: 114 Chapitre 2. Variables aléatoir
- Page 120 and 121: 116 Chapitre 3. Variables aléatoir
- Page 122 and 123: 118 Chapitre 3. Variables aléatoir
- Page 124 and 125: 120 Chapitre 3. Variables aléatoir
- Page 126 and 127: 122 Chapitre 3. Variables aléatoir
- Page 128 and 129: 124 Chapitre 3. Variables aléatoir
- Page 130 and 131: 126 Chapitre 3. Variables aléatoir
- Page 132 and 133: 128 Chapitre 3. Variables aléatoir
- Page 134 and 135: 130 Chapitre 3. Variables aléatoir
- Page 136 and 137: 132 Chapitre 3. Variables aléatoir
- Page 138 and 139: 134 Chapitre 3. Variables aléatoir
- Page 140 and 141: 136 Chapitre 3. Variables aléatoir
- Page 142 and 143: 138 Chapitre 3. Variables aléatoir
- Page 144 and 145: 140 Chapitre 3. Variables aléatoir
- Page 146 and 147: 142 Chapitre 3. Variables aléatoir
- Page 148 and 149: 144 Chapitre 3. Variables aléatoir
- Page 150 and 151: ∈Ê 146 Chapitre 3. Variables al
- Page 152 and 153: 148 Chapitre 3. Variables aléatoir
- Page 154 and 155: 150 Chapitre 3. Variables aléatoir
- Page 156 and 157: 152 Chapitre 3. Variables aléatoir
- Page 158 and 159: 154 Chapitre 3. Variables aléatoir
- Page 160 and 161: 156 Chapitre 3. Variables aléatoir
- Page 162 and 163: 158 Chapitre 3. Variables aléatoir
- Page 164 and 165: 160 Chapitre 3. Variables aléatoir
112 Chapitre 2. Variables aléatoires discrètes<br />
– la valeur 28 est 28/365;<br />
– la valeur 30 est (4×30)/365 = 120/365;<br />
– la valeur 31 est (7×31)/365 = 217/365;<br />
La moyenne de Y est donc<br />
E[Y] = 28× 28 120 217 11111<br />
+30× +31× = ≈ 30.44<br />
365 365 365 365<br />
Exercice 2.28 (Loi à partir des moments)<br />
On considère une variable aléatoire X à valeurs dans {0,1,2}. On sait queE[X] = 1 et Var(X) = 1<br />
2 .<br />
Notons p0, p1 et p2 les probabilités que X prenne respectivement les valeurs 0, 1 et 2. Le fait que<br />
les pi doivent sommer à 1 et les connaissances de l’espérance et de la variance permettent d’écrire<br />
un système linéaire de 3 équations à 3 inconnues, lequel se résout sans difficulté :<br />
⎧<br />
⎨<br />
⎩<br />
p0 +p1 +p2 = 1<br />
0×p0 +1×p1 +2×p2 = 1<br />
0 2 ×p0 +1 2 ×p1 +2 2 ×p2 −1 2 = 1/2<br />
On reconnaît en fait une loi binomiale : X ∼ B(2,1/2).<br />
⎧<br />
⎨ p0 = 1/4<br />
⇔ p1 = 1/2<br />
⎩<br />
p2 = 1/4<br />
Exercice 2.29 (Dés et accidents)<br />
1. On dispose de deux dés qu’on lance simultanément 12 fois de rang et on appelle X le nombre<br />
de double six obtenus sur les 12 lancers.<br />
(a) La variable X suit une loi binomiale : X ∼ B(12,1/36). Moyenne et variance valent<br />
donc E[X] = 1/3 et Var(X) = 35/108.<br />
(b) On a<br />
È(X ≤ 2) =<br />
<br />
12 1<br />
0 36<br />
d’oùÈ(X ≤ 2) ≈ 0.996.<br />
0 12 35<br />
+<br />
36<br />
<br />
12 1<br />
1 36<br />
1 11 35<br />
+<br />
36<br />
<br />
12 1<br />
2 36<br />
2 10 35<br />
36<br />
(c) On approche la loi de X par une loi de Poisson de même moyenne, donc X ≈ P(1/3),<br />
d’où È(X ≤ 2) ≈ e −1<br />
3<br />
<br />
1 0<br />
3<br />
3<br />
0! +e−1<br />
<br />
1 1<br />
3<br />
1! +e−1 3<br />
<br />
1 2<br />
3<br />
2!<br />
≈ 0.995<br />
Ainsi l’approximation fonctionne très bien, bien que le premier paramètre de la loi<br />
binomiale n’est pas très grand (ici n = 12).<br />
2. (a) Puisque X ∼ P(2), on a È(X = 4) = e −2 × 24<br />
4!<br />
≈ 0.09<br />
(b) Les lois de Poisson sont stables par sommation indépendante : X1 +X2 ∼ P(λ1 +λ2).<br />
(c) La question précédente permet d’affirmer que Y ∼ P(4), d’où<br />
È(Y = 0) = e −4 × 40<br />
0!<br />
≈ 0.018.<br />
On pouvait également arriver à ce résultat directement en utilisant l’indépendance des<br />
accidents d’une semaine à l’autre :<br />
È(Y = 0) =È({X1 = 0}∩{X2 = 0}) =È(X1 = 0)È(X2 = 0) = e −2 × 20<br />
0! ×e−2 × 20<br />
0!<br />
d’où l’on retrouve bien :È(Y = 0) = e −4 .<br />
Arnaud Guyader - <strong>Rennes</strong> 2 <strong>Probabilités</strong>