Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2
106 Chapitre 2. Variables aléatoires discrètes Exercice 2.17 (Minimum de lois géométriques) 1. Tout comme les variables X1 et X2, la variable aléatoire X est à valeurs dansÆ∗ . 2. Soit n ∈Æfixé, on peut écrire grâce à l’indépendance de X1 et X2 : È(X > n) =È(X1 > n,X2 > n) =È(X1 > n)È(X2 > n), or ces quantités ont été vues dans l’exercice précédent : È(X > n) = (1−p1) n (1−p2) n = ((1−p1)(1−p2)) n = (1−(1−(1−p1)(1−p2))) n . Puisqu’il est clair que 0 < 1−(1−p1)(1−p2) < 1, on en déduit que X = min(X1,X2) suit elle-même une loi géométrique, et plus précisément X ∼ G(1−(1−p1)(1−p2)). 3. Application : On s’intéresse donc à la variable X = min(X1,X2), où X1 ∼ G(1/6), X2 ∼ G(1/6), avec X1 et X2 indépendantes. On vient de voir que X ∼ G(11/36), donc le nombre moyen de “ doubles lancers ” nécessaires est E[X] = 36/11. 4. Généralisation : soit n variables indépendantes X1,...,Xn suivant des lois géométriques de paramètres respectifs p1,...,pn, avec pi ∈]0,1[ pour tout i ∈ {1,...,n}. Le même calcul que ci-dessus permet de montrer que : X = min(X1,...,Xn) ∼ G(1−(1−p1)...(1−pn)). Exercice 2.18 (Un problème de natalité) 1. X est à valeurs dansÆ∗ et on vérifie facilement que X suit une loi géométrique G(1/2). 2. Puisqu’il y a exactement un garçon parmi les X enfants, P = 1/X. 3. Le calcul d’espérance s’écrit par le théorème de transfert : E[P] = E[1/X] = Rappelons le développement en série entière : +∞ n=1 1 1 × n 2n. +∞ ∀x ∈ [−1,+1[ ln(1−x) = − qu’il suffit d’appliquer ici en x = 1/2 pour obtenir E[P] = ln2 ≈ 0.69. Ainsi, à la génération suivante, il y a bien plus de garçons que de filles, ce qui n’est pas étonnant (cf. figure 2.15) mais risque de poser très vite des problèmes de renouvellement de population. Exercice 2.19 (Tirages de cartes) Nous avons affaire à un cas d’école : X ∼ B(5,1/8), d’espérance 5/8 et de variance 35/64. Exercice 2.20 (Codage redondant) Le nombre N d’erreurs lors d’une transmission suit une loi binomiale B(5;0,2). Pour que le message soit mal interprété après un décodage à la majorité, il faut et il suffit qu’il y ait eu au moins 3 erreurs lors de la transmission. La probabilité p de mauvaise interprétation vaut donc : p =È(N = 3)+È(N = 4)+È(N = 5) = 5 k=3 n=1 x n n , 5 (0,2) k k (0,8) 5−k ≈ 0,058. Le codage redondant permet donc de passer de 20% d’erreurs de transmission à seulement 5,8%. Arnaud Guyader - Rennes 2 Probabilités
2.7. Corrigés 107 P = 1 X = 1 ⇒ P = 1 3 P = 1 P = 4 1 2 Figure 2.15 – Proportion de garçons (surface grisée). Exercice 2.21 (Inégalité de Tchebychev) 1. La variable S est la somme de 3600 variables indépendantes de Bernoulli de paramètre 1/6. On en déduit que S suit une loi binomiale B(3600,1/6), de moyenne E[S] = 3600×1/6 = 600 et de variance Var(S) = 3600×1/6×5/6 = 500. 2. La probabilité que S soit compris strictement entre 480 et 720 est donc : 719 719 n 3600 1 5 È(480 < S < 720) = = n) = n=481È(S n 6 6 n=481 3600−n L’inégalité de Tchebychev permet de minorer cette probabilité comme suit : È(480 < S < 720) =È(−120 < S −600 < 120) =È(−120 < S −E[S] < 120), ce qui s’écrit encore : È(480 < S < 720) = 1−È(|S −E[S]| ≥ 120) ≥ 1− Var(S) , 1202 ce qui donne : È(480 < S < 720) ≥ 0.965. (2.2) Il y a donc au moins 96,5% de chances que le nombre de 1 obtenus sur les 3600 lancers soit entre 480 et 720. Le calcul sur machine de la somme (2.2) donne en faitÈ(480 < S < 720) ≈ 1−10 −7 . Ainsi la borne donnée par l’inégalité de Tchebychev est très pessimiste : lorsqu’on lance 3600 fois un dé, il y a environ une chance sur 10 millions que le nombre de 1 ne soit pas compris entre 480 et 720. Exercice 2.22 (Surbooking) Puisqu’il y a 94 places vendues et que pour chacune d’entre elles, il y a 5% de chances que le passager ne soit pas là pour l’embarquement, le nombre S de personnes absentes à l’embarquement suit une loi binomiale B(94,0.05). La probabilité qu’il y ait trop de monde à l’embarquement est donc : 0 94 3 94 5 95 94 5 95 p =È(S ≤ 3) =È(S = 0)+···+È(S = 3) = +···+ 0 100 100 3 100 100 Via l’approximation d’une loi binomiale B(94,0.05) par une loi de Poisson P(94×0.05) = P(4,7), ceci est à peu près égal à : p ≈ e −4,74,70 0! +···+e−4,74,73 3! ≈ 0,310. Il y a donc 31,0% de risques de problème avec cette technique de surbooking. Remarque : si on n’effectue pas l’approximation poissonienne, on obtient en fait p = 30,3%. Probabilités Arnaud Guyader - Rennes 2 91 .
- Page 59: 1.5. Corrigés 55 3. Nous voulons c
- Page 62 and 63: 58 Chapitre 2. Variables aléatoire
- Page 64 and 65: 60 Chapitre 2. Variables aléatoire
- Page 66 and 67: 62 Chapitre 2. Variables aléatoire
- Page 68 and 69: 64 Chapitre 2. Variables aléatoire
- Page 70 and 71: 66 Chapitre 2. Variables aléatoire
- Page 72 and 73: 68 Chapitre 2. Variables aléatoire
- Page 74 and 75: 70 Chapitre 2. Variables aléatoire
- Page 76 and 77: 72 Chapitre 2. Variables aléatoire
- Page 78 and 79: 74 Chapitre 2. Variables aléatoire
- Page 80 and 81: 76 Chapitre 2. Variables aléatoire
- Page 82 and 83: 78 Chapitre 2. Variables aléatoire
- Page 84 and 85: 80 Chapitre 2. Variables aléatoire
- Page 86 and 87: 82 Chapitre 2. Variables aléatoire
- Page 88 and 89: 84 Chapitre 2. Variables aléatoire
- Page 90 and 91: 86 Chapitre 2. Variables aléatoire
- Page 92 and 93: 88 Chapitre 2. Variables aléatoire
- Page 94 and 95: 90 Chapitre 2. Variables aléatoire
- Page 96 and 97: 92 Chapitre 2. Variables aléatoire
- Page 98 and 99: 94 Chapitre 2. Variables aléatoire
- Page 100 and 101: 96 Chapitre 2. Variables aléatoire
- Page 102 and 103: 98 Chapitre 2. Variables aléatoire
- Page 104 and 105: 100 Chapitre 2. Variables aléatoir
- Page 106 and 107: 102 Chapitre 2. Variables aléatoir
- Page 108 and 109: 104 Chapitre 2. Variables aléatoir
- Page 112 and 113: 108 Chapitre 2. Variables aléatoir
- Page 114 and 115: 110 Chapitre 2. Variables aléatoir
- Page 116 and 117: 112 Chapitre 2. Variables aléatoir
- Page 118 and 119: 114 Chapitre 2. Variables aléatoir
- Page 120 and 121: 116 Chapitre 3. Variables aléatoir
- Page 122 and 123: 118 Chapitre 3. Variables aléatoir
- Page 124 and 125: 120 Chapitre 3. Variables aléatoir
- Page 126 and 127: 122 Chapitre 3. Variables aléatoir
- Page 128 and 129: 124 Chapitre 3. Variables aléatoir
- Page 130 and 131: 126 Chapitre 3. Variables aléatoir
- Page 132 and 133: 128 Chapitre 3. Variables aléatoir
- Page 134 and 135: 130 Chapitre 3. Variables aléatoir
- Page 136 and 137: 132 Chapitre 3. Variables aléatoir
- Page 138 and 139: 134 Chapitre 3. Variables aléatoir
- Page 140 and 141: 136 Chapitre 3. Variables aléatoir
- Page 142 and 143: 138 Chapitre 3. Variables aléatoir
- Page 144 and 145: 140 Chapitre 3. Variables aléatoir
- Page 146 and 147: 142 Chapitre 3. Variables aléatoir
- Page 148 and 149: 144 Chapitre 3. Variables aléatoir
- Page 150 and 151: ∈Ê 146 Chapitre 3. Variables al
- Page 152 and 153: 148 Chapitre 3. Variables aléatoir
- Page 154 and 155: 150 Chapitre 3. Variables aléatoir
- Page 156 and 157: 152 Chapitre 3. Variables aléatoir
- Page 158 and 159: 154 Chapitre 3. Variables aléatoir
106 Chapitre 2. Variables aléatoires discrètes<br />
Exercice 2.17 (Minimum de lois géométriques)<br />
1. Tout comme les variables X1 et X2, la variable aléatoire X est à valeurs dansÆ∗ .<br />
2. Soit n ∈Æfixé, on peut écrire grâce à l’indépendance de X1 et X2 :<br />
È(X > n) =È(X1 > n,X2 > n) =È(X1 > n)È(X2 > n),<br />
or ces quantités ont été vues dans l’exercice précédent :<br />
È(X > n) = (1−p1) n (1−p2) n = ((1−p1)(1−p2)) n = (1−(1−(1−p1)(1−p2))) n .<br />
Puisqu’il est clair que 0 < 1−(1−p1)(1−p2) < 1, on en déduit que X = min(X1,X2) suit<br />
elle-même une loi géométrique, et plus précisément X ∼ G(1−(1−p1)(1−p2)).<br />
3. Application : On s’intéresse donc à la variable X = min(X1,X2), où X1 ∼ G(1/6), X2 ∼<br />
G(1/6), avec X1 et X2 indépendantes. On vient de voir que X ∼ G(11/36), donc le nombre<br />
moyen de “ doubles lancers ” nécessaires est E[X] = 36/11.<br />
4. Généralisation : soit n variables indépendantes X1,...,Xn suivant des lois géométriques de<br />
paramètres respectifs p1,...,pn, avec pi ∈]0,1[ pour tout i ∈ {1,...,n}. Le même calcul que<br />
ci-dessus permet de montrer que :<br />
X = min(X1,...,Xn) ∼ G(1−(1−p1)...(1−pn)).<br />
Exercice 2.18 (Un problème de natalité)<br />
1. X est à valeurs dansÆ∗ et on vérifie facilement que X suit une loi géométrique G(1/2).<br />
2. Puisqu’il y a exactement un garçon parmi les X enfants, P = 1/X.<br />
3. Le calcul d’espérance s’écrit par le théorème de transfert :<br />
E[P] = E[1/X] =<br />
Rappelons le développement en série entière :<br />
+∞<br />
n=1<br />
1 1<br />
×<br />
n 2n. +∞<br />
∀x ∈ [−1,+1[ ln(1−x) = −<br />
qu’il suffit d’appliquer ici en x = 1/2 pour obtenir E[P] = ln2 ≈ 0.69. Ainsi, à la génération<br />
suivante, il y a bien plus de garçons que de filles, ce qui n’est pas étonnant (cf. figure 2.15)<br />
mais risque de poser très vite des problèmes de renouvellement de population.<br />
Exercice 2.19 (Tirages de cartes)<br />
Nous avons affaire à un cas d’école : X ∼ B(5,1/8), d’espérance 5/8 et de variance 35/64.<br />
Exercice 2.20 (Codage redondant)<br />
Le nombre N d’erreurs lors d’une transmission suit une loi binomiale B(5;0,2). Pour que le message<br />
soit mal interprété après un décodage à la majorité, il faut et il suffit qu’il y ait eu au moins 3<br />
erreurs lors de la transmission. La probabilité p de mauvaise interprétation vaut donc :<br />
p =È(N = 3)+È(N = 4)+È(N = 5) =<br />
5<br />
k=3<br />
n=1<br />
x n<br />
n ,<br />
<br />
5<br />
(0,2)<br />
k<br />
k (0,8) 5−k ≈ 0,058.<br />
Le codage redondant permet donc de passer de 20% d’erreurs de transmission à seulement 5,8%.<br />
Arnaud Guyader - <strong>Rennes</strong> 2 <strong>Probabilités</strong>