Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2
104 Chapitre 2. Variables aléatoires discrètes Exercice 2.12 (Espérance d’une loi de Poisson) 1. Le calcul détaillé vu en cours pour montrer que E[X] = 1 lorsque X ∼ P(1) se généralise au cas où X ∼ P(λ). 2. La moyenne de Y = e −X peut se calculer par le théorème de transfert : E[Y] = +∞ n=0 e −n e −λλn n! +∞ (λe = e−λ −1 ) n n=0 où l’on retrouve le développement en série de l’exponentielle : E[Y] = e −λ e λe−1 = e λ(e−1 −1) . 3. (a) La variable X est à valeurs dansÆ∗ . Pour que X = 1, il faut que le premier soit réussi, ce qui est certain, et que le second soit raté, ce qui arrive avec probabilité 1/2, donc p1 =È(X = 1) = 1/2 = 1/(1+1)!. De façon générale, pour que X = n, il faut que les n premiers sauts soient réussis, ce qui arrive avec probabilité 1×1/2×···×1/n, et que le (n+1)-ème soit un échec, ce qui arrive avec probabilité 1−rn+1 = n/(n+1). Ainsi : pn =È(X = n) = 1× 1 1 n ×···× × 2 n n+1 = n=1 n=1 n! , n (n+1)! . On vérifie (pour la forme) que c’est bien une loi de probabilité grâce à l’astuce n = (n+1)−1 : +∞ +∞ 1 pn = n! − 1 = 1, (n+1)! puisque les termes se télescopent. (b) Le théorème de transfert donne : E[X +1] = +∞ n=1 n (n+1) (n+1)! = Par suite E[X]+1 = e, donc E[X] = e−1. +∞ n=1 1 = e. (n−1)! Exercice 2.13 (Espérance d’une loi arithmétique) 1. Pour que X soit effectivement une variable aléatoire, il faut que les pk somment à 1, or : 1 = n pk = α k=0 2. Avec en tête la relation n n k=0 k = α n(n+1) 2 k=0k2 = n(n+1)(2n+1) 6 E[X] = n kpk = k=0 2 n(n+1) =⇒ α = 2 n(n+1) . , on peut y aller à fond de cinquième : n k=0 k 2 = 2n+1 . 3 Exercice 2.14 (Deux dés : somme et différence) 1. U1 suit une loi uniforme sur {1,...,6}, son espérance vaut 7/2 et sa variance 35/12. 2. On appelle X = (U1 +U2) la somme et Y = (U1 −U2) la différence des deux résultats. U2 a la même loi que U1 donc : E[X] = E[U1]+E[U2] = 7 et E[Y] = E[U1]−E[U2] = 0. Pour le produit, il suffit d’écrire : E[XY] = E[(U1 +U2)(U1 −U2)] = E[U 2 1 ]−E[U2 2 ] = 0, toujours en raison du fait que U1 et U2 ont même loi. Arnaud Guyader - Rennes 2 Probabilités
2.7. Corrigés 105 3. On a ainsi Cov(X,Y) = E[XY]−E[X]E[Y] = 0, donc X et Y sont décorrélées. Par contre on vérifie aisément que : È(X = 2,Y = 5) = 0 =È(X = 2)È(Y = 5) = 1 1 × 36 36 , ce qui prouve que X et Y ne sont pas indépendantes. Cette non-indépendance était intuitivement clair : une fois connue X, la variable Y ne peut plus varier qu’entre 2−X et X −2, ce qui montre bien que la valeur prise par X a une incidence sur la valeur prise par Y (et vice versa). Exercice 2.15 (Deux dés : min et max) 1. La variable X est à valeurs dans {1,...,6} et en notant pi =È(X = i), quelques calculs donnent [p1,p2,p3,p4,p5,p6] = 1 36 [11,9,7,5,3,1]. Il s’ensuit pour l’espérance : E[X] = 91/36 ≈ 2,5. 2. Puisque X +Y = U1 +U2, il vient par linéarité de l’e : E[Y] = E[U1]+E[U2]−E[X] = 161 36 3. De même XY = U1U2, avec U1 et U2 indépendantes, donc : ≈ 4,5. E[XY] = E[U1U2] = E[U1]E[U2] = 49 4 . Ceci donne pour la covariance : Cov(X,Y) = E[XY]−E[X]E[Y] = 1225 1296 ≈ 0.94. Exercice 2.16 (Memento (absence de mémoire)) 1. On a : +∞ +∞ È(X > n) = = k) = p(1−p) k=n+1È(X k=n+1 k−1 = p où l’on reconnaît une somme géométrique, donc : È(X > n) = p (1−p)n 1−(1−p) = (1−p)n . On en déduit la fonction de répartition au point n : +∞ k=n+1 F(n) =È(X ≤ n) = 1−È(X > n) = 1−(1−p) n . 2. Par définition de la probabilité conditionnelle, on a alors ∀(m,n) ∈Æ×Æ: È(X > n+m|X > m) =È({X > n+m}∩{X > m}) È(X > m) (1−p) k−1 , > n+m) =È(X , È(X > m) puisque l’événement {X > n + m} implique l’événement {X > m}. Grâce à la question précédente, on a donc : È(X > n+m|X > m) = (1−p)n+m (1−p) m = (1−p)n =È(X > n). Probabilités Arnaud Guyader - Rennes 2
- Page 57 and 58: 1.5. Corrigés 53 Figure 1.11 - Pro
- Page 59: 1.5. Corrigés 55 3. Nous voulons c
- Page 62 and 63: 58 Chapitre 2. Variables aléatoire
- Page 64 and 65: 60 Chapitre 2. Variables aléatoire
- Page 66 and 67: 62 Chapitre 2. Variables aléatoire
- Page 68 and 69: 64 Chapitre 2. Variables aléatoire
- Page 70 and 71: 66 Chapitre 2. Variables aléatoire
- Page 72 and 73: 68 Chapitre 2. Variables aléatoire
- Page 74 and 75: 70 Chapitre 2. Variables aléatoire
- Page 76 and 77: 72 Chapitre 2. Variables aléatoire
- Page 78 and 79: 74 Chapitre 2. Variables aléatoire
- Page 80 and 81: 76 Chapitre 2. Variables aléatoire
- Page 82 and 83: 78 Chapitre 2. Variables aléatoire
- Page 84 and 85: 80 Chapitre 2. Variables aléatoire
- Page 86 and 87: 82 Chapitre 2. Variables aléatoire
- Page 88 and 89: 84 Chapitre 2. Variables aléatoire
- Page 90 and 91: 86 Chapitre 2. Variables aléatoire
- Page 92 and 93: 88 Chapitre 2. Variables aléatoire
- Page 94 and 95: 90 Chapitre 2. Variables aléatoire
- Page 96 and 97: 92 Chapitre 2. Variables aléatoire
- Page 98 and 99: 94 Chapitre 2. Variables aléatoire
- Page 100 and 101: 96 Chapitre 2. Variables aléatoire
- Page 102 and 103: 98 Chapitre 2. Variables aléatoire
- Page 104 and 105: 100 Chapitre 2. Variables aléatoir
- Page 106 and 107: 102 Chapitre 2. Variables aléatoir
- Page 110 and 111: 106 Chapitre 2. Variables aléatoir
- Page 112 and 113: 108 Chapitre 2. Variables aléatoir
- Page 114 and 115: 110 Chapitre 2. Variables aléatoir
- Page 116 and 117: 112 Chapitre 2. Variables aléatoir
- Page 118 and 119: 114 Chapitre 2. Variables aléatoir
- Page 120 and 121: 116 Chapitre 3. Variables aléatoir
- Page 122 and 123: 118 Chapitre 3. Variables aléatoir
- Page 124 and 125: 120 Chapitre 3. Variables aléatoir
- Page 126 and 127: 122 Chapitre 3. Variables aléatoir
- Page 128 and 129: 124 Chapitre 3. Variables aléatoir
- Page 130 and 131: 126 Chapitre 3. Variables aléatoir
- Page 132 and 133: 128 Chapitre 3. Variables aléatoir
- Page 134 and 135: 130 Chapitre 3. Variables aléatoir
- Page 136 and 137: 132 Chapitre 3. Variables aléatoir
- Page 138 and 139: 134 Chapitre 3. Variables aléatoir
- Page 140 and 141: 136 Chapitre 3. Variables aléatoir
- Page 142 and 143: 138 Chapitre 3. Variables aléatoir
- Page 144 and 145: 140 Chapitre 3. Variables aléatoir
- Page 146 and 147: 142 Chapitre 3. Variables aléatoir
- Page 148 and 149: 144 Chapitre 3. Variables aléatoir
- Page 150 and 151: ∈Ê 146 Chapitre 3. Variables al
- Page 152 and 153: 148 Chapitre 3. Variables aléatoir
- Page 154 and 155: 150 Chapitre 3. Variables aléatoir
- Page 156 and 157: 152 Chapitre 3. Variables aléatoir
2.7. Corrigés 105<br />
3. On a ainsi Cov(X,Y) = E[XY]−E[X]E[Y] = 0, donc X et Y sont décorrélées. Par contre<br />
on vérifie aisément que :<br />
È(X = 2,Y = 5) = 0 =È(X = 2)È(Y = 5) = 1 1<br />
×<br />
36 36 ,<br />
ce qui prouve que X et Y ne sont pas indépendantes. Cette non-indépendance était intuitivement<br />
clair : une fois connue X, la variable Y ne peut plus varier qu’entre 2−X et X −2,<br />
ce qui montre bien que la valeur prise par X a une incidence sur la valeur prise par Y (et<br />
vice versa).<br />
Exercice 2.15 (Deux dés : min et max)<br />
1. La variable X est à valeurs dans {1,...,6} et en notant pi =È(X = i), quelques calculs<br />
donnent<br />
[p1,p2,p3,p4,p5,p6] = 1<br />
36 [11,9,7,5,3,1].<br />
Il s’ensuit pour l’espérance : E[X] = 91/36 ≈ 2,5.<br />
2. Puisque X +Y = U1 +U2, il vient par linéarité de l’e :<br />
E[Y] = E[U1]+E[U2]−E[X] = 161<br />
36<br />
3. De même XY = U1U2, avec U1 et U2 indépendantes, donc :<br />
≈ 4,5.<br />
E[XY] = E[U1U2] = E[U1]E[U2] = 49<br />
4 .<br />
Ceci donne pour la covariance : Cov(X,Y) = E[XY]−E[X]E[Y] = 1225<br />
1296 ≈ 0.94.<br />
Exercice 2.16 (Memento (absence de mémoire))<br />
1. On a :<br />
+∞<br />
+∞<br />
È(X > n) = = k) = p(1−p)<br />
k=n+1È(X<br />
k=n+1<br />
k−1 = p<br />
où l’on reconnaît une somme géométrique, donc :<br />
È(X > n) = p (1−p)n<br />
1−(1−p) = (1−p)n .<br />
On en déduit la fonction de répartition au point n :<br />
+∞<br />
k=n+1<br />
F(n) =È(X ≤ n) = 1−È(X > n) = 1−(1−p) n .<br />
2. Par définition de la probabilité conditionnelle, on a alors ∀(m,n) ∈Æ×Æ:<br />
È(X > n+m|X > m) =È({X > n+m}∩{X > m})<br />
È(X > m)<br />
(1−p) k−1 ,<br />
> n+m)<br />
=È(X<br />
,<br />
È(X > m)<br />
puisque l’événement {X > n + m} implique l’événement {X > m}. Grâce à la question<br />
précédente, on a donc :<br />
È(X > n+m|X > m) = (1−p)n+m<br />
(1−p) m = (1−p)n =È(X > n).<br />
<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2