Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2

sites.univ.rennes2.fr
from sites.univ.rennes2.fr More from this publisher
26.06.2013 Views

104 Chapitre 2. Variables aléatoires discrètes Exercice 2.12 (Espérance d’une loi de Poisson) 1. Le calcul détaillé vu en cours pour montrer que E[X] = 1 lorsque X ∼ P(1) se généralise au cas où X ∼ P(λ). 2. La moyenne de Y = e −X peut se calculer par le théorème de transfert : E[Y] = +∞ n=0 e −n e −λλn n! +∞ (λe = e−λ −1 ) n n=0 où l’on retrouve le développement en série de l’exponentielle : E[Y] = e −λ e λe−1 = e λ(e−1 −1) . 3. (a) La variable X est à valeurs dansÆ∗ . Pour que X = 1, il faut que le premier soit réussi, ce qui est certain, et que le second soit raté, ce qui arrive avec probabilité 1/2, donc p1 =È(X = 1) = 1/2 = 1/(1+1)!. De façon générale, pour que X = n, il faut que les n premiers sauts soient réussis, ce qui arrive avec probabilité 1×1/2×···×1/n, et que le (n+1)-ème soit un échec, ce qui arrive avec probabilité 1−rn+1 = n/(n+1). Ainsi : pn =È(X = n) = 1× 1 1 n ×···× × 2 n n+1 = n=1 n=1 n! , n (n+1)! . On vérifie (pour la forme) que c’est bien une loi de probabilité grâce à l’astuce n = (n+1)−1 : +∞ +∞ 1 pn = n! − 1 = 1, (n+1)! puisque les termes se télescopent. (b) Le théorème de transfert donne : E[X +1] = +∞ n=1 n (n+1) (n+1)! = Par suite E[X]+1 = e, donc E[X] = e−1. +∞ n=1 1 = e. (n−1)! Exercice 2.13 (Espérance d’une loi arithmétique) 1. Pour que X soit effectivement une variable aléatoire, il faut que les pk somment à 1, or : 1 = n pk = α k=0 2. Avec en tête la relation n n k=0 k = α n(n+1) 2 k=0k2 = n(n+1)(2n+1) 6 E[X] = n kpk = k=0 2 n(n+1) =⇒ α = 2 n(n+1) . , on peut y aller à fond de cinquième : n k=0 k 2 = 2n+1 . 3 Exercice 2.14 (Deux dés : somme et différence) 1. U1 suit une loi uniforme sur {1,...,6}, son espérance vaut 7/2 et sa variance 35/12. 2. On appelle X = (U1 +U2) la somme et Y = (U1 −U2) la différence des deux résultats. U2 a la même loi que U1 donc : E[X] = E[U1]+E[U2] = 7 et E[Y] = E[U1]−E[U2] = 0. Pour le produit, il suffit d’écrire : E[XY] = E[(U1 +U2)(U1 −U2)] = E[U 2 1 ]−E[U2 2 ] = 0, toujours en raison du fait que U1 et U2 ont même loi. Arnaud Guyader - Rennes 2 Probabilités

2.7. Corrigés 105 3. On a ainsi Cov(X,Y) = E[XY]−E[X]E[Y] = 0, donc X et Y sont décorrélées. Par contre on vérifie aisément que : È(X = 2,Y = 5) = 0 =È(X = 2)È(Y = 5) = 1 1 × 36 36 , ce qui prouve que X et Y ne sont pas indépendantes. Cette non-indépendance était intuitivement clair : une fois connue X, la variable Y ne peut plus varier qu’entre 2−X et X −2, ce qui montre bien que la valeur prise par X a une incidence sur la valeur prise par Y (et vice versa). Exercice 2.15 (Deux dés : min et max) 1. La variable X est à valeurs dans {1,...,6} et en notant pi =È(X = i), quelques calculs donnent [p1,p2,p3,p4,p5,p6] = 1 36 [11,9,7,5,3,1]. Il s’ensuit pour l’espérance : E[X] = 91/36 ≈ 2,5. 2. Puisque X +Y = U1 +U2, il vient par linéarité de l’e : E[Y] = E[U1]+E[U2]−E[X] = 161 36 3. De même XY = U1U2, avec U1 et U2 indépendantes, donc : ≈ 4,5. E[XY] = E[U1U2] = E[U1]E[U2] = 49 4 . Ceci donne pour la covariance : Cov(X,Y) = E[XY]−E[X]E[Y] = 1225 1296 ≈ 0.94. Exercice 2.16 (Memento (absence de mémoire)) 1. On a : +∞ +∞ È(X > n) = = k) = p(1−p) k=n+1È(X k=n+1 k−1 = p où l’on reconnaît une somme géométrique, donc : È(X > n) = p (1−p)n 1−(1−p) = (1−p)n . On en déduit la fonction de répartition au point n : +∞ k=n+1 F(n) =È(X ≤ n) = 1−È(X > n) = 1−(1−p) n . 2. Par définition de la probabilité conditionnelle, on a alors ∀(m,n) ∈Æ×Æ: È(X > n+m|X > m) =È({X > n+m}∩{X > m}) È(X > m) (1−p) k−1 , > n+m) =È(X , È(X > m) puisque l’événement {X > n + m} implique l’événement {X > m}. Grâce à la question précédente, on a donc : È(X > n+m|X > m) = (1−p)n+m (1−p) m = (1−p)n =È(X > n). Probabilités Arnaud Guyader - Rennes 2

2.7. Corrigés 105<br />

3. On a ainsi Cov(X,Y) = E[XY]−E[X]E[Y] = 0, donc X et Y sont décorrélées. Par contre<br />

on vérifie aisément que :<br />

È(X = 2,Y = 5) = 0 =È(X = 2)È(Y = 5) = 1 1<br />

×<br />

36 36 ,<br />

ce qui prouve que X et Y ne sont pas indépendantes. Cette non-indépendance était intuitivement<br />

clair : une fois connue X, la variable Y ne peut plus varier qu’entre 2−X et X −2,<br />

ce qui montre bien que la valeur prise par X a une incidence sur la valeur prise par Y (et<br />

vice versa).<br />

Exercice 2.15 (Deux dés : min et max)<br />

1. La variable X est à valeurs dans {1,...,6} et en notant pi =È(X = i), quelques calculs<br />

donnent<br />

[p1,p2,p3,p4,p5,p6] = 1<br />

36 [11,9,7,5,3,1].<br />

Il s’ensuit pour l’espérance : E[X] = 91/36 ≈ 2,5.<br />

2. Puisque X +Y = U1 +U2, il vient par linéarité de l’e :<br />

E[Y] = E[U1]+E[U2]−E[X] = 161<br />

36<br />

3. De même XY = U1U2, avec U1 et U2 indépendantes, donc :<br />

≈ 4,5.<br />

E[XY] = E[U1U2] = E[U1]E[U2] = 49<br />

4 .<br />

Ceci donne pour la covariance : Cov(X,Y) = E[XY]−E[X]E[Y] = 1225<br />

1296 ≈ 0.94.<br />

Exercice 2.16 (Memento (absence de mémoire))<br />

1. On a :<br />

+∞<br />

+∞<br />

È(X > n) = = k) = p(1−p)<br />

k=n+1È(X<br />

k=n+1<br />

k−1 = p<br />

où l’on reconnaît une somme géométrique, donc :<br />

È(X > n) = p (1−p)n<br />

1−(1−p) = (1−p)n .<br />

On en déduit la fonction de répartition au point n :<br />

+∞<br />

k=n+1<br />

F(n) =È(X ≤ n) = 1−È(X > n) = 1−(1−p) n .<br />

2. Par définition de la probabilité conditionnelle, on a alors ∀(m,n) ∈Æ×Æ:<br />

È(X > n+m|X > m) =È({X > n+m}∩{X > m})<br />

È(X > m)<br />

(1−p) k−1 ,<br />

> n+m)<br />

=È(X<br />

,<br />

È(X > m)<br />

puisque l’événement {X > n + m} implique l’événement {X > m}. Grâce à la question<br />

précédente, on a donc :<br />

È(X > n+m|X > m) = (1−p)n+m<br />

(1−p) m = (1−p)n =È(X > n).<br />

<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!