Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2
158 Chapitre 3. Variables aléatoires à densité Puisqu’on a affaire à une union d’événements deux à deux disjoints, la sigma-additivité s’applique : +∞ +∞ È(Z ≤ z) = ≤ X ≤ n) = (F(n)−F(n−z)), n=1È(n−z n=1 oùF est comme précédemment la fonction de répartition d’une loi exponentielle de paramètre 1 : +∞ 1−e È(Z −n ≤ z) = − 1−e −(n−z) +∞ = (e z −1)e −n , n=1 et on reconnaît une série géométrique de raison 1/e : È(Z ≤ z) = (e z +∞ −1) n=1 e −n = (e z −1) n=1 e −1 1−e −1 = ez −1 e−1 . On a ainsi déterminé la fonction de répartition de la variable aléatoire Z. 3. Sa densité s’en déduit par dérivation : f(z) = ez e−1 [0,1](z). 4. Pour trouver E[Z], inutile de passer par la densité, il suffit d’utiliser les moyennes des lois géométrique et exponentielle : E[Z] = E[Y −X] = E[Y]−E[X] = e 1 e−1 −1 = e−1 ≈ 0.58. Exercice 3.17 (Moments d’une loi normale) 1. I0 = √ 2π puisqu’on reconnaît la densité d’une loi normale centrée réduite. Pour I1, on a : +∞ I1 = −∞ 2. Pour tout n ∈Æ, on peut écrire : +∞ In+2 = −∞ xe −x2 2 dx = −e −x2 +∞ 2 = 0. −∞ x n+2 e −x2 2 dx = et on effectue une intégration par parties : In+2 = −x n+1 e −x2 +∞ 2 + −∞ +∞ −∞ +∞ −∞ (x n+1 )(xe −x2 2 )dx, (n+1)x n e −x2 2 dx = (n+1)In, la dernière égalité venant du fait que l’exponentielle l’emporte sur la puissance : lim x→+∞ xn+1e −x2 2 = lim x→−∞ xn+1e −x2 2 = 0. 3. Puisque I1 = 0, on en déduit que I3 = 0, puis que I5 = 0, et de proche en proche il est clair que I2n+1 = 0 pour tout n ∈Æ. Ce résultat était d’ailleurs clair sans calculs puisqu’on intègre une fonction impaire sur un domaine symétrique par rapport à 0. 4. Pour les indices pairs, on a I2 = 1×I0 = √ 2π, puis I4 = 3×I2 = 3×1×I0 = 3 √ 2π, et de proche en proche : I2n = (2n−1)×(2n−3)×···×3×1×I0 = (2n)! 2n √ 2π. n! Arnaud Guyader - Rennes 2 Probabilités
3.6. Corrigés 159 5. Pour déterminer E[X4 ], il y a deux méthodes équivalentes. – Méthode analytique : on écrit l’espérance sous forme d’intégrale : E[X 4 ] = +∞ −∞ x 4 √ 2π e −(x−1)2 2 dx, et on effectue le changement de variable u = x−1, ce qui donne : E[X 4 ] = +∞ −∞ (u+1) 4 √ 2π e −u2 2 du. On utilise la formule du binôme : (u+1) 4 = u 4 +4u 3 +6u 2 +4u+1, et on peut alors tout exprimer en fonction des In : E[X 4 ] = 1 √ 2π (I4 +4I3 +6I2 +4I1 +I0) = 10. – Méthode probabiliste : l’idée est la même, puisqu’on sait que si X ∼ N(1,1), alors Y = X−1 ∼ N(0,1). Donc, par les calculs faits avant, on sait que E[Y] = E[Y 3 ] = 0, E[Y 2 ] = 1 et E[Y 4 ] = 3. Or on a : E[X 4 ] = E[(Y +1) 4 ] = E[Y 4 ] +4E[Y 3 ] +6E[Y 2 ]+4E[Y] +1 = 3+6+1 = 10. Exercice 3.18 (Vitesse d’une molécule) Afin de se ramener à la loi normale, posons σ 2 = (kT)/m, de sorte que la densité en question s’écrit f(x) = ax 2 x2 − e 2σ2 et par un argument de parité évident, il vient +∞ 0 f(x)dx = +∞ 0 ax 2 x2 − e 2σ2dx = 1 2 +∞ −∞ {x≥0}, ax 2 x2 − e 2σ2dx = a√2πσ2 2 +∞ −∞ x 2 e− x2 2σ 2 √ 2πσ 2 dx, écriture qui fait apparaître le moment d’ordre 2 d’une variable X suivant une loi normale centrée et d’écart-type σ, lequel ne pose pas problème puisqu’il est égal à sa variance : Ainsi, puisque f est une densité : 1 = +∞ 0 σ 2 = Var(X) = E[X 2 ] = f(x)dx = a√ 2πσ 2 2 +∞ −∞ ×σ 2 ⇔ a = x 2 e− x2 2σ 2 √ 2πσ 2 dx. 2 π σ−3 2 3 m 2 = . π kT Exercice 3.19 (Loi log-normale) 1. Puisque X = e Y , on commence par remarquer que X ne prend que des valeurs positives, si bien que si l’on convient de noter F la fonction de répartition de X, il s’ensuit que F(x) = 0 pour tout x ≤ 0. Prenons maintenant x > 0, alors : F(x) =È(X ≤ x) =È(e Y ≤ x) =È(Y ≤ lnx) = Φ(lnx), où Φ désigne comme d’habitude la fonction de répartition de la loi normale centrée réduite. 2. La densité f de la variable X s’obtient alors en dérivant cette fonction de répartition et en utilisant le fait que Φ ′ correspond à la densité de la gaussienne standard. Pour tout x > 0 : f(x) = F ′ (x) = 1 x Φ′ (lnx) = 1 x √ 2π e−ln2 x 2 et bien entendu f(x) = 0 pour tout x ≤ 0. Cette densité est représentée figure 3.17. Probabilités Arnaud Guyader - Rennes 2
- Page 112 and 113: 108 Chapitre 2. Variables aléatoir
- Page 114 and 115: 110 Chapitre 2. Variables aléatoir
- Page 116 and 117: 112 Chapitre 2. Variables aléatoir
- Page 118 and 119: 114 Chapitre 2. Variables aléatoir
- Page 120 and 121: 116 Chapitre 3. Variables aléatoir
- Page 122 and 123: 118 Chapitre 3. Variables aléatoir
- Page 124 and 125: 120 Chapitre 3. Variables aléatoir
- Page 126 and 127: 122 Chapitre 3. Variables aléatoir
- Page 128 and 129: 124 Chapitre 3. Variables aléatoir
- Page 130 and 131: 126 Chapitre 3. Variables aléatoir
- Page 132 and 133: 128 Chapitre 3. Variables aléatoir
- Page 134 and 135: 130 Chapitre 3. Variables aléatoir
- Page 136 and 137: 132 Chapitre 3. Variables aléatoir
- Page 138 and 139: 134 Chapitre 3. Variables aléatoir
- Page 140 and 141: 136 Chapitre 3. Variables aléatoir
- Page 142 and 143: 138 Chapitre 3. Variables aléatoir
- Page 144 and 145: 140 Chapitre 3. Variables aléatoir
- Page 146 and 147: 142 Chapitre 3. Variables aléatoir
- Page 148 and 149: 144 Chapitre 3. Variables aléatoir
- Page 150 and 151: ∈Ê 146 Chapitre 3. Variables al
- Page 152 and 153: 148 Chapitre 3. Variables aléatoir
- Page 154 and 155: 150 Chapitre 3. Variables aléatoir
- Page 156 and 157: 152 Chapitre 3. Variables aléatoir
- Page 158 and 159: 154 Chapitre 3. Variables aléatoir
- Page 160 and 161: 156 Chapitre 3. Variables aléatoir
- Page 164 and 165: 160 Chapitre 3. Variables aléatoir
- Page 166 and 167: 162 Chapitre 3. Variables aléatoir
- Page 168 and 169: 164 Chapitre 3. Variables aléatoir
- Page 170 and 171: 166 Chapitre 3. Variables aléatoir
- Page 172 and 173: 168 Chapitre 3. Variables aléatoir
- Page 174 and 175: 170 Chapitre 3. Variables aléatoir
- Page 176 and 177: 172 Chapitre 3. Variables aléatoir
- Page 178 and 179: 174 Chapitre 3. Variables aléatoir
- Page 181 and 182: Annexe A Annexes A.1 Annales Univer
- Page 183 and 184: A.1. Annales 179 Université de Ren
- Page 185 and 186: A.1. Annales 181 Université de Ren
- Page 187 and 188: A.1. Annales 183 3. Montrer que E[X
- Page 189 and 190: A.1. Annales 185 4. Par définition
- Page 191 and 192: A.1. Annales 187 4. Soit Y la varia
- Page 193 and 194: A.1. Annales 189 0.50 0.45 0.40 0.3
- Page 195 and 196: A.1. Annales 191 4. (Bonus) La prob
- Page 197 and 198: A.1. Annales 193 III. Pièces défe
- Page 199 and 200: A.1. Annales 195 Tandis que dans le
- Page 201 and 202: A.1. Annales 197 IV. Jeu d’argent
- Page 203 and 204: A.1. Annales 199 4. L’espérance
- Page 205 and 206: A.1. Annales 201 1. Dire que T est
- Page 207 and 208: A.1. Annales 203 Université Rennes
- Page 209 and 210: A.1. Annales 205 Université Rennes
- Page 211 and 212: A.1. Annales 207 Ainsi, le taux de
3.6. Corrigés 159<br />
5. Pour déterminer E[X4 ], il y a deux méthodes équivalentes.<br />
– Méthode analytique : on écrit l’espérance sous forme d’intégrale :<br />
E[X 4 ] =<br />
+∞<br />
−∞<br />
x 4<br />
√ 2π e −(x−1)2<br />
2 dx,<br />
et on effectue le changement de variable u = x−1, ce qui donne :<br />
E[X 4 ] =<br />
+∞<br />
−∞<br />
(u+1) 4<br />
√ 2π e −u2<br />
2 du.<br />
On utilise la formule du binôme : (u+1) 4 = u 4 +4u 3 +6u 2 +4u+1, et on peut alors tout<br />
exprimer en fonction des In :<br />
E[X 4 ] = 1<br />
√ 2π (I4 +4I3 +6I2 +4I1 +I0) = 10.<br />
– Méthode probabiliste : l’idée est la même, puisqu’on sait que si X ∼ N(1,1), alors Y =<br />
X−1 ∼ N(0,1). Donc, par les calculs faits avant, on sait que E[Y] = E[Y 3 ] = 0, E[Y 2 ] = 1<br />
et E[Y 4 ] = 3. Or on a : E[X 4 ] = E[(Y +1) 4 ] = E[Y 4 ] +4E[Y 3 ] +6E[Y 2 ]+4E[Y] +1 =<br />
3+6+1 = 10.<br />
Exercice 3.18 (Vitesse d’une molécule)<br />
Afin de se ramener à la loi normale, posons σ 2 = (kT)/m, de sorte que la densité en question<br />
s’écrit<br />
f(x) = ax 2 x2<br />
−<br />
e 2σ2 et par un argument de parité évident, il vient<br />
+∞<br />
0<br />
f(x)dx =<br />
+∞<br />
0<br />
ax 2 x2<br />
−<br />
e 2σ2dx = 1<br />
2<br />
+∞<br />
−∞<br />
{x≥0},<br />
ax 2 x2<br />
−<br />
e 2σ2dx = a√2πσ2 2<br />
+∞<br />
−∞<br />
x<br />
2 e− x2<br />
2σ 2<br />
√ 2πσ 2 dx,<br />
écriture qui fait apparaître le moment d’ordre 2 d’une variable X suivant une loi normale centrée<br />
et d’écart-type σ, lequel ne pose pas problème puisqu’il est égal à sa variance :<br />
Ainsi, puisque f est une densité :<br />
1 =<br />
+∞<br />
0<br />
σ 2 = Var(X) = E[X 2 ] =<br />
f(x)dx = a√ 2πσ 2<br />
2<br />
+∞<br />
−∞<br />
×σ 2 ⇔ a =<br />
x<br />
2 e− x2<br />
2σ 2<br />
√ 2πσ 2 dx.<br />
<br />
2<br />
π σ−3 <br />
2<br />
3<br />
m 2<br />
= .<br />
π kT<br />
Exercice 3.19 (Loi log-normale)<br />
1. Puisque X = e Y , on commence par remarquer que X ne prend que des valeurs positives, si<br />
bien que si l’on convient de noter F la fonction de répartition de X, il s’ensuit que F(x) = 0<br />
pour tout x ≤ 0. Prenons maintenant x > 0, alors :<br />
F(x) =È(X ≤ x) =È(e Y ≤ x) =È(Y ≤ lnx) = Φ(lnx),<br />
où Φ désigne comme d’habitude la fonction de répartition de la loi normale centrée réduite.<br />
2. La densité f de la variable X s’obtient alors en dérivant cette fonction de répartition et en<br />
utilisant le fait que Φ ′ correspond à la densité de la gaussienne standard. Pour tout x > 0 :<br />
f(x) = F ′ (x) = 1<br />
x Φ′ (lnx) = 1<br />
x √ 2π e−ln2 x<br />
2<br />
et bien entendu f(x) = 0 pour tout x ≤ 0. Cette densité est représentée figure 3.17.<br />
<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2