Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2
186 Annexe A. Annexes 4. Pour x = 1, la somme des termes d’une suite géométrique de raison x donne : Par dérivation de cette formule, on obtient : 5. La moyenne de X s’écrit : P(x) = 1−xn+1 1−x . P ′ (x) = nxn+1 −(n+1)x n +1 (1−x) 2 . E[X] = 1×p+2×pq +···+10×pq 9 +11×q 10 = p 1+2q +···+10q 9 +11q 10 , où l’on reconnaît la fonction P ′ lorsque n = 10 : E[X] = p×P ′ (q)+11q 10 . Il reste à appliquer la formule obtenue précédemment pour P ′ (x), à tout mettre au même dénominateur et à simplifier pour obtenir : E[X] = 1−(1−p)11 . p 6. S’il y a une “infinité” de candidats, alors Y suit une loi géométrique G(p). Son espérance vaut dans ce cas : E[Y] = 1/p. On voit qu’elle est supérieure à E[X], mais de très peu, puisque pour p = 1/2 on a E[Y] = 2 et : E[X] = 1−1− 1 2 IV. Autour de la loi normale On considère une variable aléatoire X de loi normale N(0,1). 1 2 11 ≈ 1,999. 1. Soit n ∈Æfixé, alors par le théorème de transfert le moment d’ordre (n+2) de X s’écrit : E[X n+2 ] = 1 √ 2π +∞ −∞ que l’on peut intégrer par parties : E[X n+2 ] = 1 √ 2π x n+2 e −x2 2 dx = 1 √ 2π −x n+1 e −x2 2 +∞ −∞ + 1 √ 2π +∞ −∞ +∞ −∞ x n+1 xe −x2 2 dx, (n+1)x n e −x2 2 dx, et puisque la quantité entre crochets est nulle, ceci donne bien : E[X n+2 ] = (n+1)E[X n ]. 2. Il en découle par exemple que : Il vient alors : 3. On obtient de même : E[X 2 ] = 1×E[X 0 ] = E[1] = 1. E[X 4 ] = 3E[X 2 ] = 3. E[X 3 ] = 2E[X] = 0, puisque par hypothèse la variable X est centrée. De façon générale, il est clair que tous les moments d’ordres impairs d’une loi normale centrée sont nuls. Arnaud Guyader - Rennes 2 Probabilités
A.1. Annales 187 4. Soit Y la variable aléatoire définie par Y = 2X +1. (a) Par stabilité de la loi normale par transformation affine, Y suit elle aussi une loi normale et plus précisément : Y ∼ N(1,4). (b) Pour déterminer le moment d’ordre 4 de Y , on utilise la formule du binôme : d’où par linéarité de l’espérance : Y 4 = (2X +1) 4 = 1+8X +24X 2 +32X 3 +16X 4 , E[Y 4 ] = 1+8E[X]+24E[X 2 ]+32E[X 3 ]+16E[X 4 ] = 73. 5. A l’aide de la table et en notant comme d’habitude Φ la fonction de répartition de la loi normale centrée réduite, on a : È(|X| ≥ 2) =È(X ≤ −2)+È(X ≥ 2) = Φ(−2)+(1−Φ(2)) = 2(1−Φ(2)) ≈ 0,0456. L’inégalité de Tchebychev donne dans ce cas : È(|X| ≥ 2) =È(|X −E[X]| ≥ 2) ≤ Var(X) 2 2 = 1 4 . On voit donc que cette majoration d’une quantité d’environ 5% par 25% est très grossière. Mais n’oublions pas que l’inégalité de Tchebychev est universelle, en ce sens qu’elle s’applique à toute variable aléatoire admettant une variance. Elle ne peut donc être précise dans toutes les situations. 6. On considère maintenant que X suit une loi normale de moyenne 7 et d’écart-type 4. (a) Pour pouvoir utiliser la table, l’idée est de centrer et réduire X : Sur le même principe : È(X ≤ 8) =È X −7 4 8−7 ≤ = Φ(0,25) ≈ 0,5987. 4 È(5 ≤ X ≤ 9) =È − 1 X −7 1 ≤ ≤ = Φ(0,5)−Φ(−0,5) = 2Φ(0,5) −1 ≈ 0,383. 2 4 2 (b) Pour déterminer q, il suffit d’écrire : È(X > q) = 0,9 ⇔È X −7 4 q −7 > = 0,9 4 qui vaut encore :È X −7 7−q 7−q ≤ = 0,9 ⇔ Φ = 0,9. 4 4 4 La lecture de la table permet d’en déduire que : 7−q 4 ≈ 1,29 ⇔ q ≈ 1,88. Probabilités Arnaud Guyader - Rennes 2
- Page 140 and 141: 136 Chapitre 3. Variables aléatoir
- Page 142 and 143: 138 Chapitre 3. Variables aléatoir
- Page 144 and 145: 140 Chapitre 3. Variables aléatoir
- Page 146 and 147: 142 Chapitre 3. Variables aléatoir
- Page 148 and 149: 144 Chapitre 3. Variables aléatoir
- Page 150 and 151: ∈Ê 146 Chapitre 3. Variables al
- Page 152 and 153: 148 Chapitre 3. Variables aléatoir
- Page 154 and 155: 150 Chapitre 3. Variables aléatoir
- Page 156 and 157: 152 Chapitre 3. Variables aléatoir
- Page 158 and 159: 154 Chapitre 3. Variables aléatoir
- Page 160 and 161: 156 Chapitre 3. Variables aléatoir
- Page 162 and 163: 158 Chapitre 3. Variables aléatoir
- Page 164 and 165: 160 Chapitre 3. Variables aléatoir
- Page 166 and 167: 162 Chapitre 3. Variables aléatoir
- Page 168 and 169: 164 Chapitre 3. Variables aléatoir
- Page 170 and 171: 166 Chapitre 3. Variables aléatoir
- Page 172 and 173: 168 Chapitre 3. Variables aléatoir
- Page 174 and 175: 170 Chapitre 3. Variables aléatoir
- Page 176 and 177: 172 Chapitre 3. Variables aléatoir
- Page 178 and 179: 174 Chapitre 3. Variables aléatoir
- Page 181 and 182: Annexe A Annexes A.1 Annales Univer
- Page 183 and 184: A.1. Annales 179 Université de Ren
- Page 185 and 186: A.1. Annales 181 Université de Ren
- Page 187 and 188: A.1. Annales 183 3. Montrer que E[X
- Page 189: A.1. Annales 185 4. Par définition
- Page 193 and 194: A.1. Annales 189 0.50 0.45 0.40 0.3
- Page 195 and 196: A.1. Annales 191 4. (Bonus) La prob
- Page 197 and 198: A.1. Annales 193 III. Pièces défe
- Page 199 and 200: A.1. Annales 195 Tandis que dans le
- Page 201 and 202: A.1. Annales 197 IV. Jeu d’argent
- Page 203 and 204: A.1. Annales 199 4. L’espérance
- Page 205 and 206: A.1. Annales 201 1. Dire que T est
- Page 207 and 208: A.1. Annales 203 Université Rennes
- Page 209 and 210: A.1. Annales 205 Université Rennes
- Page 211 and 212: A.1. Annales 207 Ainsi, le taux de
- Page 213 and 214: A.1. Annales 209 Université Rennes
- Page 215 and 216: A.1. Annales 211 4. Soit X1 et X2 d
- Page 217 and 218: A.1. Annales 213 Figure A.5 - Densi
- Page 219 and 220: A.1. Annales 215 3. Pour la varianc
- Page 221 and 222: A.1. Annales 217 à la suite de quo
- Page 223: Bibliographie [1] Nicolas Bouleau.
186 Annexe A. Annexes<br />
4. Pour x = 1, la somme des termes d’une suite géométrique de raison x donne :<br />
Par dérivation de cette formule, on obtient :<br />
5. La moyenne de X s’écrit :<br />
P(x) = 1−xn+1<br />
1−x .<br />
P ′ (x) = nxn+1 −(n+1)x n +1<br />
(1−x) 2<br />
.<br />
E[X] = 1×p+2×pq +···+10×pq 9 +11×q 10 = p 1+2q +···+10q 9 +11q 10 ,<br />
où l’on reconnaît la fonction P ′ lorsque n = 10 :<br />
E[X] = p×P ′ (q)+11q 10 .<br />
Il reste à appliquer la formule obtenue précédemment pour P ′ (x), à tout mettre au même<br />
dénominateur et à simplifier pour obtenir :<br />
E[X] = 1−(1−p)11<br />
.<br />
p<br />
6. S’il y a une “infinité” de candidats, alors Y suit une loi géométrique G(p). Son espérance vaut<br />
dans ce cas : E[Y] = 1/p. On voit qu’elle est supérieure à E[X], mais de très peu, puisque<br />
pour p = 1/2 on a E[Y] = 2 et :<br />
E[X] = 1−1− 1<br />
2<br />
IV. Autour de la loi normale<br />
On considère une variable aléatoire X de loi normale N(0,1).<br />
1<br />
2<br />
11<br />
≈ 1,999.<br />
1. Soit n ∈Æfixé, alors par le théorème de transfert le moment d’ordre (n+2) de X s’écrit :<br />
E[X n+2 ] = 1<br />
√ 2π<br />
+∞<br />
−∞<br />
que l’on peut intégrer par parties :<br />
E[X n+2 ] = 1<br />
√ 2π<br />
x n+2 e −x2<br />
2 dx = 1<br />
√ 2π<br />
<br />
−x n+1 e −x2<br />
2<br />
+∞<br />
−∞<br />
+ 1<br />
√ 2π<br />
+∞<br />
−∞<br />
+∞<br />
−∞<br />
x n+1<br />
<br />
xe −x2<br />
2<br />
<br />
dx,<br />
(n+1)x n e −x2<br />
2 dx,<br />
et puisque la quantité entre crochets est nulle, ceci donne bien : E[X n+2 ] = (n+1)E[X n ].<br />
2. Il en découle par exemple que :<br />
Il vient alors :<br />
3. On obtient de même :<br />
E[X 2 ] = 1×E[X 0 ] = E[1] = 1.<br />
E[X 4 ] = 3E[X 2 ] = 3.<br />
E[X 3 ] = 2E[X] = 0,<br />
puisque par hypothèse la variable X est centrée. De façon générale, il est clair que tous les<br />
moments d’ordres impairs d’une loi normale centrée sont nuls.<br />
Arnaud Guyader - <strong>Rennes</strong> 2 <strong>Probabilités</strong>