Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
2.3. Moments d’une variable discrète 63<br />
Figure 2.3 – Illustration de la non-commutativité de la série harmonique alternée. A gauche :<br />
ln2 ≈ 1.04.<br />
1− 1<br />
2<br />
+ 1<br />
3<br />
− 1<br />
4<br />
+ 1<br />
5<br />
− 1<br />
6<br />
+··· = ln2 ≈ 0.69. A droite : 1+ 1<br />
3<br />
− 1<br />
2<br />
+ 1<br />
5<br />
+ 1<br />
7<br />
− 1<br />
4<br />
+··· = 3<br />
2<br />
Considérons alors une variable Y à valeurs dans Y = {2,4,−3,6,8,−5,...} et dont la loi est donnée<br />
parÈ(Y = (−1) n+1 (n+1)) = 1/(n(n +1)). Ainsi Y prend les mêmes valeurs que X et avec les<br />
mêmes probabilités : si l’espérance de X était définie, on s’attendrait donc logiquement à ce qu’il<br />
en aille de même pour Y , avec la même valeur moyenne, c’est-à-dire ln2. Or on peut montrer que<br />
le fait de modifier l’ordre de sommation change tout (cf. figure 2.3 à droite) :<br />
2p2 +4p4 −3p3 +6p6 +··· = 1+ 1 1 1 3<br />
− + +··· =<br />
3 2 5 2 ln2.<br />
Ce coup de théâtre est dû au fait qu’une série semi-convergente n’est pas commutative. Or, comme<br />
on vient de le voir, ce phénomène n’est pas du tout souhaitable si on veut définir proprement la<br />
valeur moyenne d’une variable aléatoire, c’est pourquoi on l’avait exclu d’emblée dans la définition<br />
de l’espérance.<br />
Revenons à des choses moins pathologiques. Etant donné une variable X dont on connaît la loi, il<br />
arrive souvent qu’on veuille calculer non pas l’espérance de X, mais l’espérance d’une fonction de<br />
X. Le résultat suivant donne une façon très simple de le faire.<br />
Théorème 2.1 (Théorème de transfert)<br />
Soit X une variable aléatoire discrète et ϕ :Ê→Êune fonction, alors Y = ϕ(X) est encore une<br />
variable aléatoire discrète et son espérance vaut :<br />
E[Y] = E[ϕ(X)] = <br />
ϕ(xi)pi,<br />
sous réserve d’absolue convergence de cette série.<br />
Preuve. Puisque X prend ses valeurs dans un ensemble au plus dénombrable X = (xi)i∈I, Y<br />
prend elle aussi ses valeurs dans un ensemble au plus dénombrable Y = (yj)j∈J = ϕ(X). Pour tout<br />
indice j de J, notons :<br />
Ej = {i ∈ I : ϕ(xi) = yj}<br />
et qj =È(Y = yj) = <br />
i∈Ej pi. Puisque les (yj)j∈J et les (qj)j∈J définissent la loi de Y , son<br />
espérance vaut tout bonnement :<br />
E[Y] = <br />
yjqj = <br />
⎛<br />
yj ⎝ <br />
⎞<br />
pi⎠<br />
= <br />
⎛<br />
⎝ <br />
⎞<br />
ϕ(xi)pi⎠,<br />
j∈J<br />
j∈J<br />
i∈Ej<br />
<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2<br />
i∈I<br />
j∈J<br />
i∈Ej