Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
2.3. Moments d’une variable discrète 67<br />
Il existe une autre formulation de la variance, qui permet éventuellement d’alléger les calculs : elle<br />
est connue sous le nom de formule de König, ou de Huygens-König, par analogie avec la formule<br />
de l’énergie cinétique d’un système en mécanique. C’est le premier point des propriétés suivantes.<br />
Propriétés 2.3 (Propriétés de la variance)<br />
Soit X une variable aléatoire discrète, alors sous réserve d’existence de sa variance on a :<br />
(i) Var(X) = E[X 2 ]−E[X] 2 .<br />
(ii) Si a et b sont deux réels, Var(aX +b) = a 2 Var(X).<br />
(iii) Var(X) = 0 si et seulement si X est constante.<br />
Preuve.<br />
(i) Il suffit d’utiliser la linéarité de l’espérance :<br />
Var(X) = E[(X −E[X]) 2 ] = E[X 2 −2E[X]X +E[X] 2 ] = E[X 2 ]−2E[E[X]X]+E[E[X] 2 ],<br />
or E[X] est une quantité déterministe (i.e. non aléatoire) donc il suffit d’appliquer les propriétés<br />
vues en Proposition 2.1 :<br />
Var(X) = E[X 2 ]−2E[X]E[X]+E[X] 2 = E[X 2 ]−E[X] 2 .<br />
(ii) On applique à nouveau la linéarité de l’espérance :<br />
Var(aX +b) = E[(aX +b−E[aX +b]) 2 ] = E[(aX +b−(aE[X]+b)) 2 ] = E[(aX −aE[X]) 2 ],<br />
d’où :<br />
Var(aX +b) = E[(a(X −E[X])) 2 ] = E[a 2 (X −E[X]) 2 ] = a 2 E[(X −E[X]) 2 ] = a 2 Var(X).<br />
(iii) On rappelle que la variable discrète X prend les valeurs xi avec les probabilités strictement<br />
positives pi. Supposons X de variance nulle :<br />
<br />
i∈I<br />
(xi −E[X]) 2 pi = 0,<br />
ainsi on a une série de termes positifs dont la somme est nulle, ce qui n’est possible que si tous<br />
les termes sont nuls, c’est-à-dire si :<br />
∀i ∈ I (xi −E[X]) 2 pi = 0 ⇔ xi = E[X],<br />
la dernière équivalence venant de ce que les pi sont tous supposés strictement positifs. Ainsi la<br />
seule valeur que prend X est sa moyenne, autrement dit cette variable aléatoire est constante<br />
(autant dire qu’elle n’a pas grand-chose d’aléatoire...). La réciproque est clairement vraie : si<br />
X(ω) = x0 pour tout ω ∈ Ω, alors on vérifie aisément que X admet une espérance et que celle-ci<br />
vaut bien sûr E[X] = x0, et par suite que la variance est nulle.<br />
<br />
Si on connaît E[X], il suffit d’après le point (i) de calculer E[X 2 ] pour obtenir la variance de X.<br />
Ceci peut parfois se faire simplement en remarquant que X 2 = X(X −1)+X, d’où il découle que<br />
E[X 2 ] = E[X(X −1)]+E[X]. Illustrons-le sur un exemple.<br />
Exemple : Loi de Poisson. Revenons sur l’exemple où X ∼ P(1), loi de Poisson de paramètre<br />
1. Nous avons montré que E[X] = 1, que vaut sa variance? Puisqu’on connaît E[X], on se contente<br />
de calculer E[X(X −1)], ce qui donne grâce au théorème de transfert :<br />
E[X(X −1)] =<br />
+∞<br />
n=0<br />
n(n−1) e−1<br />
n!<br />
= e−1<br />
+∞<br />
n=0<br />
n(n−1)<br />
n!<br />
= e −1<br />
+∞<br />
n=2<br />
n(n−1)<br />
,<br />
n!<br />
<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2