26.06.2013 Views

Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

2.3. Moments d’une variable discrète 67<br />

Il existe une autre formulation de la variance, qui permet éventuellement d’alléger les calculs : elle<br />

est connue sous le nom de formule de König, ou de Huygens-König, par analogie avec la formule<br />

de l’énergie cinétique d’un système en mécanique. C’est le premier point des propriétés suivantes.<br />

Propriétés 2.3 (Propriétés de la variance)<br />

Soit X une variable aléatoire discrète, alors sous réserve d’existence de sa variance on a :<br />

(i) Var(X) = E[X 2 ]−E[X] 2 .<br />

(ii) Si a et b sont deux réels, Var(aX +b) = a 2 Var(X).<br />

(iii) Var(X) = 0 si et seulement si X est constante.<br />

Preuve.<br />

(i) Il suffit d’utiliser la linéarité de l’espérance :<br />

Var(X) = E[(X −E[X]) 2 ] = E[X 2 −2E[X]X +E[X] 2 ] = E[X 2 ]−2E[E[X]X]+E[E[X] 2 ],<br />

or E[X] est une quantité déterministe (i.e. non aléatoire) donc il suffit d’appliquer les propriétés<br />

vues en Proposition 2.1 :<br />

Var(X) = E[X 2 ]−2E[X]E[X]+E[X] 2 = E[X 2 ]−E[X] 2 .<br />

(ii) On applique à nouveau la linéarité de l’espérance :<br />

Var(aX +b) = E[(aX +b−E[aX +b]) 2 ] = E[(aX +b−(aE[X]+b)) 2 ] = E[(aX −aE[X]) 2 ],<br />

d’où :<br />

Var(aX +b) = E[(a(X −E[X])) 2 ] = E[a 2 (X −E[X]) 2 ] = a 2 E[(X −E[X]) 2 ] = a 2 Var(X).<br />

(iii) On rappelle que la variable discrète X prend les valeurs xi avec les probabilités strictement<br />

positives pi. Supposons X de variance nulle :<br />

<br />

i∈I<br />

(xi −E[X]) 2 pi = 0,<br />

ainsi on a une série de termes positifs dont la somme est nulle, ce qui n’est possible que si tous<br />

les termes sont nuls, c’est-à-dire si :<br />

∀i ∈ I (xi −E[X]) 2 pi = 0 ⇔ xi = E[X],<br />

la dernière équivalence venant de ce que les pi sont tous supposés strictement positifs. Ainsi la<br />

seule valeur que prend X est sa moyenne, autrement dit cette variable aléatoire est constante<br />

(autant dire qu’elle n’a pas grand-chose d’aléatoire...). La réciproque est clairement vraie : si<br />

X(ω) = x0 pour tout ω ∈ Ω, alors on vérifie aisément que X admet une espérance et que celle-ci<br />

vaut bien sûr E[X] = x0, et par suite que la variance est nulle.<br />

<br />

Si on connaît E[X], il suffit d’après le point (i) de calculer E[X 2 ] pour obtenir la variance de X.<br />

Ceci peut parfois se faire simplement en remarquant que X 2 = X(X −1)+X, d’où il découle que<br />

E[X 2 ] = E[X(X −1)]+E[X]. Illustrons-le sur un exemple.<br />

Exemple : Loi de Poisson. Revenons sur l’exemple où X ∼ P(1), loi de Poisson de paramètre<br />

1. Nous avons montré que E[X] = 1, que vaut sa variance? Puisqu’on connaît E[X], on se contente<br />

de calculer E[X(X −1)], ce qui donne grâce au théorème de transfert :<br />

E[X(X −1)] =<br />

+∞<br />

n=0<br />

n(n−1) e−1<br />

n!<br />

= e−1<br />

+∞<br />

n=0<br />

n(n−1)<br />

n!<br />

= e −1<br />

+∞<br />

n=2<br />

n(n−1)<br />

,<br />

n!<br />

<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!