26.06.2013 Views

Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

2.5. Lois usuelles 73<br />

Concrètement, deux variables sont indépendantes si la valeur prise par l’une n’a aucune espèce<br />

d’influence sur la valeur prise par l’autre. La notion d’indépendance est omniprésente en probabilités.<br />

Un exemple parmi tant d’autres est celui du lancer simultané de deux dés : il est clair que<br />

le résultat X donné par l’un est indépendant du résultat Y donné par l’autre. Voyons maintenant<br />

en quoi la notion d’indépendance est plus forte que celle de décorrélation.<br />

Proposition 2.5 (Indépendance ⇒ Décorrélation)<br />

Soit X et Y variables aléatoires discrètes admettant des moments d’ordre 2. Si X et Y sont<br />

indépendantes, alors elles sont décorrélées. En particulier, on a alors :<br />

Var(X +Y) = Var(X)+Var(Y).<br />

Preuve. L’équivalent du théorème de transfert pour les couples de variables aléatoires permet<br />

d’écrire l’espérance de XY de la façon suivante :<br />

E[XY] = <br />

xiyjpij,<br />

(i,j)∈I×J<br />

où pij =È(X = xi,Y = yj) pour tout couple (i,j) ∈ I × J. En notant pi =È(X = xi) et<br />

qj =È(Y = yj), l’indépendance des deux variables donne alors pij = piqj et :<br />

E[XY] = <br />

<br />

<br />

xiyjpij =<br />

⎛ ⎝ <br />

⎞<br />

⎠,<br />

(i,j)∈I×J<br />

i∈I<br />

xipi<br />

autrement dit E[XY] = E[X]E[Y], ou encore Cov(X,Y) = 0.<br />

Remarque. La réciproque est fausse en général. Pour s’en assurer il suffit de reprendre l’exemple<br />

où X est uniforme sur {−1,0,+1} et Y = X2 . On a vu que Cov(X,Y) = 0, c’est-à-dire que X et<br />

Y sont décorrélées. Mais elles ne sont pas indépendantes, puisqu’il suffit par exemple de remarquer<br />

que :<br />

È(X = 0,Y = 0) =È(X = 0) = 1 1<br />

=<br />

3 9 =È(X = 0)È(Y = 0).<br />

Généralisation. L’indépendance entre variables aléatoires se généralise de façon naturelle à plus<br />

de deux variables : n variables X1,...,Xn sont (mutuellement) indépendantes si la valeur prise<br />

par l’une n’a aucune influence sur les valeurs prises par les autres :<br />

∀(x1,...,xn) ∈ X1 ×···×Xn È(X1 = x1,...,Xn = xn) =È(X1 = x1)...È(Xn = xn).<br />

La variance de la somme sera alors encore la somme des variances :<br />

tandis que dans le cas général on a :<br />

2.5 Lois usuelles<br />

j∈J<br />

yjqj<br />

Var(X1 +···+Xn) = Var(X1)+···+Var(Xn),<br />

Var(X1 +···+Xn) =<br />

n<br />

Var(Xi)+2 <br />

i=1<br />

1≤j

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!