Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
2.5. Lois usuelles 73<br />
Concrètement, deux variables sont indépendantes si la valeur prise par l’une n’a aucune espèce<br />
d’influence sur la valeur prise par l’autre. La notion d’indépendance est omniprésente en probabilités.<br />
Un exemple parmi tant d’autres est celui du lancer simultané de deux dés : il est clair que<br />
le résultat X donné par l’un est indépendant du résultat Y donné par l’autre. Voyons maintenant<br />
en quoi la notion d’indépendance est plus forte que celle de décorrélation.<br />
Proposition 2.5 (Indépendance ⇒ Décorrélation)<br />
Soit X et Y variables aléatoires discrètes admettant des moments d’ordre 2. Si X et Y sont<br />
indépendantes, alors elles sont décorrélées. En particulier, on a alors :<br />
Var(X +Y) = Var(X)+Var(Y).<br />
Preuve. L’équivalent du théorème de transfert pour les couples de variables aléatoires permet<br />
d’écrire l’espérance de XY de la façon suivante :<br />
E[XY] = <br />
xiyjpij,<br />
(i,j)∈I×J<br />
où pij =È(X = xi,Y = yj) pour tout couple (i,j) ∈ I × J. En notant pi =È(X = xi) et<br />
qj =È(Y = yj), l’indépendance des deux variables donne alors pij = piqj et :<br />
E[XY] = <br />
<br />
<br />
xiyjpij =<br />
⎛ ⎝ <br />
⎞<br />
⎠,<br />
(i,j)∈I×J<br />
i∈I<br />
xipi<br />
autrement dit E[XY] = E[X]E[Y], ou encore Cov(X,Y) = 0.<br />
Remarque. La réciproque est fausse en général. Pour s’en assurer il suffit de reprendre l’exemple<br />
où X est uniforme sur {−1,0,+1} et Y = X2 . On a vu que Cov(X,Y) = 0, c’est-à-dire que X et<br />
Y sont décorrélées. Mais elles ne sont pas indépendantes, puisqu’il suffit par exemple de remarquer<br />
que :<br />
È(X = 0,Y = 0) =È(X = 0) = 1 1<br />
=<br />
3 9 =È(X = 0)È(Y = 0).<br />
Généralisation. L’indépendance entre variables aléatoires se généralise de façon naturelle à plus<br />
de deux variables : n variables X1,...,Xn sont (mutuellement) indépendantes si la valeur prise<br />
par l’une n’a aucune influence sur les valeurs prises par les autres :<br />
∀(x1,...,xn) ∈ X1 ×···×Xn È(X1 = x1,...,Xn = xn) =È(X1 = x1)...È(Xn = xn).<br />
La variance de la somme sera alors encore la somme des variances :<br />
tandis que dans le cas général on a :<br />
2.5 Lois usuelles<br />
j∈J<br />
yjqj<br />
Var(X1 +···+Xn) = Var(X1)+···+Var(Xn),<br />
Var(X1 +···+Xn) =<br />
n<br />
Var(Xi)+2 <br />
i=1<br />
1≤j