Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2

sites.univ.rennes2.fr
from sites.univ.rennes2.fr More from this publisher
26.06.2013 Views

72 Chapitre 2. Variables aléatoires discrètes Proposition 2.4 (Inégalité de Cauchy-Schwarz) Soit X et Y variables aléatoires discrètes admettant des moments d’ordre 2, alors : avec plus précisément : −1 ≤ ρ(X,Y) ≤ +1, 1. ρ(X,Y) = −1 ssi ∃(a,b) ∈Ê∗ − ×Êtels que Y = aX +b; 2. ρ(X,Y) = +1 ssi ∃(a,b) ∈Ê∗ + ×Êtels que Y = aX +b. Preuve. La démonstration la plus expéditive de ce résultat est basée sur une ruse de sioux. Comme toute variable aléatoire, la variable (tX +Y) est de variance positive, et ce quel que soit le réel t, ce qui s’écrit encore : 0 ≤ Var(tX +Y) = Var(tX)+2Cov(tX,Y)+Var(Y) = t 2 Var(X)+2Cov(X,Y)t+Var(Y), que l’on peut voir comme un trinôme en t. Or un trinôme n’est de signe constant que si son discriminant est inférieur ou égal à 0, c’est-à-dire : Cov(X,Y) 2 −Var(X)Var(Y) ≤ 0 ⇐⇒ |ρ(X,Y)| ≤ 1. Supposons ρ(X,Y) = +1, alors en remontant les équations ceci implique qu’il existe un réel t0 tel que Var(t0X +Y) = 0, donc il existe un réel b tel que t0X +Y = b, c’est-à-dire Y = −t0X +b. Dans ce cas ρ(X,Y) = Cov(X,−t0X +b) σ(X)σ(−t0X +b) = −t0 |t0| , qui vaut 1 si et seulement si t0 est négatif. Le même raisonnement permet de conclure lorsque ρ(X,Y) = −1. Remarque. L’inégalité |Cov(X,Y)| ≤ σ(X)σ(Y) n’est rien de plus que l’inégalité de Cauchy- Schwarz adaptée au cadre des variables aléatoires. Sa version géométrique dansÊn muni du produit scalaire usuel et de la norme euclidienne est : pour tous vecteurs u et v deÊn , 〈u,v〉 ≤ uv. Le coefficient de corrélation de deux variables aléatoires est donc équivalent au cosinus de l’angle entre deux vecteurs. Interprétation. De façon générale, plus le coefficient de corrélation est proche de 1 en valeur absolue, plus les variables X et Y sont linéairement liées. Un coefficient de corrélation nul signifie donc que les deux variables ne sont pas linéairement liées. Il n’empêche qu’elle peuvent être liées par un autre type de relation : c’est ce qui apparaît clairement sur l’exemple ci-dessus où Y = X 2 , puisqu’une fois X connue, il n’existe plus aucune incertitude sur Y . Face à ce constat, on aimerait définir le fait qu’il n’existe aucune sorte de relation entre X et Y . La notion pertinente est alors celle d’indépendance, déjà rencontrée dans le premier chapitre et adaptée ici au cas des variables aléatoires. Définition 2.9 (Indépendance de deux variables) Soit X et Y variables aléatoires discrètes à valeurs respectives dans X = (xi)i∈I et Y = (yj)j∈J. On dit que X et Y sont indépendantes, noté X ⊥ Y , si : ∀(i,j) ∈ I ×J È(X = xi,Y = yj) =È(X = xi)È(Y = yj). Arnaud Guyader - Rennes 2 Probabilités

2.5. Lois usuelles 73 Concrètement, deux variables sont indépendantes si la valeur prise par l’une n’a aucune espèce d’influence sur la valeur prise par l’autre. La notion d’indépendance est omniprésente en probabilités. Un exemple parmi tant d’autres est celui du lancer simultané de deux dés : il est clair que le résultat X donné par l’un est indépendant du résultat Y donné par l’autre. Voyons maintenant en quoi la notion d’indépendance est plus forte que celle de décorrélation. Proposition 2.5 (Indépendance ⇒ Décorrélation) Soit X et Y variables aléatoires discrètes admettant des moments d’ordre 2. Si X et Y sont indépendantes, alors elles sont décorrélées. En particulier, on a alors : Var(X +Y) = Var(X)+Var(Y). Preuve. L’équivalent du théorème de transfert pour les couples de variables aléatoires permet d’écrire l’espérance de XY de la façon suivante : E[XY] = xiyjpij, (i,j)∈I×J où pij =È(X = xi,Y = yj) pour tout couple (i,j) ∈ I × J. En notant pi =È(X = xi) et qj =È(Y = yj), l’indépendance des deux variables donne alors pij = piqj et : E[XY] = xiyjpij = ⎛ ⎝ ⎞ ⎠, (i,j)∈I×J i∈I xipi autrement dit E[XY] = E[X]E[Y], ou encore Cov(X,Y) = 0. Remarque. La réciproque est fausse en général. Pour s’en assurer il suffit de reprendre l’exemple où X est uniforme sur {−1,0,+1} et Y = X2 . On a vu que Cov(X,Y) = 0, c’est-à-dire que X et Y sont décorrélées. Mais elles ne sont pas indépendantes, puisqu’il suffit par exemple de remarquer que : È(X = 0,Y = 0) =È(X = 0) = 1 1 = 3 9 =È(X = 0)È(Y = 0). Généralisation. L’indépendance entre variables aléatoires se généralise de façon naturelle à plus de deux variables : n variables X1,...,Xn sont (mutuellement) indépendantes si la valeur prise par l’une n’a aucune influence sur les valeurs prises par les autres : ∀(x1,...,xn) ∈ X1 ×···×Xn È(X1 = x1,...,Xn = xn) =È(X1 = x1)...È(Xn = xn). La variance de la somme sera alors encore la somme des variances : tandis que dans le cas général on a : 2.5 Lois usuelles j∈J yjqj Var(X1 +···+Xn) = Var(X1)+···+Var(Xn), Var(X1 +···+Xn) = n Var(Xi)+2 i=1 1≤j

72 Chapitre 2. Variables aléatoires discrètes<br />

Proposition 2.4 (Inégalité de Cauchy-Schwarz)<br />

Soit X et Y variables aléatoires discrètes admettant des moments d’ordre 2, alors :<br />

avec plus précisément :<br />

−1 ≤ ρ(X,Y) ≤ +1,<br />

1. ρ(X,Y) = −1 ssi ∃(a,b) ∈Ê∗ − ×Êtels que Y = aX +b;<br />

2. ρ(X,Y) = +1 ssi ∃(a,b) ∈Ê∗ + ×Êtels que Y = aX +b.<br />

Preuve. La démonstration la plus expéditive de ce résultat est basée sur une ruse de sioux. Comme<br />

toute variable aléatoire, la variable (tX +Y) est de variance positive, et ce quel que soit le réel t,<br />

ce qui s’écrit encore :<br />

0 ≤ Var(tX +Y) = Var(tX)+2Cov(tX,Y)+Var(Y) = t 2 Var(X)+2Cov(X,Y)t+Var(Y),<br />

que l’on peut voir comme un trinôme en t. Or un trinôme n’est de signe constant que si son<br />

discriminant est inférieur ou égal à 0, c’est-à-dire :<br />

Cov(X,Y) 2 −Var(X)Var(Y) ≤ 0 ⇐⇒ |ρ(X,Y)| ≤ 1.<br />

Supposons ρ(X,Y) = +1, alors en remontant les équations ceci implique qu’il existe un réel t0 tel<br />

que Var(t0X +Y) = 0, donc il existe un réel b tel que t0X +Y = b, c’est-à-dire Y = −t0X +b.<br />

Dans ce cas<br />

ρ(X,Y) = Cov(X,−t0X +b)<br />

σ(X)σ(−t0X +b)<br />

= −t0<br />

|t0| ,<br />

qui vaut 1 si et seulement si t0 est négatif. Le même raisonnement permet de conclure lorsque<br />

ρ(X,Y) = −1.<br />

<br />

Remarque. L’inégalité |Cov(X,Y)| ≤ σ(X)σ(Y) n’est rien de plus que l’inégalité de Cauchy-<br />

Schwarz adaptée au cadre des variables aléatoires. Sa version géométrique dansÊn muni du produit<br />

scalaire usuel et de la norme euclidienne est : pour tous vecteurs u et v deÊn , 〈u,v〉 ≤ uv.<br />

Le coefficient de corrélation de deux variables aléatoires est donc équivalent au cosinus de l’angle<br />

entre deux vecteurs.<br />

Interprétation. De façon générale, plus le coefficient de corrélation est proche de 1 en valeur<br />

absolue, plus les variables X et Y sont linéairement liées. Un coefficient de corrélation nul signifie<br />

donc que les deux variables ne sont pas linéairement liées. Il n’empêche qu’elle peuvent être liées<br />

par un autre type de relation : c’est ce qui apparaît clairement sur l’exemple ci-dessus où Y = X 2 ,<br />

puisqu’une fois X connue, il n’existe plus aucune incertitude sur Y .<br />

Face à ce constat, on aimerait définir le fait qu’il n’existe aucune sorte de relation entre X et Y .<br />

La notion pertinente est alors celle d’indépendance, déjà rencontrée dans le premier chapitre et<br />

adaptée ici au cas des variables aléatoires.<br />

Définition 2.9 (Indépendance de deux variables)<br />

Soit X et Y variables aléatoires discrètes à valeurs respectives dans X = (xi)i∈I et Y = (yj)j∈J.<br />

On dit que X et Y sont indépendantes, noté X ⊥ Y , si :<br />

∀(i,j) ∈ I ×J È(X = xi,Y = yj) =È(X = xi)È(Y = yj).<br />

Arnaud Guyader - <strong>Rennes</strong> 2 <strong>Probabilités</strong>

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!