Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2

sites.univ.rennes2.fr
from sites.univ.rennes2.fr More from this publisher
26.06.2013 Views

70 Chapitre 2. Variables aléatoires discrètes Remarques : 1. L’énoncé ci-dessus est en fait un peu plus général que ce qu’on appelle usuellement l’inégalité de Markov, à savoir que pour toute variable X positive admettant une espérance, on a : ∀t > 0 È(X ≥ t) ≤ E[X] . t 2. Soit Y une variable admettant une variance : l’inégalité de Tchebychev pour Y se retrouve en considérant X = (Y −E[Y]) et m = 2 dans le théorème ci-dessus. 2.4 Corrélation et indépendance Nous avons vu que l’espérance est linéaire, c’est-à-dire que E[X +Y] = E[X]+E[Y]. On peut se demander si cette propriété est encore vraie pour la variance. La réponse est non en général et fait intervenir la notion de covariance entre variables aléatoires. Définition 2.7 (Covariance) Soit X et Y variables aléatoires discrètes admettant des moments d’ordre 2. La covariance entre X et Y est définie par : Cov(X,Y) = E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y]. Cette définition nécessite quelques justifications : 1. Il faut commencer par vérifier que si E[X 2 ] et E[Y 2 ] existent, alors E[XY] est bien définie. Il suffit pour ça de partir de l’identité remarquable (|x|−|y|) 2 = x 2 −2|xy|+y 2 ≥ 0 pour en déduire que : ∀ω ∈ Ω 2|X(ω)Y(ω)| ≤ X 2 (ω)+Y 2 (ω) ⇒ |X(ω)Y(ω)| ≤ 1 2 2 2 2 X (ω)+Y (ω) ≤ X (ω)+Y (ω), 2 c’est-à-dire succinctement : |XY| ≤ X 2 + Y 2 . Ainsi la variable aléatoire positive |XY| est majorée par une somme de variables admettant chacune une espérance, donc |XY| admet une espérance et idem pour XY . Le premier point est plié. 2. Le second point concerne l’égalité entre les deux formulations de la covariance. Il réside tout simplement sur la linéarité de l’espérance et le fait que la moyenne d’une variable constante est égale à cette constante : d’où : E[(X −E[X])(Y −E[Y])] = E[XY −E[X]Y −E[Y]X +E[X]E[Y]], E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y]−E[Y]E[X]+E[X]E[Y], ce qui donne bien au final : E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y]. L’expression de droite est parfois appelée formule de König, conformément à la formule de la variance. Arnaud Guyader - Rennes 2 Probabilités

2.4. Corrélation et indépendance 71 On peut alors donner plusieurs propriétés de la covariance. Propriétés 2.4 (Quelques formules sur la covariance) Soit X et Y variables aléatoires discrètes admettant des moments d’ordre 2. Alors : 1. Cov(X,Y) = Cov(Y,X). 2. Cov(X,X) = Var(X). 3. pour tous réels a,b,c,d : Cov(aX +b,cY +d) = ac Cov(XY). 4. Var(X +Y) = Var(X)+2Cov(X,Y)+Var(Y). Preuve. Les deux premiers points sont évidents. Le troisième s’obtient en appliquant la définition de la covariance et en utilisant la linéarité de l’espérance. Détaillons uniquement le dernier : Var(X+Y) = E[(X+Y) 2 ]−(E[X+Y]) 2 = E[X 2 ]+2E[XY]+E[Y 2 ]−(E[X] 2 +2E[X]E[Y]+E[Y] 2 ), et il suffit de bien regrouper les termes : Var(X +Y) = (E[X 2 ]−E[X] 2 )+2(E[XY]−E[X]E[Y])+(E[Y 2 ]−E[Y] 2 ) pour arriver à la formule voulue. Cette démonstration montre que la dernière formule est bien sûr liée à l’identité remarquable vue dans les petites classes : (x + y) 2 = x 2 + 2xy + y 2 . Elle souligne en particulier que, dans le cas général, la variance n’est pas linéaire puisqu’on n’a pas Var(X + Y) = Var(X) + Var(Y). Nous allons maintenant préciser ce point. Définition 2.8 (Coefficient de corrélation) Soit X et Y variables aléatoires discrètes admettant des variances non nulles. Le coefficient de corrélation entre X et Y est défini par : ρ(X,Y) = Cov(X,Y) σ(X)σ(Y) . Si ρ(X,Y) = Cov(X,Y) = 0, X et Y sont dites décorrélées, ce qui est équivalent à dire que : Var(X +Y) = Var(X)+Var(Y). Exemple. Soit X qui suit une loi uniforme sur {−1,0,+1} et Y définie par Y = X 2 . Alors par le théorème de transfert : E[XY] = E[X 3 ] = (−1) 3 × 1 3 +03 × 1 3 +13 × 1 = 0. 3 Un calcul similaire montre que E[X] = 0, donc sans même calculer E[Y], on a aussi E[X]E[Y] = 0. Il s’ensuit que : Cov(X,Y) = E[XY]−E[X]E[Y] = 0, c’est-à-dire que X et Y sont décorrélées. Le coefficient de corrélation est aussi appelé coefficient de corrélation linéaire, car il mesure en fait la linéarité entre les deux variables X et Y . C’est ce qu’explique le résultat suivant. Probabilités Arnaud Guyader - Rennes 2

70 Chapitre 2. Variables aléatoires discrètes<br />

Remarques :<br />

1. L’énoncé ci-dessus est en fait un peu plus général que ce qu’on appelle usuellement l’inégalité<br />

de Markov, à savoir que pour toute variable X positive admettant une espérance, on a :<br />

∀t > 0 È(X ≥ t) ≤ E[X]<br />

.<br />

t<br />

2. Soit Y une variable admettant une variance : l’inégalité de Tchebychev pour Y se retrouve<br />

en considérant X = (Y −E[Y]) et m = 2 dans le théorème ci-dessus.<br />

2.4 Corrélation et indépendance<br />

Nous avons vu que l’espérance est linéaire, c’est-à-dire que E[X +Y] = E[X]+E[Y]. On peut se<br />

demander si cette propriété est encore vraie pour la variance. La réponse est non en général et fait<br />

intervenir la notion de covariance entre variables aléatoires.<br />

Définition 2.7 (Covariance)<br />

Soit X et Y variables aléatoires discrètes admettant des moments d’ordre 2. La covariance entre<br />

X et Y est définie par :<br />

Cov(X,Y) = E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y].<br />

Cette définition nécessite quelques justifications :<br />

1. Il faut commencer par vérifier que si E[X 2 ] et E[Y 2 ] existent, alors E[XY] est bien définie.<br />

Il suffit pour ça de partir de l’identité remarquable (|x|−|y|) 2 = x 2 −2|xy|+y 2 ≥ 0 pour en<br />

déduire que :<br />

∀ω ∈ Ω 2|X(ω)Y(ω)| ≤ X 2 (ω)+Y 2 (ω) ⇒ |X(ω)Y(ω)| ≤ 1 2 2 2 2<br />

X (ω)+Y (ω) ≤ X (ω)+Y (ω),<br />

2<br />

c’est-à-dire succinctement : |XY| ≤ X 2 + Y 2 . Ainsi la variable aléatoire positive |XY| est<br />

majorée par une somme de variables admettant chacune une espérance, donc |XY| admet<br />

une espérance et idem pour XY . Le premier point est plié.<br />

2. Le second point concerne l’égalité entre les deux formulations de la covariance. Il réside tout<br />

simplement sur la linéarité de l’espérance et le fait que la moyenne d’une variable constante<br />

est égale à cette constante :<br />

d’où :<br />

E[(X −E[X])(Y −E[Y])] = E[XY −E[X]Y −E[Y]X +E[X]E[Y]],<br />

E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y]−E[Y]E[X]+E[X]E[Y],<br />

ce qui donne bien au final :<br />

E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y].<br />

L’expression de droite est parfois appelée formule de König, conformément à la formule de<br />

la variance.<br />

Arnaud Guyader - <strong>Rennes</strong> 2 <strong>Probabilités</strong>

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!