Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2
70 Chapitre 2. Variables aléatoires discrètes Remarques : 1. L’énoncé ci-dessus est en fait un peu plus général que ce qu’on appelle usuellement l’inégalité de Markov, à savoir que pour toute variable X positive admettant une espérance, on a : ∀t > 0 È(X ≥ t) ≤ E[X] . t 2. Soit Y une variable admettant une variance : l’inégalité de Tchebychev pour Y se retrouve en considérant X = (Y −E[Y]) et m = 2 dans le théorème ci-dessus. 2.4 Corrélation et indépendance Nous avons vu que l’espérance est linéaire, c’est-à-dire que E[X +Y] = E[X]+E[Y]. On peut se demander si cette propriété est encore vraie pour la variance. La réponse est non en général et fait intervenir la notion de covariance entre variables aléatoires. Définition 2.7 (Covariance) Soit X et Y variables aléatoires discrètes admettant des moments d’ordre 2. La covariance entre X et Y est définie par : Cov(X,Y) = E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y]. Cette définition nécessite quelques justifications : 1. Il faut commencer par vérifier que si E[X 2 ] et E[Y 2 ] existent, alors E[XY] est bien définie. Il suffit pour ça de partir de l’identité remarquable (|x|−|y|) 2 = x 2 −2|xy|+y 2 ≥ 0 pour en déduire que : ∀ω ∈ Ω 2|X(ω)Y(ω)| ≤ X 2 (ω)+Y 2 (ω) ⇒ |X(ω)Y(ω)| ≤ 1 2 2 2 2 X (ω)+Y (ω) ≤ X (ω)+Y (ω), 2 c’est-à-dire succinctement : |XY| ≤ X 2 + Y 2 . Ainsi la variable aléatoire positive |XY| est majorée par une somme de variables admettant chacune une espérance, donc |XY| admet une espérance et idem pour XY . Le premier point est plié. 2. Le second point concerne l’égalité entre les deux formulations de la covariance. Il réside tout simplement sur la linéarité de l’espérance et le fait que la moyenne d’une variable constante est égale à cette constante : d’où : E[(X −E[X])(Y −E[Y])] = E[XY −E[X]Y −E[Y]X +E[X]E[Y]], E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y]−E[Y]E[X]+E[X]E[Y], ce qui donne bien au final : E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y]. L’expression de droite est parfois appelée formule de König, conformément à la formule de la variance. Arnaud Guyader - Rennes 2 Probabilités
2.4. Corrélation et indépendance 71 On peut alors donner plusieurs propriétés de la covariance. Propriétés 2.4 (Quelques formules sur la covariance) Soit X et Y variables aléatoires discrètes admettant des moments d’ordre 2. Alors : 1. Cov(X,Y) = Cov(Y,X). 2. Cov(X,X) = Var(X). 3. pour tous réels a,b,c,d : Cov(aX +b,cY +d) = ac Cov(XY). 4. Var(X +Y) = Var(X)+2Cov(X,Y)+Var(Y). Preuve. Les deux premiers points sont évidents. Le troisième s’obtient en appliquant la définition de la covariance et en utilisant la linéarité de l’espérance. Détaillons uniquement le dernier : Var(X+Y) = E[(X+Y) 2 ]−(E[X+Y]) 2 = E[X 2 ]+2E[XY]+E[Y 2 ]−(E[X] 2 +2E[X]E[Y]+E[Y] 2 ), et il suffit de bien regrouper les termes : Var(X +Y) = (E[X 2 ]−E[X] 2 )+2(E[XY]−E[X]E[Y])+(E[Y 2 ]−E[Y] 2 ) pour arriver à la formule voulue. Cette démonstration montre que la dernière formule est bien sûr liée à l’identité remarquable vue dans les petites classes : (x + y) 2 = x 2 + 2xy + y 2 . Elle souligne en particulier que, dans le cas général, la variance n’est pas linéaire puisqu’on n’a pas Var(X + Y) = Var(X) + Var(Y). Nous allons maintenant préciser ce point. Définition 2.8 (Coefficient de corrélation) Soit X et Y variables aléatoires discrètes admettant des variances non nulles. Le coefficient de corrélation entre X et Y est défini par : ρ(X,Y) = Cov(X,Y) σ(X)σ(Y) . Si ρ(X,Y) = Cov(X,Y) = 0, X et Y sont dites décorrélées, ce qui est équivalent à dire que : Var(X +Y) = Var(X)+Var(Y). Exemple. Soit X qui suit une loi uniforme sur {−1,0,+1} et Y définie par Y = X 2 . Alors par le théorème de transfert : E[XY] = E[X 3 ] = (−1) 3 × 1 3 +03 × 1 3 +13 × 1 = 0. 3 Un calcul similaire montre que E[X] = 0, donc sans même calculer E[Y], on a aussi E[X]E[Y] = 0. Il s’ensuit que : Cov(X,Y) = E[XY]−E[X]E[Y] = 0, c’est-à-dire que X et Y sont décorrélées. Le coefficient de corrélation est aussi appelé coefficient de corrélation linéaire, car il mesure en fait la linéarité entre les deux variables X et Y . C’est ce qu’explique le résultat suivant. Probabilités Arnaud Guyader - Rennes 2
- Page 23 and 24: 1.4. Exercices 19 2. Méthode B : o
- Page 25 and 26: 1.4. Exercices 21 1. Quelle est la
- Page 27 and 28: 1.4. Exercices 23 Exercice 1.43 (Le
- Page 29 and 30: 1.5. Corrigés 25 Exercice 1.53 (Ut
- Page 31 and 32: 1.5. Corrigés 27 1.0 0.9 0.8 0.7 0
- Page 33 and 34: 1.5. Corrigés 29 2. Le triangle de
- Page 35 and 36: 1.5. Corrigés 31 L’hypothèse de
- Page 37 and 38: 1.5. Corrigés 33 et on peut donc u
- Page 39 and 40: 1.5. Corrigés 35 2. Soit A et B de
- Page 41 and 42: 1.5. Corrigés 37 - Concernant la l
- Page 43 and 44: 1.5. Corrigés 39 q Figure 1.9 - Un
- Page 45 and 46: 1.5. Corrigés 41 et pour l’Europ
- Page 47 and 48: 1.5. Corrigés 43 3. On cherche cet
- Page 49 and 50: 1.5. Corrigés 45 Exercice 1.27 (La
- Page 51 and 52: 1.5. Corrigés 47 Exercice 1.31 (Le
- Page 53 and 54: 1.5. Corrigés 49 qui se calcule à
- Page 55 and 56: 1.5. Corrigés 51 2. Cette fois la
- Page 57 and 58: 1.5. Corrigés 53 Figure 1.11 - Pro
- Page 59: 1.5. Corrigés 55 3. Nous voulons c
- Page 62 and 63: 58 Chapitre 2. Variables aléatoire
- Page 64 and 65: 60 Chapitre 2. Variables aléatoire
- Page 66 and 67: 62 Chapitre 2. Variables aléatoire
- Page 68 and 69: 64 Chapitre 2. Variables aléatoire
- Page 70 and 71: 66 Chapitre 2. Variables aléatoire
- Page 72 and 73: 68 Chapitre 2. Variables aléatoire
- Page 76 and 77: 72 Chapitre 2. Variables aléatoire
- Page 78 and 79: 74 Chapitre 2. Variables aléatoire
- Page 80 and 81: 76 Chapitre 2. Variables aléatoire
- Page 82 and 83: 78 Chapitre 2. Variables aléatoire
- Page 84 and 85: 80 Chapitre 2. Variables aléatoire
- Page 86 and 87: 82 Chapitre 2. Variables aléatoire
- Page 88 and 89: 84 Chapitre 2. Variables aléatoire
- Page 90 and 91: 86 Chapitre 2. Variables aléatoire
- Page 92 and 93: 88 Chapitre 2. Variables aléatoire
- Page 94 and 95: 90 Chapitre 2. Variables aléatoire
- Page 96 and 97: 92 Chapitre 2. Variables aléatoire
- Page 98 and 99: 94 Chapitre 2. Variables aléatoire
- Page 100 and 101: 96 Chapitre 2. Variables aléatoire
- Page 102 and 103: 98 Chapitre 2. Variables aléatoire
- Page 104 and 105: 100 Chapitre 2. Variables aléatoir
- Page 106 and 107: 102 Chapitre 2. Variables aléatoir
- Page 108 and 109: 104 Chapitre 2. Variables aléatoir
- Page 110 and 111: 106 Chapitre 2. Variables aléatoir
- Page 112 and 113: 108 Chapitre 2. Variables aléatoir
- Page 114 and 115: 110 Chapitre 2. Variables aléatoir
- Page 116 and 117: 112 Chapitre 2. Variables aléatoir
- Page 118 and 119: 114 Chapitre 2. Variables aléatoir
- Page 120 and 121: 116 Chapitre 3. Variables aléatoir
- Page 122 and 123: 118 Chapitre 3. Variables aléatoir
70 Chapitre 2. Variables aléatoires discrètes<br />
Remarques :<br />
1. L’énoncé ci-dessus est en fait un peu plus général que ce qu’on appelle usuellement l’inégalité<br />
de Markov, à savoir que pour toute variable X positive admettant une espérance, on a :<br />
∀t > 0 È(X ≥ t) ≤ E[X]<br />
.<br />
t<br />
2. Soit Y une variable admettant une variance : l’inégalité de Tchebychev pour Y se retrouve<br />
en considérant X = (Y −E[Y]) et m = 2 dans le théorème ci-dessus.<br />
2.4 Corrélation et indépendance<br />
Nous avons vu que l’espérance est linéaire, c’est-à-dire que E[X +Y] = E[X]+E[Y]. On peut se<br />
demander si cette propriété est encore vraie pour la variance. La réponse est non en général et fait<br />
intervenir la notion de covariance entre variables aléatoires.<br />
Définition 2.7 (Covariance)<br />
Soit X et Y variables aléatoires discrètes admettant des moments d’ordre 2. La covariance entre<br />
X et Y est définie par :<br />
Cov(X,Y) = E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y].<br />
Cette définition nécessite quelques justifications :<br />
1. Il faut commencer par vérifier que si E[X 2 ] et E[Y 2 ] existent, alors E[XY] est bien définie.<br />
Il suffit pour ça de partir de l’identité remarquable (|x|−|y|) 2 = x 2 −2|xy|+y 2 ≥ 0 pour en<br />
déduire que :<br />
∀ω ∈ Ω 2|X(ω)Y(ω)| ≤ X 2 (ω)+Y 2 (ω) ⇒ |X(ω)Y(ω)| ≤ 1 2 2 2 2<br />
X (ω)+Y (ω) ≤ X (ω)+Y (ω),<br />
2<br />
c’est-à-dire succinctement : |XY| ≤ X 2 + Y 2 . Ainsi la variable aléatoire positive |XY| est<br />
majorée par une somme de variables admettant chacune une espérance, donc |XY| admet<br />
une espérance et idem pour XY . Le premier point est plié.<br />
2. Le second point concerne l’égalité entre les deux formulations de la covariance. Il réside tout<br />
simplement sur la linéarité de l’espérance et le fait que la moyenne d’une variable constante<br />
est égale à cette constante :<br />
d’où :<br />
E[(X −E[X])(Y −E[Y])] = E[XY −E[X]Y −E[Y]X +E[X]E[Y]],<br />
E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y]−E[Y]E[X]+E[X]E[Y],<br />
ce qui donne bien au final :<br />
E[(X −E[X])(Y −E[Y])] = E[XY]−E[X]E[Y].<br />
L’expression de droite est parfois appelée formule de König, conformément à la formule de<br />
la variance.<br />
Arnaud Guyader - <strong>Rennes</strong> 2 <strong>Probabilités</strong>