Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2
124 Chapitre 3. Variables aléatoires à densité Les propriétés suivantes, ainsi que leurs preuves, sont les mêmes que dans le cas discret. Propriétés 3.3 Soit X une variable aléatoire à densité, alors sous réserve d’existence de sa variance : (i) Var(X) = E[X 2 ]−E[X] 2 . (ii) Si a et b sont deux réels, Var(aX +b) = a 2 Var(X). On va maintenant généraliser les notions d’espérance et de variance. Définition 3.6 Soit X une variable aléatoire de densité f et m ∈Æ∗ . Sous réserve de convergence de l’intégrale, on appelle : (i) moment d’ordre m de X la quantité E[X m Êx ] = m f(x)dx. (ii) moment centré d’ordre m de X la quantité E[(X −E[X]) m Ê(x−E[X]) ] = m f(x)dx. Ainsi l’espérance de X est le moment d’ordre 1 et sa variance le moment centré d’ordre 2. Rappelons aussi que X est dite centrée si E[X] = 0 et réduite si Var[X] = 1. On dit qu’on centre et réduit X en considérant la variable Y = X−E[X] σ(X) . Le moment d’ordre 3 de Y est alors appelé coefficient d’asymétrie (skewness) de X et le moment d’ordre 4 de Y est appelé kurtosis, ou coefficient d’aplatissement, de X. Proposition 3.3 Soit X une variable aléatoire à densité, alors si X admet un moment d’ordre m ∈Æ∗ , X admet des moments de tout ordre j ∈ {1,...,m}. L’existence d’un moment d’ordre élevé assure une décroissance d’autant plus rapide de la queue de la distribution de X à l’infini, comme le montre l’inégalite de Markov. Tout comme le résultat précédent, ce théorème est admis. Théorème 3.2 (Inégalité de Markov) Soit X une variable aléatoire à densité, alors si X admet un moment d’ordre m ∈Æ∗ , on a : ∀t > 0 È(|X| ≥ t) ≤ E[|X|m ] . tm Une première conséquence de l’inégalité de Markov : une variable ayant des moments de tout ordre a une queue de distribution à décroissance plus rapide que n’importe quelle fraction rationnelle (par exemple exponentielle). Une seconde conséquence : Tchebychev. Théorème 3.3 (Inégalité de Tchebychev) Soit X une variable aléatoire admettant une variance, alors : ∀t > 0 È(|X −E[X]| ≥ t) ≤ Var(X) t 2 . Arnaud Guyader - Rennes 2 Probabilités
3.4. Lois usuelles 125 Interprétation. C’est la même que dans le cas discret. Si on pose t = sσ(X), l’inégalité de Tchebychev se réécrit pour tout s > 0 : È(|X −E[X]| ≥ sσ(X)) ≤ 1 s 2. Si on voit l’écart-type σ(X) comme une unité d’écart, ceci dit que la probabilité qu’une variable s’éloigne de plus de s unités d’écart de sa moyenne est inférieure à 1 s 2. Remarque. Dans le cas discret, tout a été démontré facilement grâce à la seule théorie des séries numériques. Dès qu’on passe au cas absolument continu, ça se corse. En particulier, la plupart des résultats énoncés dans ce chapitre ont été prouvés sous des hypothèses inutilement restrictives sur la densité f. Ceci vient du fait que le bon cadre théorique pour traiter des probabilités en toute généralité est celui de l’intégrale de Lebesgue, laquelle permet d’unifier et d’englober les deux situations, mais dépasse largement le cadre de ce cours introductif. 3.4 Lois usuelles Comme dans le cas discret, il existe un certain nombre de lois classiques pour les variables à densité. Nous en détaillons ici quelques-unes. 3.4.1 Loi uniforme La loi uniforme sert à préciser ce qu’on entend par un énoncé du type : “On tire un point au hasard entre 0 et 1”. C’est l’équivalent continu de la loi uniforme vue dans le cas discret. Définition 3.7 (Loi uniforme) Soit a et b deux réels, avec a < b. On dit que X suit une loi uniforme sur l’intervalle [a,b], noté X ∼ U [a,b], si X admet pour densité f(x) = 1 b−a [a,b](x). Remarque. On peut tout aussi bien ouvrir ou fermer les crochets au bord de l’intervalle. Espérance et variance se calculent alors sans problème, ceci a d’ailleurs déjà été fait en Section 3.3 dans le cas d’une loi uniforme sur [0,1]. Proposition 3.4 (Moments d’une loi uniforme) Si X suit une loi uniforme sur [a,b], alors : E[X] = a+b 2 & Var(X) = (b−a)2 . 12 L’espérance de X correspond donc au milieu du segment [a,b], ce qui n’a rien d’étonnant si l’on pense à l’espérance comme à une valeur moyenne. La fonction de répartition ne pose pas non plus de difficultés. Proposition 3.5 (Fonction de répartition d’une loi uniforme) Si X suit une loi uniforme sur [a,b], alors sa fonction de répartition F est : ⎧ ⎨ 0 si x ≤ a x−a F(x) = ⎩ b−a si a ≤ x ≤ b 1 si x ≥ b Probabilités Arnaud Guyader - Rennes 2
- Page 78 and 79: 74 Chapitre 2. Variables aléatoire
- Page 80 and 81: 76 Chapitre 2. Variables aléatoire
- Page 82 and 83: 78 Chapitre 2. Variables aléatoire
- Page 84 and 85: 80 Chapitre 2. Variables aléatoire
- Page 86 and 87: 82 Chapitre 2. Variables aléatoire
- Page 88 and 89: 84 Chapitre 2. Variables aléatoire
- Page 90 and 91: 86 Chapitre 2. Variables aléatoire
- Page 92 and 93: 88 Chapitre 2. Variables aléatoire
- Page 94 and 95: 90 Chapitre 2. Variables aléatoire
- Page 96 and 97: 92 Chapitre 2. Variables aléatoire
- Page 98 and 99: 94 Chapitre 2. Variables aléatoire
- Page 100 and 101: 96 Chapitre 2. Variables aléatoire
- Page 102 and 103: 98 Chapitre 2. Variables aléatoire
- Page 104 and 105: 100 Chapitre 2. Variables aléatoir
- Page 106 and 107: 102 Chapitre 2. Variables aléatoir
- Page 108 and 109: 104 Chapitre 2. Variables aléatoir
- Page 110 and 111: 106 Chapitre 2. Variables aléatoir
- Page 112 and 113: 108 Chapitre 2. Variables aléatoir
- Page 114 and 115: 110 Chapitre 2. Variables aléatoir
- Page 116 and 117: 112 Chapitre 2. Variables aléatoir
- Page 118 and 119: 114 Chapitre 2. Variables aléatoir
- Page 120 and 121: 116 Chapitre 3. Variables aléatoir
- Page 122 and 123: 118 Chapitre 3. Variables aléatoir
- Page 124 and 125: 120 Chapitre 3. Variables aléatoir
- Page 126 and 127: 122 Chapitre 3. Variables aléatoir
- Page 130 and 131: 126 Chapitre 3. Variables aléatoir
- Page 132 and 133: 128 Chapitre 3. Variables aléatoir
- Page 134 and 135: 130 Chapitre 3. Variables aléatoir
- Page 136 and 137: 132 Chapitre 3. Variables aléatoir
- Page 138 and 139: 134 Chapitre 3. Variables aléatoir
- Page 140 and 141: 136 Chapitre 3. Variables aléatoir
- Page 142 and 143: 138 Chapitre 3. Variables aléatoir
- Page 144 and 145: 140 Chapitre 3. Variables aléatoir
- Page 146 and 147: 142 Chapitre 3. Variables aléatoir
- Page 148 and 149: 144 Chapitre 3. Variables aléatoir
- Page 150 and 151: ∈Ê 146 Chapitre 3. Variables al
- Page 152 and 153: 148 Chapitre 3. Variables aléatoir
- Page 154 and 155: 150 Chapitre 3. Variables aléatoir
- Page 156 and 157: 152 Chapitre 3. Variables aléatoir
- Page 158 and 159: 154 Chapitre 3. Variables aléatoir
- Page 160 and 161: 156 Chapitre 3. Variables aléatoir
- Page 162 and 163: 158 Chapitre 3. Variables aléatoir
- Page 164 and 165: 160 Chapitre 3. Variables aléatoir
- Page 166 and 167: 162 Chapitre 3. Variables aléatoir
- Page 168 and 169: 164 Chapitre 3. Variables aléatoir
- Page 170 and 171: 166 Chapitre 3. Variables aléatoir
- Page 172 and 173: 168 Chapitre 3. Variables aléatoir
- Page 174 and 175: 170 Chapitre 3. Variables aléatoir
- Page 176 and 177: 172 Chapitre 3. Variables aléatoir
3.4. Lois usuelles 125<br />
Interprétation. C’est la même que dans le cas discret. Si on pose t = sσ(X), l’inégalité de<br />
Tchebychev se réécrit pour tout s > 0 :<br />
È(|X −E[X]| ≥ sσ(X)) ≤ 1<br />
s 2.<br />
Si on voit l’écart-type σ(X) comme une unité d’écart, ceci dit que la probabilité qu’une variable<br />
s’éloigne de plus de s unités d’écart de sa moyenne est inférieure à 1<br />
s 2.<br />
Remarque. Dans le cas discret, tout a été démontré facilement grâce à la seule théorie des séries<br />
numériques. Dès qu’on passe au cas absolument continu, ça se corse. En particulier, la plupart<br />
des résultats énoncés dans ce chapitre ont été prouvés sous des hypothèses inutilement restrictives<br />
sur la densité f. Ceci vient du fait que le bon cadre théorique pour traiter des probabilités en<br />
toute généralité est celui de l’intégrale de Lebesgue, laquelle permet d’unifier et d’englober les<br />
deux situations, mais dépasse largement le cadre de ce cours introductif.<br />
3.4 Lois usuelles<br />
Comme dans le cas discret, il existe un certain nombre de lois classiques pour les variables à densité.<br />
Nous en détaillons ici quelques-unes.<br />
3.4.1 Loi uniforme<br />
La loi uniforme sert à préciser ce qu’on entend par un énoncé du type : “On tire un point au hasard<br />
entre 0 et 1”. C’est l’équivalent continu de la loi uniforme vue dans le cas discret.<br />
Définition 3.7 (Loi uniforme)<br />
Soit a et b deux réels, avec a < b. On dit que X suit une loi uniforme sur l’intervalle [a,b], noté<br />
X ∼ U [a,b], si X admet pour densité f(x) = 1<br />
b−a [a,b](x).<br />
Remarque. On peut tout aussi bien ouvrir ou fermer les crochets au bord de l’intervalle.<br />
Espérance et variance se calculent alors sans problème, ceci a d’ailleurs déjà été fait en Section 3.3<br />
dans le cas d’une loi uniforme sur [0,1].<br />
Proposition 3.4 (Moments d’une loi uniforme)<br />
Si X suit une loi uniforme sur [a,b], alors :<br />
E[X] = a+b<br />
2<br />
& Var(X) = (b−a)2<br />
.<br />
12<br />
L’espérance de X correspond donc au milieu du segment [a,b], ce qui n’a rien d’étonnant si l’on<br />
pense à l’espérance comme à une valeur moyenne. La fonction de répartition ne pose pas non plus<br />
de difficultés.<br />
Proposition 3.5 (Fonction de répartition d’une loi uniforme)<br />
Si X suit une loi uniforme sur [a,b], alors sa fonction de répartition F est :<br />
⎧<br />
⎨ 0 si x ≤ a<br />
x−a<br />
F(x) =<br />
⎩ b−a si a ≤ x ≤ b<br />
1 si x ≥ b<br />
<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2