Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
68 Chapitre 2. Variables aléatoires discrètes<br />
qui s’écrit encore :<br />
E[X(X −1)] = e −1<br />
+∞<br />
n=2<br />
1<br />
(n−2)!<br />
= e−1<br />
+∞<br />
n=0<br />
1<br />
n! = e−1 e = 1,<br />
d’où l’on déduit que E[X 2 ] = E[X(X − 1)] + E[X] = 1 + 1 = 2 et Var(X) = E[X 2 ] − E[X] 2 =<br />
2 − 1 = 1. Ainsi une variable qui suit une loi de Poisson de paramètre 1 a pour variance 1. On<br />
montrera plus généralement que si X ∼ P(λ), alors E[X] = Var(X) = λ.<br />
Nous avons dit plus haut que l’écart-type permet d’avoir une idée de l’écart typique entre une<br />
variable aléatoire et sa moyenne. Cette idée est précisée par la célèbre inégalité de Tchebychev,<br />
également appelée inégalité de Bienaymé-Tchebychev.<br />
Théorème 2.2 (Inégalité de Tchebychev)<br />
Soit X une variable aléatoire discrète admettant une variance, alors :<br />
∀t > 0 È(|X −E[X]| ≥ t) ≤ Var(X)<br />
t 2 .<br />
Preuve. Puisqu’on peut voir cette inégalité comme un cas particulier de l’inégalité de Markov,<br />
nous donnerons sa preuve en section suivante.<br />
<br />
Interprétation. Si on pose t = sσ(X), l’inégalité de Tchebychev se réécrit pour tout s > 0 :<br />
È(|X −E[X]| ≥ sσ(X)) ≤ 1<br />
s 2.<br />
Si on voit l’écart-type σ(X) comme une unité d’écart, ceci dit que la probabilité qu’une variable<br />
s’éloigne de plus de s unités d’écart de sa moyenne est inférieure à 1<br />
s 2.<br />
L’aspect remarquable de l’inégalité de Tchebychev est son universalité, puisqu’elle est vérifiée quelle<br />
que soit la loi de la variable X (si tant est bien sûr que celle-ci admette une variance). Le prix<br />
à payer est qu’elle ne donne souvent en pratique que de médiocres majorations de la queue de<br />
distribution. Elle prend néanmoins toute sa puissance pour prouver des résultats génér<strong>aux</strong>, c’est<br />
par exemple la méthode typique de démonstration de la loi faible des grands nombres.<br />
Exemple. Une application de l’inégalité de Tchebychev est donnée en exercice 2.21.<br />
2.3.3 Autres moments<br />
On va maintenant généraliser les notions d’espérance et de variance.<br />
Définition 2.6<br />
Soit X une variable aléatoire discrète et m ∈Æ∗ . Sous réserve d’existence, on appelle :<br />
(i) moment d’ordre m de X la quantité<br />
E[X m ] = <br />
(ii) moment centré d’ordre m de X la quantité<br />
i∈I<br />
x m i pi ;<br />
E[(X −E[X]) m ] = <br />
(xi −E[X]) m pi.<br />
Arnaud Guyader - <strong>Rennes</strong> 2 <strong>Probabilités</strong><br />
i∈I