26.06.2013 Views

Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

68 Chapitre 2. Variables aléatoires discrètes<br />

qui s’écrit encore :<br />

E[X(X −1)] = e −1<br />

+∞<br />

n=2<br />

1<br />

(n−2)!<br />

= e−1<br />

+∞<br />

n=0<br />

1<br />

n! = e−1 e = 1,<br />

d’où l’on déduit que E[X 2 ] = E[X(X − 1)] + E[X] = 1 + 1 = 2 et Var(X) = E[X 2 ] − E[X] 2 =<br />

2 − 1 = 1. Ainsi une variable qui suit une loi de Poisson de paramètre 1 a pour variance 1. On<br />

montrera plus généralement que si X ∼ P(λ), alors E[X] = Var(X) = λ.<br />

Nous avons dit plus haut que l’écart-type permet d’avoir une idée de l’écart typique entre une<br />

variable aléatoire et sa moyenne. Cette idée est précisée par la célèbre inégalité de Tchebychev,<br />

également appelée inégalité de Bienaymé-Tchebychev.<br />

Théorème 2.2 (Inégalité de Tchebychev)<br />

Soit X une variable aléatoire discrète admettant une variance, alors :<br />

∀t > 0 È(|X −E[X]| ≥ t) ≤ Var(X)<br />

t 2 .<br />

Preuve. Puisqu’on peut voir cette inégalité comme un cas particulier de l’inégalité de Markov,<br />

nous donnerons sa preuve en section suivante.<br />

<br />

Interprétation. Si on pose t = sσ(X), l’inégalité de Tchebychev se réécrit pour tout s > 0 :<br />

È(|X −E[X]| ≥ sσ(X)) ≤ 1<br />

s 2.<br />

Si on voit l’écart-type σ(X) comme une unité d’écart, ceci dit que la probabilité qu’une variable<br />

s’éloigne de plus de s unités d’écart de sa moyenne est inférieure à 1<br />

s 2.<br />

L’aspect remarquable de l’inégalité de Tchebychev est son universalité, puisqu’elle est vérifiée quelle<br />

que soit la loi de la variable X (si tant est bien sûr que celle-ci admette une variance). Le prix<br />

à payer est qu’elle ne donne souvent en pratique que de médiocres majorations de la queue de<br />

distribution. Elle prend néanmoins toute sa puissance pour prouver des résultats génér<strong>aux</strong>, c’est<br />

par exemple la méthode typique de démonstration de la loi faible des grands nombres.<br />

Exemple. Une application de l’inégalité de Tchebychev est donnée en exercice 2.21.<br />

2.3.3 Autres moments<br />

On va maintenant généraliser les notions d’espérance et de variance.<br />

Définition 2.6<br />

Soit X une variable aléatoire discrète et m ∈Æ∗ . Sous réserve d’existence, on appelle :<br />

(i) moment d’ordre m de X la quantité<br />

E[X m ] = <br />

(ii) moment centré d’ordre m de X la quantité<br />

i∈I<br />

x m i pi ;<br />

E[(X −E[X]) m ] = <br />

(xi −E[X]) m pi.<br />

Arnaud Guyader - <strong>Rennes</strong> 2 <strong>Probabilités</strong><br />

i∈I

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!