Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2

sites.univ.rennes2.fr
from sites.univ.rennes2.fr More from this publisher
26.06.2013 Views

68 Chapitre 2. Variables aléatoires discrètes qui s’écrit encore : E[X(X −1)] = e −1 +∞ n=2 1 (n−2)! = e−1 +∞ n=0 1 n! = e−1 e = 1, d’où l’on déduit que E[X 2 ] = E[X(X − 1)] + E[X] = 1 + 1 = 2 et Var(X) = E[X 2 ] − E[X] 2 = 2 − 1 = 1. Ainsi une variable qui suit une loi de Poisson de paramètre 1 a pour variance 1. On montrera plus généralement que si X ∼ P(λ), alors E[X] = Var(X) = λ. Nous avons dit plus haut que l’écart-type permet d’avoir une idée de l’écart typique entre une variable aléatoire et sa moyenne. Cette idée est précisée par la célèbre inégalité de Tchebychev, également appelée inégalité de Bienaymé-Tchebychev. Théorème 2.2 (Inégalité de Tchebychev) Soit X une variable aléatoire discrète admettant une variance, alors : ∀t > 0 È(|X −E[X]| ≥ t) ≤ Var(X) t 2 . Preuve. Puisqu’on peut voir cette inégalité comme un cas particulier de l’inégalité de Markov, nous donnerons sa preuve en section suivante. Interprétation. Si on pose t = sσ(X), l’inégalité de Tchebychev se réécrit pour tout s > 0 : È(|X −E[X]| ≥ sσ(X)) ≤ 1 s 2. Si on voit l’écart-type σ(X) comme une unité d’écart, ceci dit que la probabilité qu’une variable s’éloigne de plus de s unités d’écart de sa moyenne est inférieure à 1 s 2. L’aspect remarquable de l’inégalité de Tchebychev est son universalité, puisqu’elle est vérifiée quelle que soit la loi de la variable X (si tant est bien sûr que celle-ci admette une variance). Le prix à payer est qu’elle ne donne souvent en pratique que de médiocres majorations de la queue de distribution. Elle prend néanmoins toute sa puissance pour prouver des résultats généraux, c’est par exemple la méthode typique de démonstration de la loi faible des grands nombres. Exemple. Une application de l’inégalité de Tchebychev est donnée en exercice 2.21. 2.3.3 Autres moments On va maintenant généraliser les notions d’espérance et de variance. Définition 2.6 Soit X une variable aléatoire discrète et m ∈Æ∗ . Sous réserve d’existence, on appelle : (i) moment d’ordre m de X la quantité E[X m ] = (ii) moment centré d’ordre m de X la quantité i∈I x m i pi ; E[(X −E[X]) m ] = (xi −E[X]) m pi. Arnaud Guyader - Rennes 2 Probabilités i∈I

2.3. Moments d’une variable discrète 69 Ainsi l’espérance de X est le moment d’ordre 1 et sa variance le moment centré d’ordre 2. Précisons au passage un point de vocabulaire : on dit que X est une variable centrée si E[X] = 0 et qu’elle est réduite si Var[X] = 1. Si X admet une variance non nulle, on dit qu’on centre et réduit X en considérant la variable Y = (X −E[X])/σ(X). Proposition 2.3 Soit X une variable aléatoire discrète, alors si X admet un moment d’ordre m ∈Æ∗ , X admet des moments de tout ordre n ∈ {1,...,m}. Preuve. Effectuons une partition de l’ensemble I d’indices en deux sous-ensembles E0 et E1 : E0 = {i ∈ I : |xi| ≤ 1} E1 = {i ∈ I : |xi| > 1} Soit maintenant n ∈ {1,...,m}, il nous faut montrer la convergence de la série i∈I |xi| npi, or : ∀i ∈ I |xi| n 1 si i ∈ E0 ≤ |xi| m si i ∈ E1 D’où il sort que : i∈I et il suit : |xi| n pi = |xi| n pi + |xi| n pi ≤ i∈I donc l’affaire est entendue. i∈E0 |xi| n pi ≤ i∈I pi + i∈I i∈E1 i∈E0 pi + |xi| m pi, i∈E1 |xi| m pi = 1+E[|X| m ] < +∞, L’existence d’un moment d’ordre élevé assure une décroissance d’autant plus rapide de la queue de la distribution de X à l’infini, comme le montre l’inégalité de Markov. On peut la voir comme une généralisation de l’inégalité de Tchebychev. Théorème 2.3 (Inégalité de Markov) Soit X une variable aléatoire discrète, alors si X admet un moment d’ordre m ∈Æ∗ , on a : ∀t > 0 È(|X| ≥ t) ≤ E[|X|m ] . tm Preuve. Reprenons l’idée de la preuve ci-dessus, avec cette fois : E0 = {i ∈ I : |xi| < t} E1 = {i ∈ I : |xi| ≥ t} Remarquons d’emblée queÈ(|X| ≥ t) = i∈E1 pi, d’où l’idée de la décomposition : E[|X| m ] = |xi| m pi + |xi| m pi ≥ |xi| m pi, i∈E0 or pour tout i ∈ E1, |xi| m ≥ t m , donc : E[|X| m m ] ≥ t i∈E1 i∈E1 i∈E1 pi = t mÈ(|X| ≥ t). Probabilités Arnaud Guyader - Rennes 2

2.3. Moments d’une variable discrète 69<br />

Ainsi l’espérance de X est le moment d’ordre 1 et sa variance le moment centré d’ordre 2. Précisons<br />

au passage un point de vocabulaire : on dit que X est une variable centrée si E[X] = 0 et qu’elle<br />

est réduite si Var[X] = 1. Si X admet une variance non nulle, on dit qu’on centre et réduit X en<br />

considérant la variable Y = (X −E[X])/σ(X).<br />

Proposition 2.3<br />

Soit X une variable aléatoire discrète, alors si X admet un moment d’ordre m ∈Æ∗ , X admet des<br />

moments de tout ordre n ∈ {1,...,m}.<br />

Preuve. Effectuons une partition de l’ensemble I d’indices en deux sous-ensembles E0 et E1 :<br />

E0 = {i ∈ I : |xi| ≤ 1}<br />

E1 = {i ∈ I : |xi| > 1}<br />

Soit maintenant n ∈ {1,...,m}, il nous faut montrer la convergence de la série <br />

i∈I |xi| npi, or :<br />

∀i ∈ I |xi| n <br />

1 si i ∈ E0<br />

≤<br />

|xi| m si i ∈ E1<br />

D’où il sort que :<br />

<br />

i∈I<br />

et il suit : <br />

|xi| n pi = <br />

|xi| n pi + <br />

|xi| n pi ≤ <br />

i∈I<br />

donc l’affaire est entendue.<br />

i∈E0<br />

|xi| n pi ≤ <br />

i∈I<br />

pi + <br />

i∈I<br />

i∈E1<br />

i∈E0<br />

pi + <br />

|xi| m pi,<br />

i∈E1<br />

|xi| m pi = 1+E[|X| m ] < +∞,<br />

L’existence d’un moment d’ordre élevé assure une décroissance d’autant plus rapide de la queue<br />

de la distribution de X à l’infini, comme le montre l’inégalité de Markov. On peut la voir comme<br />

une généralisation de l’inégalité de Tchebychev.<br />

Théorème 2.3 (Inégalité de Markov)<br />

Soit X une variable aléatoire discrète, alors si X admet un moment d’ordre m ∈Æ∗ , on a :<br />

∀t > 0 È(|X| ≥ t) ≤ E[|X|m ]<br />

.<br />

tm Preuve. Reprenons l’idée de la preuve ci-dessus, avec cette fois :<br />

<br />

E0 = {i ∈ I : |xi| < t}<br />

E1 = {i ∈ I : |xi| ≥ t}<br />

Remarquons d’emblée queÈ(|X| ≥ t) = <br />

i∈E1 pi, d’où l’idée de la décomposition :<br />

E[|X| m ] = <br />

|xi| m pi + <br />

|xi| m pi ≥ <br />

|xi| m pi,<br />

i∈E0<br />

or pour tout i ∈ E1, |xi| m ≥ t m , donc :<br />

E[|X| m <br />

m<br />

] ≥ t<br />

i∈E1<br />

i∈E1<br />

i∈E1<br />

pi = t mÈ(|X| ≥ t).<br />

<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!