Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2
68 Chapitre 2. Variables aléatoires discrètes qui s’écrit encore : E[X(X −1)] = e −1 +∞ n=2 1 (n−2)! = e−1 +∞ n=0 1 n! = e−1 e = 1, d’où l’on déduit que E[X 2 ] = E[X(X − 1)] + E[X] = 1 + 1 = 2 et Var(X) = E[X 2 ] − E[X] 2 = 2 − 1 = 1. Ainsi une variable qui suit une loi de Poisson de paramètre 1 a pour variance 1. On montrera plus généralement que si X ∼ P(λ), alors E[X] = Var(X) = λ. Nous avons dit plus haut que l’écart-type permet d’avoir une idée de l’écart typique entre une variable aléatoire et sa moyenne. Cette idée est précisée par la célèbre inégalité de Tchebychev, également appelée inégalité de Bienaymé-Tchebychev. Théorème 2.2 (Inégalité de Tchebychev) Soit X une variable aléatoire discrète admettant une variance, alors : ∀t > 0 È(|X −E[X]| ≥ t) ≤ Var(X) t 2 . Preuve. Puisqu’on peut voir cette inégalité comme un cas particulier de l’inégalité de Markov, nous donnerons sa preuve en section suivante. Interprétation. Si on pose t = sσ(X), l’inégalité de Tchebychev se réécrit pour tout s > 0 : È(|X −E[X]| ≥ sσ(X)) ≤ 1 s 2. Si on voit l’écart-type σ(X) comme une unité d’écart, ceci dit que la probabilité qu’une variable s’éloigne de plus de s unités d’écart de sa moyenne est inférieure à 1 s 2. L’aspect remarquable de l’inégalité de Tchebychev est son universalité, puisqu’elle est vérifiée quelle que soit la loi de la variable X (si tant est bien sûr que celle-ci admette une variance). Le prix à payer est qu’elle ne donne souvent en pratique que de médiocres majorations de la queue de distribution. Elle prend néanmoins toute sa puissance pour prouver des résultats généraux, c’est par exemple la méthode typique de démonstration de la loi faible des grands nombres. Exemple. Une application de l’inégalité de Tchebychev est donnée en exercice 2.21. 2.3.3 Autres moments On va maintenant généraliser les notions d’espérance et de variance. Définition 2.6 Soit X une variable aléatoire discrète et m ∈Æ∗ . Sous réserve d’existence, on appelle : (i) moment d’ordre m de X la quantité E[X m ] = (ii) moment centré d’ordre m de X la quantité i∈I x m i pi ; E[(X −E[X]) m ] = (xi −E[X]) m pi. Arnaud Guyader - Rennes 2 Probabilités i∈I
2.3. Moments d’une variable discrète 69 Ainsi l’espérance de X est le moment d’ordre 1 et sa variance le moment centré d’ordre 2. Précisons au passage un point de vocabulaire : on dit que X est une variable centrée si E[X] = 0 et qu’elle est réduite si Var[X] = 1. Si X admet une variance non nulle, on dit qu’on centre et réduit X en considérant la variable Y = (X −E[X])/σ(X). Proposition 2.3 Soit X une variable aléatoire discrète, alors si X admet un moment d’ordre m ∈Æ∗ , X admet des moments de tout ordre n ∈ {1,...,m}. Preuve. Effectuons une partition de l’ensemble I d’indices en deux sous-ensembles E0 et E1 : E0 = {i ∈ I : |xi| ≤ 1} E1 = {i ∈ I : |xi| > 1} Soit maintenant n ∈ {1,...,m}, il nous faut montrer la convergence de la série i∈I |xi| npi, or : ∀i ∈ I |xi| n 1 si i ∈ E0 ≤ |xi| m si i ∈ E1 D’où il sort que : i∈I et il suit : |xi| n pi = |xi| n pi + |xi| n pi ≤ i∈I donc l’affaire est entendue. i∈E0 |xi| n pi ≤ i∈I pi + i∈I i∈E1 i∈E0 pi + |xi| m pi, i∈E1 |xi| m pi = 1+E[|X| m ] < +∞, L’existence d’un moment d’ordre élevé assure une décroissance d’autant plus rapide de la queue de la distribution de X à l’infini, comme le montre l’inégalité de Markov. On peut la voir comme une généralisation de l’inégalité de Tchebychev. Théorème 2.3 (Inégalité de Markov) Soit X une variable aléatoire discrète, alors si X admet un moment d’ordre m ∈Æ∗ , on a : ∀t > 0 È(|X| ≥ t) ≤ E[|X|m ] . tm Preuve. Reprenons l’idée de la preuve ci-dessus, avec cette fois : E0 = {i ∈ I : |xi| < t} E1 = {i ∈ I : |xi| ≥ t} Remarquons d’emblée queÈ(|X| ≥ t) = i∈E1 pi, d’où l’idée de la décomposition : E[|X| m ] = |xi| m pi + |xi| m pi ≥ |xi| m pi, i∈E0 or pour tout i ∈ E1, |xi| m ≥ t m , donc : E[|X| m m ] ≥ t i∈E1 i∈E1 i∈E1 pi = t mÈ(|X| ≥ t). Probabilités Arnaud Guyader - Rennes 2
- Page 21 and 22: 1.4. Exercices 17 (b) An =]−∞,
- Page 23 and 24: 1.4. Exercices 19 2. Méthode B : o
- Page 25 and 26: 1.4. Exercices 21 1. Quelle est la
- Page 27 and 28: 1.4. Exercices 23 Exercice 1.43 (Le
- Page 29 and 30: 1.5. Corrigés 25 Exercice 1.53 (Ut
- Page 31 and 32: 1.5. Corrigés 27 1.0 0.9 0.8 0.7 0
- Page 33 and 34: 1.5. Corrigés 29 2. Le triangle de
- Page 35 and 36: 1.5. Corrigés 31 L’hypothèse de
- Page 37 and 38: 1.5. Corrigés 33 et on peut donc u
- Page 39 and 40: 1.5. Corrigés 35 2. Soit A et B de
- Page 41 and 42: 1.5. Corrigés 37 - Concernant la l
- Page 43 and 44: 1.5. Corrigés 39 q Figure 1.9 - Un
- Page 45 and 46: 1.5. Corrigés 41 et pour l’Europ
- Page 47 and 48: 1.5. Corrigés 43 3. On cherche cet
- Page 49 and 50: 1.5. Corrigés 45 Exercice 1.27 (La
- Page 51 and 52: 1.5. Corrigés 47 Exercice 1.31 (Le
- Page 53 and 54: 1.5. Corrigés 49 qui se calcule à
- Page 55 and 56: 1.5. Corrigés 51 2. Cette fois la
- Page 57 and 58: 1.5. Corrigés 53 Figure 1.11 - Pro
- Page 59: 1.5. Corrigés 55 3. Nous voulons c
- Page 62 and 63: 58 Chapitre 2. Variables aléatoire
- Page 64 and 65: 60 Chapitre 2. Variables aléatoire
- Page 66 and 67: 62 Chapitre 2. Variables aléatoire
- Page 68 and 69: 64 Chapitre 2. Variables aléatoire
- Page 70 and 71: 66 Chapitre 2. Variables aléatoire
- Page 74 and 75: 70 Chapitre 2. Variables aléatoire
- Page 76 and 77: 72 Chapitre 2. Variables aléatoire
- Page 78 and 79: 74 Chapitre 2. Variables aléatoire
- Page 80 and 81: 76 Chapitre 2. Variables aléatoire
- Page 82 and 83: 78 Chapitre 2. Variables aléatoire
- Page 84 and 85: 80 Chapitre 2. Variables aléatoire
- Page 86 and 87: 82 Chapitre 2. Variables aléatoire
- Page 88 and 89: 84 Chapitre 2. Variables aléatoire
- Page 90 and 91: 86 Chapitre 2. Variables aléatoire
- Page 92 and 93: 88 Chapitre 2. Variables aléatoire
- Page 94 and 95: 90 Chapitre 2. Variables aléatoire
- Page 96 and 97: 92 Chapitre 2. Variables aléatoire
- Page 98 and 99: 94 Chapitre 2. Variables aléatoire
- Page 100 and 101: 96 Chapitre 2. Variables aléatoire
- Page 102 and 103: 98 Chapitre 2. Variables aléatoire
- Page 104 and 105: 100 Chapitre 2. Variables aléatoir
- Page 106 and 107: 102 Chapitre 2. Variables aléatoir
- Page 108 and 109: 104 Chapitre 2. Variables aléatoir
- Page 110 and 111: 106 Chapitre 2. Variables aléatoir
- Page 112 and 113: 108 Chapitre 2. Variables aléatoir
- Page 114 and 115: 110 Chapitre 2. Variables aléatoir
- Page 116 and 117: 112 Chapitre 2. Variables aléatoir
- Page 118 and 119: 114 Chapitre 2. Variables aléatoir
- Page 120 and 121: 116 Chapitre 3. Variables aléatoir
2.3. Moments d’une variable discrète 69<br />
Ainsi l’espérance de X est le moment d’ordre 1 et sa variance le moment centré d’ordre 2. Précisons<br />
au passage un point de vocabulaire : on dit que X est une variable centrée si E[X] = 0 et qu’elle<br />
est réduite si Var[X] = 1. Si X admet une variance non nulle, on dit qu’on centre et réduit X en<br />
considérant la variable Y = (X −E[X])/σ(X).<br />
Proposition 2.3<br />
Soit X une variable aléatoire discrète, alors si X admet un moment d’ordre m ∈Æ∗ , X admet des<br />
moments de tout ordre n ∈ {1,...,m}.<br />
Preuve. Effectuons une partition de l’ensemble I d’indices en deux sous-ensembles E0 et E1 :<br />
E0 = {i ∈ I : |xi| ≤ 1}<br />
E1 = {i ∈ I : |xi| > 1}<br />
Soit maintenant n ∈ {1,...,m}, il nous faut montrer la convergence de la série <br />
i∈I |xi| npi, or :<br />
∀i ∈ I |xi| n <br />
1 si i ∈ E0<br />
≤<br />
|xi| m si i ∈ E1<br />
D’où il sort que :<br />
<br />
i∈I<br />
et il suit : <br />
|xi| n pi = <br />
|xi| n pi + <br />
|xi| n pi ≤ <br />
i∈I<br />
donc l’affaire est entendue.<br />
i∈E0<br />
|xi| n pi ≤ <br />
i∈I<br />
pi + <br />
i∈I<br />
i∈E1<br />
i∈E0<br />
pi + <br />
|xi| m pi,<br />
i∈E1<br />
|xi| m pi = 1+E[|X| m ] < +∞,<br />
L’existence d’un moment d’ordre élevé assure une décroissance d’autant plus rapide de la queue<br />
de la distribution de X à l’infini, comme le montre l’inégalité de Markov. On peut la voir comme<br />
une généralisation de l’inégalité de Tchebychev.<br />
Théorème 2.3 (Inégalité de Markov)<br />
Soit X une variable aléatoire discrète, alors si X admet un moment d’ordre m ∈Æ∗ , on a :<br />
∀t > 0 È(|X| ≥ t) ≤ E[|X|m ]<br />
.<br />
tm Preuve. Reprenons l’idée de la preuve ci-dessus, avec cette fois :<br />
<br />
E0 = {i ∈ I : |xi| < t}<br />
E1 = {i ∈ I : |xi| ≥ t}<br />
Remarquons d’emblée queÈ(|X| ≥ t) = <br />
i∈E1 pi, d’où l’idée de la décomposition :<br />
E[|X| m ] = <br />
|xi| m pi + <br />
|xi| m pi ≥ <br />
|xi| m pi,<br />
i∈E0<br />
or pour tout i ∈ E1, |xi| m ≥ t m , donc :<br />
E[|X| m <br />
m<br />
] ≥ t<br />
i∈E1<br />
i∈E1<br />
i∈E1<br />
pi = t mÈ(|X| ≥ t).<br />
<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2