Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
2.3. Moments d’une variable discrète 61<br />
2.3 Moments d’une variable discrète<br />
Dans toute cette section, comme précédemment, X est une variable aléatoire discrète à valeurs<br />
dans X = (xi)i∈I et de loi (pi)i∈I.<br />
2.3.1 Espérance<br />
Commençons par un rappel sur les séries : on dit que la série numérique un est absolument<br />
convergente si la série |un| est convergente. On sait que l’absolue convergence d’une série implique<br />
sa convergence. Si la série un est convergente, mais pas absolument convergente, on dit<br />
qu’elle est semi-convergente. C’est le cas de la série harmonique alternée (−1) n<br />
n (dont la somme<br />
vaut −ln2). Etant donné leurs problèmes de commutativité, on fuira comme la peste les séries<br />
semi-convergentes.<br />
Définition 2.4 (Espérance)<br />
On dit que la variable X admet une espérance si la série <br />
i∈I xipi est absolument convergente,<br />
c’est-à-dire si : <br />
|xi|pi < +∞.<br />
Si tel est le cas, on appelle espérance de X et on note E[X] la quantité :<br />
E[X] = <br />
xiÈ(X = xi) = <br />
xipi.<br />
i∈I<br />
i∈I<br />
Cette définition semble un peu tordue : on commence par vérifier une certaine condition et, si elle<br />
est vérifiée, on définit l’objet qui nous intéresse d’une autre façon. Nous reviendrons plus loin sur la<br />
raison de tout ceci. Remarquons néanmoins dès à présent que si l’ensemble X des valeurs possibles<br />
de X est fini, il n’y a rien à vérifier et l’espérance de X est toujours définie. Si X est infini mais<br />
contenu dansÊ+ ou dansÊ− , l’absolue convergence équivaut à la convergence, donc la vérification<br />
se fait en même temps que le calcul de l’espérance. Le cas critique est celui de X infini avec une infinité<br />
de valeurs positives et une infinité de valeurs négatives (cf. le second contre-exemple ci-après).<br />
Terminologie. Le terme “espérance” est historique et dû au fait que les probabilités sont nées des<br />
jeux d’argent. On peut penser en particulier <strong>aux</strong> paris du Chevalier de Méré (cf. exercice 1.36) :<br />
celui-ci considérait par exemple, à raison, que miser sur l’apparition d’au moins un 6 sur 4 lancers<br />
successifs d’un dé était avantageux. Il avait donc l’espoir d’un gain positif en moyenne.<br />
Interprétation. L’espérance de X peut être vue comme la moyenne des valeurs xi pondérées par<br />
les probabilités pi, c’est pourquoi on dit aussi moyenne de X pour parler de son espérance (cette<br />
moyenne pondérée correspondant bien sûr au barycentre vu dans les petites classes). En particulier,<br />
si X prend ses valeurs entre a et b (i.e. X ⊂ [a,b]), on aura nécessairement a ≤ E[X] ≤ b.<br />
Exemples :<br />
1. Lancer d’un dé : votre gain moyen est<br />
i∈I<br />
E[X] = (−1)×È(X = −1)+1×È(X = 1) = 0.<br />
En moyenne, vous ne perdrez ni ne gagnerez donc rien à ce jeu (rien d’étonnant).<br />
2. Lancer de deux dés : l’espérance de la somme X des deux dés est<br />
E[X] = 2È(X = 2)+···+12È(X = 12) = ...(petit calcul)··· = 7.<br />
<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2