Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2

sites.univ.rennes2.fr
from sites.univ.rennes2.fr More from this publisher
26.06.2013 Views

124 Chapitre 3. Variables aléatoires à densité Les propriétés suivantes, ainsi que leurs preuves, sont les mêmes que dans le cas discret. Propriétés 3.3 Soit X une variable aléatoire à densité, alors sous réserve d’existence de sa variance : (i) Var(X) = E[X 2 ]−E[X] 2 . (ii) Si a et b sont deux réels, Var(aX +b) = a 2 Var(X). On va maintenant généraliser les notions d’espérance et de variance. Définition 3.6 Soit X une variable aléatoire de densité f et m ∈Æ∗ . Sous réserve de convergence de l’intégrale, on appelle : (i) moment d’ordre m de X la quantité E[X m Êx ] = m f(x)dx. (ii) moment centré d’ordre m de X la quantité E[(X −E[X]) m Ê(x−E[X]) ] = m f(x)dx. Ainsi l’espérance de X est le moment d’ordre 1 et sa variance le moment centré d’ordre 2. Rappelons aussi que X est dite centrée si E[X] = 0 et réduite si Var[X] = 1. On dit qu’on centre et réduit X en considérant la variable Y = X−E[X] σ(X) . Le moment d’ordre 3 de Y est alors appelé coefficient d’asymétrie (skewness) de X et le moment d’ordre 4 de Y est appelé kurtosis, ou coefficient d’aplatissement, de X. Proposition 3.3 Soit X une variable aléatoire à densité, alors si X admet un moment d’ordre m ∈Æ∗ , X admet des moments de tout ordre j ∈ {1,...,m}. L’existence d’un moment d’ordre élevé assure une décroissance d’autant plus rapide de la queue de la distribution de X à l’infini, comme le montre l’inégalite de Markov. Tout comme le résultat précédent, ce théorème est admis. Théorème 3.2 (Inégalité de Markov) Soit X une variable aléatoire à densité, alors si X admet un moment d’ordre m ∈Æ∗ , on a : ∀t > 0 È(|X| ≥ t) ≤ E[|X|m ] . tm Une première conséquence de l’inégalité de Markov : une variable ayant des moments de tout ordre a une queue de distribution à décroissance plus rapide que n’importe quelle fraction rationnelle (par exemple exponentielle). Une seconde conséquence : Tchebychev. Théorème 3.3 (Inégalité de Tchebychev) Soit X une variable aléatoire admettant une variance, alors : ∀t > 0 È(|X −E[X]| ≥ t) ≤ Var(X) t 2 . Arnaud Guyader - Rennes 2 Probabilités

3.4. Lois usuelles 125 Interprétation. C’est la même que dans le cas discret. Si on pose t = sσ(X), l’inégalité de Tchebychev se réécrit pour tout s > 0 : È(|X −E[X]| ≥ sσ(X)) ≤ 1 s 2. Si on voit l’écart-type σ(X) comme une unité d’écart, ceci dit que la probabilité qu’une variable s’éloigne de plus de s unités d’écart de sa moyenne est inférieure à 1 s 2. Remarque. Dans le cas discret, tout a été démontré facilement grâce à la seule théorie des séries numériques. Dès qu’on passe au cas absolument continu, ça se corse. En particulier, la plupart des résultats énoncés dans ce chapitre ont été prouvés sous des hypothèses inutilement restrictives sur la densité f. Ceci vient du fait que le bon cadre théorique pour traiter des probabilités en toute généralité est celui de l’intégrale de Lebesgue, laquelle permet d’unifier et d’englober les deux situations, mais dépasse largement le cadre de ce cours introductif. 3.4 Lois usuelles Comme dans le cas discret, il existe un certain nombre de lois classiques pour les variables à densité. Nous en détaillons ici quelques-unes. 3.4.1 Loi uniforme La loi uniforme sert à préciser ce qu’on entend par un énoncé du type : “On tire un point au hasard entre 0 et 1”. C’est l’équivalent continu de la loi uniforme vue dans le cas discret. Définition 3.7 (Loi uniforme) Soit a et b deux réels, avec a < b. On dit que X suit une loi uniforme sur l’intervalle [a,b], noté X ∼ U [a,b], si X admet pour densité f(x) = 1 b−a [a,b](x). Remarque. On peut tout aussi bien ouvrir ou fermer les crochets au bord de l’intervalle. Espérance et variance se calculent alors sans problème, ceci a d’ailleurs déjà été fait en Section 3.3 dans le cas d’une loi uniforme sur [0,1]. Proposition 3.4 (Moments d’une loi uniforme) Si X suit une loi uniforme sur [a,b], alors : E[X] = a+b 2 & Var(X) = (b−a)2 . 12 L’espérance de X correspond donc au milieu du segment [a,b], ce qui n’a rien d’étonnant si l’on pense à l’espérance comme à une valeur moyenne. La fonction de répartition ne pose pas non plus de difficultés. Proposition 3.5 (Fonction de répartition d’une loi uniforme) Si X suit une loi uniforme sur [a,b], alors sa fonction de répartition F est : ⎧ ⎨ 0 si x ≤ a x−a F(x) = ⎩ b−a si a ≤ x ≤ b 1 si x ≥ b Probabilités Arnaud Guyader - Rennes 2

3.4. Lois usuelles 125<br />

Interprétation. C’est la même que dans le cas discret. Si on pose t = sσ(X), l’inégalité de<br />

Tchebychev se réécrit pour tout s > 0 :<br />

È(|X −E[X]| ≥ sσ(X)) ≤ 1<br />

s 2.<br />

Si on voit l’écart-type σ(X) comme une unité d’écart, ceci dit que la probabilité qu’une variable<br />

s’éloigne de plus de s unités d’écart de sa moyenne est inférieure à 1<br />

s 2.<br />

Remarque. Dans le cas discret, tout a été démontré facilement grâce à la seule théorie des séries<br />

numériques. Dès qu’on passe au cas absolument continu, ça se corse. En particulier, la plupart<br />

des résultats énoncés dans ce chapitre ont été prouvés sous des hypothèses inutilement restrictives<br />

sur la densité f. Ceci vient du fait que le bon cadre théorique pour traiter des probabilités en<br />

toute généralité est celui de l’intégrale de Lebesgue, laquelle permet d’unifier et d’englober les<br />

deux situations, mais dépasse largement le cadre de ce cours introductif.<br />

3.4 Lois usuelles<br />

Comme dans le cas discret, il existe un certain nombre de lois classiques pour les variables à densité.<br />

Nous en détaillons ici quelques-unes.<br />

3.4.1 Loi uniforme<br />

La loi uniforme sert à préciser ce qu’on entend par un énoncé du type : “On tire un point au hasard<br />

entre 0 et 1”. C’est l’équivalent continu de la loi uniforme vue dans le cas discret.<br />

Définition 3.7 (Loi uniforme)<br />

Soit a et b deux réels, avec a < b. On dit que X suit une loi uniforme sur l’intervalle [a,b], noté<br />

X ∼ U [a,b], si X admet pour densité f(x) = 1<br />

b−a [a,b](x).<br />

Remarque. On peut tout aussi bien ouvrir ou fermer les crochets au bord de l’intervalle.<br />

Espérance et variance se calculent alors sans problème, ceci a d’ailleurs déjà été fait en Section 3.3<br />

dans le cas d’une loi uniforme sur [0,1].<br />

Proposition 3.4 (Moments d’une loi uniforme)<br />

Si X suit une loi uniforme sur [a,b], alors :<br />

E[X] = a+b<br />

2<br />

& Var(X) = (b−a)2<br />

.<br />

12<br />

L’espérance de X correspond donc au milieu du segment [a,b], ce qui n’a rien d’étonnant si l’on<br />

pense à l’espérance comme à une valeur moyenne. La fonction de répartition ne pose pas non plus<br />

de difficultés.<br />

Proposition 3.5 (Fonction de répartition d’une loi uniforme)<br />

Si X suit une loi uniforme sur [a,b], alors sa fonction de répartition F est :<br />

⎧<br />

⎨ 0 si x ≤ a<br />

x−a<br />

F(x) =<br />

⎩ b−a si a ≤ x ≤ b<br />

1 si x ≥ b<br />

<strong>Probabilités</strong> Arnaud Guyader - <strong>Rennes</strong> 2

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!