Introduction aux Probabilités - Université Rennes 2

Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2

sites.univ.rennes2.fr
from sites.univ.rennes2.fr More from this publisher
26.06.2013 Views

138 Chapitre 3. Variables aléatoires à densité 1. Quelle est la loi suivie par X ? 2. Grâce à l’approximation normale, donner en fonction de n et p un intervalle où X a 95% de chances de se situer. 3. Donner un estimateur naturel ˆp de p. Quelle est sa moyenne? 4. Donner en fonction de n et p un intervalle où ˆp a 95% de chances de se situer. 5. Donner un majorant de x(1−x) lorsque x ∈ [0,1]. En déduire un intervalle de confiance à 95% pour p. 6. Quelle est la taille de cet intervalle lorsqu’on interroge 1000 personnes ? 7. Combien de personnes faut-il interroger pour obtenir une estimation à ±2% ? Exercice 3.26 (Surbooking (bis)) Reprenons le contexte de l’exercice 2.22 : des études effectuées par une compagnie aérienne montrent qu’il y a une probabilité 0,05 qu’un passager ayant fait une réservation n’effectue pas le vol. Dès lors, elle vend toujours 94 billets pour ses avions à 90 places. On veut évaluer la probabilité qu’il y ait un problème à l’embarquement, c’est-à-dire qu’il y ait au plus 3 absents. 1. Estimer cette probabilité en utilisant l’approximation d’une loi binomiale par une loi normale. 2. Comparer à la vraie valeur d’une part et à la valeur obtenue par l’approximation de Poisson d’autre part. Comment expliquez-vous que l’approximation gaussienne ne marche pas ici? Exercice 3.27 (Queue de la gaussienne) On appelle fonction de Marcum, ou queue de la gaussienne, la fonction définie pour tout réel x par : Q(x) = 1 √ 2π +∞ x e −t2 2 dt. 1. Soit X une variable aléatoire qui suit une loi normale centrée réduite N(0,1). Représenter la densité de X, puis Q(x) sur ce même dessin. Soit F la fonction de répartition de X : donner la relation entre F(x) et Q(x). 2. Soit x > 0 fixé. Dans l’intégrale définissant Q(x), effectuer le changement de variablet = x+u et, tenant compte de e −ux ≤ 1, montrer qu’on a : 3. Pour t ≥ x > 0, montrer que : 4. En déduire que : 1 (1+ 1 x 2) √ 2π +∞ x Q(x) ≤ 1 2 e−x2 2 . 1+ 1 t 2 1+ 1 x 2 ≤ 1 ≤ t x . 1+ 1 t2 e −t2 2 dt ≤ Q(x) ≤ 1 x √ 2π +∞ 5. Calculer la dérivée de 1 te−t2 2 . En déduire que, pour tout x > 0, on a : 6. En déduire un équivalent de Q(x) en +∞. 1 (1+ 1 x2)x √ 2π e−x2 2 ≤ Q(x) ≤ 1 x √ 2π e−x2 2 . x te −t2 2 dt. Arnaud Guyader - Rennes 2 Probabilités

3.5. Exercices 139 7. Application : en communications numériques, pour une modulation binaire, les symboles transmis valent ± √ Eb, où Eb est appelée énergie moyenne par bit. Quand il transite par un canal à bruit gaussien, le signal reçu en sortie Y est égal à la somme du symbole d’entrée et d’une variable aléatoire indépendante B ∼ N(0, N0 2 ), où N0 est appelé puissance moyenne du bruit. (a) Supposons que le symbole d’entrée soit + √ Eb. Donner la loi de Y en fonction de Eb et N0. Même question si le symbole d’entrée est − √ Eb. (b) On reçoit y ∈Êen sortie de canal, mais on ignore ce qu’était le symbole d’entrée : quelle règle simple proposez-vous pour décider si en entrée le symbole émis était a priori équiprobablement + √ Eb ou − √ Eb ? (c) Montrer que la probabilité d’erreur Pe faite avec cette règle de décision est : 2Eb Pe = Q . La quantité Eb est appelée rapport signal à bruit et intervient très souvent en commu- N0 nications numériques (on l’exprime usuellement en décibels). Exercice 3.28 (Entropie d’une variable aléatoire) Si X est une variable aléatoire réelle admettant une densité f, on appelle entropie de X la quantité (si elle est définie) : h(X) = E[−lnf(X)] = − +∞ −∞ N0 f(x)lnf(x)dx. Grosso modo, l’entropie d’une variable aléatoire mesure le degré d’incertitude qu’on a sur l’issue d’un tirage de cette variable aléatoire. 1. Supposons que X ∼ N(0,1), loi normale centrée réduite. Montrer qu’elle a pour entropie : h(X) = 1 2 (1+ln(2π)). 2. Supposons que X ∼ N(m,σ 2 ). Montrer qu’elle a pour entropie : h(X) = 1 2 (1 +ln(2πσ2 )). Ainsi, au moins pour les lois normales, l’entropie est d’autant plus grande que la variance est grande. On va montrer dans la suite que, parmi les variables aléatoires de variance donnée, celles qui ont la plus grande entropie sont celles qui suivent une loi normale. 3. Soit donc X1 ∼ N(0,σ 2 ), dont la densité est notée ϕ, et X2 une variable aléatoire centrée de densité f et de variance σ2 , c’est-à-dire que : +∞ x −∞ 2 f(x)dx = σ 2 . On suppose pour simplifier que f est strictement positive surÊ. (a) Vérifier que (sous réserve d’existence des intégrales) : h(X2) = +∞ −∞ f(x)ln ϕ(x) f(x) dx− +∞ (b) Montrer que pour tout x > 0, logx ≤ x−1. En déduire que : +∞ −∞ −∞ f(x)ln ϕ(x) dx ≤ 0. f(x) f(x)lnϕ(x)dx. Probabilités Arnaud Guyader - Rennes 2

138 Chapitre 3. Variables aléatoires à densité<br />

1. Quelle est la loi suivie par X ?<br />

2. Grâce à l’approximation normale, donner en fonction de n et p un intervalle où X a 95% de<br />

chances de se situer.<br />

3. Donner un estimateur naturel ˆp de p. Quelle est sa moyenne?<br />

4. Donner en fonction de n et p un intervalle où ˆp a 95% de chances de se situer.<br />

5. Donner un majorant de x(1−x) lorsque x ∈ [0,1]. En déduire un intervalle de confiance à<br />

95% pour p.<br />

6. Quelle est la taille de cet intervalle lorsqu’on interroge 1000 personnes ?<br />

7. Combien de personnes faut-il interroger pour obtenir une estimation à ±2% ?<br />

Exercice 3.26 (Surbooking (bis))<br />

Reprenons le contexte de l’exercice 2.22 : des études effectuées par une compagnie aérienne<br />

montrent qu’il y a une probabilité 0,05 qu’un passager ayant fait une réservation n’effectue pas le<br />

vol. Dès lors, elle vend toujours 94 billets pour ses avions à 90 places. On veut évaluer la probabilité<br />

qu’il y ait un problème à l’embarquement, c’est-à-dire qu’il y ait au plus 3 absents.<br />

1. Estimer cette probabilité en utilisant l’approximation d’une loi binomiale par une loi normale.<br />

2. Comparer à la vraie valeur d’une part et à la valeur obtenue par l’approximation de Poisson<br />

d’autre part. Comment expliquez-vous que l’approximation gaussienne ne marche pas ici?<br />

Exercice 3.27 (Queue de la gaussienne)<br />

On appelle fonction de Marcum, ou queue de la gaussienne, la fonction définie pour tout réel x<br />

par :<br />

Q(x) = 1<br />

√ 2π<br />

+∞<br />

x<br />

e −t2<br />

2 dt.<br />

1. Soit X une variable aléatoire qui suit une loi normale centrée réduite N(0,1). Représenter la<br />

densité de X, puis Q(x) sur ce même dessin. Soit F la fonction de répartition de X : donner<br />

la relation entre F(x) et Q(x).<br />

2. Soit x > 0 fixé. Dans l’intégrale définissant Q(x), effectuer le changement de variablet = x+u<br />

et, tenant compte de e −ux ≤ 1, montrer qu’on a :<br />

3. Pour t ≥ x > 0, montrer que :<br />

4. En déduire que :<br />

1<br />

(1+ 1<br />

x 2) √ 2π<br />

+∞<br />

x<br />

Q(x) ≤ 1<br />

2 e−x2 2 .<br />

1+ 1<br />

t 2<br />

1+ 1<br />

x 2<br />

≤ 1 ≤ t<br />

x .<br />

<br />

1+ 1<br />

t2 <br />

e −t2<br />

2 dt ≤ Q(x) ≤ 1<br />

x √ 2π<br />

+∞<br />

5. Calculer la dérivée de 1<br />

te−t2 2 . En déduire que, pour tout x > 0, on a :<br />

6. En déduire un équivalent de Q(x) en +∞.<br />

1<br />

(1+ 1<br />

x2)x √ 2π e−x2 2 ≤ Q(x) ≤ 1<br />

x √ 2π e−x2 2 .<br />

x<br />

te −t2<br />

2 dt.<br />

Arnaud Guyader - <strong>Rennes</strong> 2 <strong>Probabilités</strong>

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!