Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2
138 Chapitre 3. Variables aléatoires à densité 1. Quelle est la loi suivie par X ? 2. Grâce à l’approximation normale, donner en fonction de n et p un intervalle où X a 95% de chances de se situer. 3. Donner un estimateur naturel ˆp de p. Quelle est sa moyenne? 4. Donner en fonction de n et p un intervalle où ˆp a 95% de chances de se situer. 5. Donner un majorant de x(1−x) lorsque x ∈ [0,1]. En déduire un intervalle de confiance à 95% pour p. 6. Quelle est la taille de cet intervalle lorsqu’on interroge 1000 personnes ? 7. Combien de personnes faut-il interroger pour obtenir une estimation à ±2% ? Exercice 3.26 (Surbooking (bis)) Reprenons le contexte de l’exercice 2.22 : des études effectuées par une compagnie aérienne montrent qu’il y a une probabilité 0,05 qu’un passager ayant fait une réservation n’effectue pas le vol. Dès lors, elle vend toujours 94 billets pour ses avions à 90 places. On veut évaluer la probabilité qu’il y ait un problème à l’embarquement, c’est-à-dire qu’il y ait au plus 3 absents. 1. Estimer cette probabilité en utilisant l’approximation d’une loi binomiale par une loi normale. 2. Comparer à la vraie valeur d’une part et à la valeur obtenue par l’approximation de Poisson d’autre part. Comment expliquez-vous que l’approximation gaussienne ne marche pas ici? Exercice 3.27 (Queue de la gaussienne) On appelle fonction de Marcum, ou queue de la gaussienne, la fonction définie pour tout réel x par : Q(x) = 1 √ 2π +∞ x e −t2 2 dt. 1. Soit X une variable aléatoire qui suit une loi normale centrée réduite N(0,1). Représenter la densité de X, puis Q(x) sur ce même dessin. Soit F la fonction de répartition de X : donner la relation entre F(x) et Q(x). 2. Soit x > 0 fixé. Dans l’intégrale définissant Q(x), effectuer le changement de variablet = x+u et, tenant compte de e −ux ≤ 1, montrer qu’on a : 3. Pour t ≥ x > 0, montrer que : 4. En déduire que : 1 (1+ 1 x 2) √ 2π +∞ x Q(x) ≤ 1 2 e−x2 2 . 1+ 1 t 2 1+ 1 x 2 ≤ 1 ≤ t x . 1+ 1 t2 e −t2 2 dt ≤ Q(x) ≤ 1 x √ 2π +∞ 5. Calculer la dérivée de 1 te−t2 2 . En déduire que, pour tout x > 0, on a : 6. En déduire un équivalent de Q(x) en +∞. 1 (1+ 1 x2)x √ 2π e−x2 2 ≤ Q(x) ≤ 1 x √ 2π e−x2 2 . x te −t2 2 dt. Arnaud Guyader - Rennes 2 Probabilités
3.5. Exercices 139 7. Application : en communications numériques, pour une modulation binaire, les symboles transmis valent ± √ Eb, où Eb est appelée énergie moyenne par bit. Quand il transite par un canal à bruit gaussien, le signal reçu en sortie Y est égal à la somme du symbole d’entrée et d’une variable aléatoire indépendante B ∼ N(0, N0 2 ), où N0 est appelé puissance moyenne du bruit. (a) Supposons que le symbole d’entrée soit + √ Eb. Donner la loi de Y en fonction de Eb et N0. Même question si le symbole d’entrée est − √ Eb. (b) On reçoit y ∈Êen sortie de canal, mais on ignore ce qu’était le symbole d’entrée : quelle règle simple proposez-vous pour décider si en entrée le symbole émis était a priori équiprobablement + √ Eb ou − √ Eb ? (c) Montrer que la probabilité d’erreur Pe faite avec cette règle de décision est : 2Eb Pe = Q . La quantité Eb est appelée rapport signal à bruit et intervient très souvent en commu- N0 nications numériques (on l’exprime usuellement en décibels). Exercice 3.28 (Entropie d’une variable aléatoire) Si X est une variable aléatoire réelle admettant une densité f, on appelle entropie de X la quantité (si elle est définie) : h(X) = E[−lnf(X)] = − +∞ −∞ N0 f(x)lnf(x)dx. Grosso modo, l’entropie d’une variable aléatoire mesure le degré d’incertitude qu’on a sur l’issue d’un tirage de cette variable aléatoire. 1. Supposons que X ∼ N(0,1), loi normale centrée réduite. Montrer qu’elle a pour entropie : h(X) = 1 2 (1+ln(2π)). 2. Supposons que X ∼ N(m,σ 2 ). Montrer qu’elle a pour entropie : h(X) = 1 2 (1 +ln(2πσ2 )). Ainsi, au moins pour les lois normales, l’entropie est d’autant plus grande que la variance est grande. On va montrer dans la suite que, parmi les variables aléatoires de variance donnée, celles qui ont la plus grande entropie sont celles qui suivent une loi normale. 3. Soit donc X1 ∼ N(0,σ 2 ), dont la densité est notée ϕ, et X2 une variable aléatoire centrée de densité f et de variance σ2 , c’est-à-dire que : +∞ x −∞ 2 f(x)dx = σ 2 . On suppose pour simplifier que f est strictement positive surÊ. (a) Vérifier que (sous réserve d’existence des intégrales) : h(X2) = +∞ −∞ f(x)ln ϕ(x) f(x) dx− +∞ (b) Montrer que pour tout x > 0, logx ≤ x−1. En déduire que : +∞ −∞ −∞ f(x)ln ϕ(x) dx ≤ 0. f(x) f(x)lnϕ(x)dx. Probabilités Arnaud Guyader - Rennes 2
- Page 92 and 93: 88 Chapitre 2. Variables aléatoire
- Page 94 and 95: 90 Chapitre 2. Variables aléatoire
- Page 96 and 97: 92 Chapitre 2. Variables aléatoire
- Page 98 and 99: 94 Chapitre 2. Variables aléatoire
- Page 100 and 101: 96 Chapitre 2. Variables aléatoire
- Page 102 and 103: 98 Chapitre 2. Variables aléatoire
- Page 104 and 105: 100 Chapitre 2. Variables aléatoir
- Page 106 and 107: 102 Chapitre 2. Variables aléatoir
- Page 108 and 109: 104 Chapitre 2. Variables aléatoir
- Page 110 and 111: 106 Chapitre 2. Variables aléatoir
- Page 112 and 113: 108 Chapitre 2. Variables aléatoir
- Page 114 and 115: 110 Chapitre 2. Variables aléatoir
- Page 116 and 117: 112 Chapitre 2. Variables aléatoir
- Page 118 and 119: 114 Chapitre 2. Variables aléatoir
- Page 120 and 121: 116 Chapitre 3. Variables aléatoir
- Page 122 and 123: 118 Chapitre 3. Variables aléatoir
- Page 124 and 125: 120 Chapitre 3. Variables aléatoir
- Page 126 and 127: 122 Chapitre 3. Variables aléatoir
- Page 128 and 129: 124 Chapitre 3. Variables aléatoir
- Page 130 and 131: 126 Chapitre 3. Variables aléatoir
- Page 132 and 133: 128 Chapitre 3. Variables aléatoir
- Page 134 and 135: 130 Chapitre 3. Variables aléatoir
- Page 136 and 137: 132 Chapitre 3. Variables aléatoir
- Page 138 and 139: 134 Chapitre 3. Variables aléatoir
- Page 140 and 141: 136 Chapitre 3. Variables aléatoir
- Page 144 and 145: 140 Chapitre 3. Variables aléatoir
- Page 146 and 147: 142 Chapitre 3. Variables aléatoir
- Page 148 and 149: 144 Chapitre 3. Variables aléatoir
- Page 150 and 151: ∈Ê 146 Chapitre 3. Variables al
- Page 152 and 153: 148 Chapitre 3. Variables aléatoir
- Page 154 and 155: 150 Chapitre 3. Variables aléatoir
- Page 156 and 157: 152 Chapitre 3. Variables aléatoir
- Page 158 and 159: 154 Chapitre 3. Variables aléatoir
- Page 160 and 161: 156 Chapitre 3. Variables aléatoir
- Page 162 and 163: 158 Chapitre 3. Variables aléatoir
- Page 164 and 165: 160 Chapitre 3. Variables aléatoir
- Page 166 and 167: 162 Chapitre 3. Variables aléatoir
- Page 168 and 169: 164 Chapitre 3. Variables aléatoir
- Page 170 and 171: 166 Chapitre 3. Variables aléatoir
- Page 172 and 173: 168 Chapitre 3. Variables aléatoir
- Page 174 and 175: 170 Chapitre 3. Variables aléatoir
- Page 176 and 177: 172 Chapitre 3. Variables aléatoir
- Page 178 and 179: 174 Chapitre 3. Variables aléatoir
- Page 181 and 182: Annexe A Annexes A.1 Annales Univer
- Page 183 and 184: A.1. Annales 179 Université de Ren
- Page 185 and 186: A.1. Annales 181 Université de Ren
- Page 187 and 188: A.1. Annales 183 3. Montrer que E[X
- Page 189 and 190: A.1. Annales 185 4. Par définition
- Page 191 and 192: A.1. Annales 187 4. Soit Y la varia
138 Chapitre 3. Variables aléatoires à densité<br />
1. Quelle est la loi suivie par X ?<br />
2. Grâce à l’approximation normale, donner en fonction de n et p un intervalle où X a 95% de<br />
chances de se situer.<br />
3. Donner un estimateur naturel ˆp de p. Quelle est sa moyenne?<br />
4. Donner en fonction de n et p un intervalle où ˆp a 95% de chances de se situer.<br />
5. Donner un majorant de x(1−x) lorsque x ∈ [0,1]. En déduire un intervalle de confiance à<br />
95% pour p.<br />
6. Quelle est la taille de cet intervalle lorsqu’on interroge 1000 personnes ?<br />
7. Combien de personnes faut-il interroger pour obtenir une estimation à ±2% ?<br />
Exercice 3.26 (Surbooking (bis))<br />
Reprenons le contexte de l’exercice 2.22 : des études effectuées par une compagnie aérienne<br />
montrent qu’il y a une probabilité 0,05 qu’un passager ayant fait une réservation n’effectue pas le<br />
vol. Dès lors, elle vend toujours 94 billets pour ses avions à 90 places. On veut évaluer la probabilité<br />
qu’il y ait un problème à l’embarquement, c’est-à-dire qu’il y ait au plus 3 absents.<br />
1. Estimer cette probabilité en utilisant l’approximation d’une loi binomiale par une loi normale.<br />
2. Comparer à la vraie valeur d’une part et à la valeur obtenue par l’approximation de Poisson<br />
d’autre part. Comment expliquez-vous que l’approximation gaussienne ne marche pas ici?<br />
Exercice 3.27 (Queue de la gaussienne)<br />
On appelle fonction de Marcum, ou queue de la gaussienne, la fonction définie pour tout réel x<br />
par :<br />
Q(x) = 1<br />
√ 2π<br />
+∞<br />
x<br />
e −t2<br />
2 dt.<br />
1. Soit X une variable aléatoire qui suit une loi normale centrée réduite N(0,1). Représenter la<br />
densité de X, puis Q(x) sur ce même dessin. Soit F la fonction de répartition de X : donner<br />
la relation entre F(x) et Q(x).<br />
2. Soit x > 0 fixé. Dans l’intégrale définissant Q(x), effectuer le changement de variablet = x+u<br />
et, tenant compte de e −ux ≤ 1, montrer qu’on a :<br />
3. Pour t ≥ x > 0, montrer que :<br />
4. En déduire que :<br />
1<br />
(1+ 1<br />
x 2) √ 2π<br />
+∞<br />
x<br />
Q(x) ≤ 1<br />
2 e−x2 2 .<br />
1+ 1<br />
t 2<br />
1+ 1<br />
x 2<br />
≤ 1 ≤ t<br />
x .<br />
<br />
1+ 1<br />
t2 <br />
e −t2<br />
2 dt ≤ Q(x) ≤ 1<br />
x √ 2π<br />
+∞<br />
5. Calculer la dérivée de 1<br />
te−t2 2 . En déduire que, pour tout x > 0, on a :<br />
6. En déduire un équivalent de Q(x) en +∞.<br />
1<br />
(1+ 1<br />
x2)x √ 2π e−x2 2 ≤ Q(x) ≤ 1<br />
x √ 2π e−x2 2 .<br />
x<br />
te −t2<br />
2 dt.<br />
Arnaud Guyader - <strong>Rennes</strong> 2 <strong>Probabilités</strong>