Introduction aux Probabilités - Université Rennes 2
Introduction aux Probabilités - Université Rennes 2 Introduction aux Probabilités - Université Rennes 2
166 Chapitre 3. Variables aléatoires à densité 7. Application (a) Si le symbole d’entrée est + √ Eb (respectivement − √ Eb), alors Y ∼ N(+ √ Eb, N0 2 ) (respectivement Y ∼ N(− √ Eb, N0 2 )). De façon générale, Y = X + B où B est le bruit additif, supposé gaussien centré de variance N0/2 et indépendant de X, variable aléatoire binaire correspondant au symbole d’entrée. (b) Intuitivement, on se dit que le symbole d’entrée était plus vraisemblablement + √ Eb (respectivement − √ Eb) si la sortie y est positive (respectivement négative). Cette règle est en effet la bonne si les symboles d’entrée sont équiprobables, c’est-à-dire si È(X = + √ Eb) =È(X = + √ Eb) = 1/2. Il suffit de comparer les probabilités conditionnelles pour s’en convaincre. Il convient juste d’adapter la formule de Bayes et celle des probabilités totales au cas d’un cocktail entre loi discrète et loi à densité, ce qui donne ici : È(X = + Eb|y) = f(y|X = +√ Eb)È(X = + √ Eb) d’où È(X = + Eb|y) = f(y) f(y|X = + √ Eb)È(X = + √ Eb) f(y|X = + √ Eb)È(X = + √ Eb)+f(y|X = − √ Eb)È(X = − √ Eb) Il reste à tenir compte du fait que les symboles d’entrée sont équiprobables et des densités respectives de la réponse Y connaissant X pour obtenir È(X = + Eb|y) = On en déduit automatiquement : e −(y−√ Eb ) 2 N0 e −(y−√ Eb ) 2 N0 +e −(y+√ Eb ) 2 N0 1 = 1+e −4 È(X = − Eb|y) = 1−È(X = + Eb|y) = e−4 et par suite È(X = + √ Eb|y) È(X = − √ = e Eb|y) 4 √ Eb N 0 y 1+e −4 √ Eb N 0 y √ Eb y N0 √ Eb y N0 (3.2) de sorte que ce rapport est supérieur à 1 si et seulement si y est positif, et la règle de décision au maximum de vraisemblance correspond bien à la règle intuititive donnée ci-dessus. Remarque : si les symboles d’entrée ne sont pas équiprobables, il faut en tenir compte dans la règle de décision. Supposons par exemple queÈ(X = + √ Eb) = 3/4, alors l’équation (3.2) devient È(X = + 3 Eb|y) = 3+e −4 et È(X = + √ Eb|y) È(X = − √ = 3 e Eb|y) 4 √ Eb N 0 y √ Eb N 0 y Ainsi on décide que le symbole d’entrée était X = + √ Eb si 3 e 4 √ Eb y −ln3 N0 N0 > 1 ⇔ y > τ = × √Eb 4 Arnaud Guyader - Rennes 2 Probabilités
3.6. Corrigés 167 Ces résultats admettent une interprétation graphique très simple : les points d’abscisses 0 et τ sont les points d’intersection des fonctions y ↦→ f(y|X = + √ Eb)È(X = + √ Eb) et y ↦→ f(y|X = − √ Eb)È(X = − √ Eb) respectivement lorsqueÈ(X = + √ Eb) = 1/2 et È(X = + √ Eb) = 3/4 (voir figure 3.21 dans le cas où N0 = √ Eb = 1, d’où en particulier τ = −ln3/4 ≈ −0.27). Figure 3.21 – Fonctions y ↦→ f(y|X = + √ Eb)È(X = + √ Eb) et y ↦→ f(y|X = − √ Eb)È(X = − √ Eb) lorsqueÈ(X = + √ Eb) = 1/2 (à gauche) etÈ(X = + √ Eb) = 3/4 (à droite). (c) Dans le cas où les symboles d’entrée sont équiprobables, la probabilité d’erreur Pe est égale à la somme de la probabilité de décider + √ Eb alors que le symbole d’entrée était − √ Eb et vice-versa : Pe =È(Y > 0|X = − Eb)È(X = − Eb)+È(Y < 0|X = + Eb)È(X = + Eb) et par symétrie des rôles, en notant toujours B le bruit additif : Pe =È(B > B Eb) =È N0/2 > √ Eb 2Eb = Q . N0/2 N0 Exercice 3.28 (Entropie d’une variable aléatoire) Si X est une variable aléatoire réelle admettant une densité f, on appelle entropie de X la quantité (si elle est définie) : h(X) = E[−lnf(X)] = − +∞ −∞ 1. Si X ∼ N(0,1), alors son entropie s’écrit +∞ e h(X) = − −∞ −x2 ⎛ 2 √ ln⎝ 2π e−x2 ⎞ 2 √ ⎠ dx = 2π ln(2π) 2 or +∞ −∞ d’où en effet e −x2 2 √ 2π dx = 1 et +∞ −∞ f(x)lnf(x)dx. +∞ −∞ h(X) = 1 2 (1+ln(2π)). e −x2 2 √ 2π dx+ 1 2 +∞ −∞ x 2e−x2 2 √ dx 2π x 2e−x2 2 √ dx = E[X 2π 2 ] = Var(X) = 1 2. Le même calcul que ci-dessus montre que si X ∼ N(m,σ 2 ), alors elle a pour entropie : h(X) = 1 2 (1+log(2πσ2 )). Probabilités Arnaud Guyader - Rennes 2
- Page 120 and 121: 116 Chapitre 3. Variables aléatoir
- Page 122 and 123: 118 Chapitre 3. Variables aléatoir
- Page 124 and 125: 120 Chapitre 3. Variables aléatoir
- Page 126 and 127: 122 Chapitre 3. Variables aléatoir
- Page 128 and 129: 124 Chapitre 3. Variables aléatoir
- Page 130 and 131: 126 Chapitre 3. Variables aléatoir
- Page 132 and 133: 128 Chapitre 3. Variables aléatoir
- Page 134 and 135: 130 Chapitre 3. Variables aléatoir
- Page 136 and 137: 132 Chapitre 3. Variables aléatoir
- Page 138 and 139: 134 Chapitre 3. Variables aléatoir
- Page 140 and 141: 136 Chapitre 3. Variables aléatoir
- Page 142 and 143: 138 Chapitre 3. Variables aléatoir
- Page 144 and 145: 140 Chapitre 3. Variables aléatoir
- Page 146 and 147: 142 Chapitre 3. Variables aléatoir
- Page 148 and 149: 144 Chapitre 3. Variables aléatoir
- Page 150 and 151: ∈Ê 146 Chapitre 3. Variables al
- Page 152 and 153: 148 Chapitre 3. Variables aléatoir
- Page 154 and 155: 150 Chapitre 3. Variables aléatoir
- Page 156 and 157: 152 Chapitre 3. Variables aléatoir
- Page 158 and 159: 154 Chapitre 3. Variables aléatoir
- Page 160 and 161: 156 Chapitre 3. Variables aléatoir
- Page 162 and 163: 158 Chapitre 3. Variables aléatoir
- Page 164 and 165: 160 Chapitre 3. Variables aléatoir
- Page 166 and 167: 162 Chapitre 3. Variables aléatoir
- Page 168 and 169: 164 Chapitre 3. Variables aléatoir
- Page 172 and 173: 168 Chapitre 3. Variables aléatoir
- Page 174 and 175: 170 Chapitre 3. Variables aléatoir
- Page 176 and 177: 172 Chapitre 3. Variables aléatoir
- Page 178 and 179: 174 Chapitre 3. Variables aléatoir
- Page 181 and 182: Annexe A Annexes A.1 Annales Univer
- Page 183 and 184: A.1. Annales 179 Université de Ren
- Page 185 and 186: A.1. Annales 181 Université de Ren
- Page 187 and 188: A.1. Annales 183 3. Montrer que E[X
- Page 189 and 190: A.1. Annales 185 4. Par définition
- Page 191 and 192: A.1. Annales 187 4. Soit Y la varia
- Page 193 and 194: A.1. Annales 189 0.50 0.45 0.40 0.3
- Page 195 and 196: A.1. Annales 191 4. (Bonus) La prob
- Page 197 and 198: A.1. Annales 193 III. Pièces défe
- Page 199 and 200: A.1. Annales 195 Tandis que dans le
- Page 201 and 202: A.1. Annales 197 IV. Jeu d’argent
- Page 203 and 204: A.1. Annales 199 4. L’espérance
- Page 205 and 206: A.1. Annales 201 1. Dire que T est
- Page 207 and 208: A.1. Annales 203 Université Rennes
- Page 209 and 210: A.1. Annales 205 Université Rennes
- Page 211 and 212: A.1. Annales 207 Ainsi, le taux de
- Page 213 and 214: A.1. Annales 209 Université Rennes
- Page 215 and 216: A.1. Annales 211 4. Soit X1 et X2 d
- Page 217 and 218: A.1. Annales 213 Figure A.5 - Densi
- Page 219 and 220: A.1. Annales 215 3. Pour la varianc
166 Chapitre 3. Variables aléatoires à densité<br />
7. Application<br />
(a) Si le symbole d’entrée est + √ Eb (respectivement − √ Eb), alors Y ∼ N(+ √ Eb, N0<br />
2 )<br />
(respectivement Y ∼ N(− √ Eb, N0<br />
2 )). De façon générale, Y = X + B où B est le<br />
bruit additif, supposé gaussien centré de variance N0/2 et indépendant de X, variable<br />
aléatoire binaire correspondant au symbole d’entrée.<br />
(b) Intuitivement, on se dit que le symbole d’entrée était plus vraisemblablement + √ Eb<br />
(respectivement − √ Eb) si la sortie y est positive (respectivement négative). Cette<br />
règle est en effet la bonne si les symboles d’entrée sont équiprobables, c’est-à-dire si<br />
È(X = + √ Eb) =È(X = + √ Eb) = 1/2. Il suffit de comparer les probabilités conditionnelles<br />
pour s’en convaincre. Il convient juste d’adapter la formule de Bayes et celle<br />
des probabilités totales au cas d’un cocktail entre loi discrète et loi à densité, ce qui<br />
donne ici : È(X = + Eb|y) = f(y|X = +√ Eb)È(X = + √ Eb)<br />
d’où<br />
È(X = + Eb|y) =<br />
f(y)<br />
f(y|X = + √ Eb)È(X = + √ Eb)<br />
f(y|X = + √ Eb)È(X = + √ Eb)+f(y|X = − √ Eb)È(X = − √ Eb)<br />
Il reste à tenir compte du fait que les symboles d’entrée sont équiprobables et des<br />
densités respectives de la réponse Y connaissant X pour obtenir<br />
È(X = + Eb|y) =<br />
On en déduit automatiquement :<br />
e −(y−√ Eb ) 2<br />
N0 e −(y−√ Eb ) 2<br />
N0 +e −(y+√ Eb ) 2<br />
N0 1<br />
=<br />
1+e −4<br />
È(X = − Eb|y) = 1−È(X = + Eb|y) = e−4<br />
et par suite<br />
È(X = + √ Eb|y)<br />
È(X = − √ = e<br />
Eb|y) 4<br />
√ Eb<br />
N 0 y<br />
1+e −4<br />
√ Eb<br />
N 0 y<br />
√<br />
Eb<br />
y N0 √<br />
Eb<br />
y N0 (3.2)<br />
de sorte que ce rapport est supérieur à 1 si et seulement si y est positif, et la règle de<br />
décision au maximum de vraisemblance correspond bien à la règle intuititive donnée<br />
ci-dessus.<br />
Remarque : si les symboles d’entrée ne sont pas équiprobables, il faut en tenir compte<br />
dans la règle de décision. Supposons par exemple queÈ(X = + √ Eb) = 3/4, alors<br />
l’équation (3.2) devient<br />
È(X = + 3<br />
Eb|y) =<br />
3+e −4<br />
et<br />
È(X = + √ Eb|y)<br />
È(X = − √ = 3 e<br />
Eb|y) 4<br />
√ Eb<br />
N 0 y<br />
√ Eb<br />
N 0 y<br />
Ainsi on décide que le symbole d’entrée était X = + √ Eb si<br />
3 e 4<br />
√<br />
Eb<br />
y −ln3 N0<br />
N0 > 1 ⇔ y > τ = × √Eb<br />
4<br />
Arnaud Guyader - <strong>Rennes</strong> 2 <strong>Probabilités</strong>