Vorlesungsskript Kanalcodierung II - Universität Bremen
Vorlesungsskript Kanalcodierung II - Universität Bremen
Vorlesungsskript Kanalcodierung II - Universität Bremen
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Kanalcodierung</strong> <strong>II</strong><br />
Dr.-Ing. Volker Kühn, Dr.-Ing. Dirk Wübben<br />
Universität <strong>Bremen</strong><br />
Fachbereich 1, ANT<br />
1.7.1 Definition der Soft-Information<br />
Im letzten Semester haben wir zwei verschiedene Decodierprinzipien kennengelernt, das MAP-Kriterium (Maximum<br />
a posteriori) und das Maximum-Likelihood-Kriterium. Der Unterschied besteht darin, dass bei letzterem<br />
alle Eingangssignale als gleichwahrscheinlich angenommen werden, während beim MAP-Kriterium eine unterschiedliche<br />
Verteilung des Eingangsalphabets berücksichtigt wird. Da dies für die weitere Betrachtung sehr<br />
wichtig ist, wollen wir im Folgenden stets das MAP-Kriterium verwenden, wobei die <strong>Kanalcodierung</strong> bei der<br />
Vorstellung der Soft-Information zunächst vernachlässigt wird. Die bisherige Notation wird hier weitgehend<br />
übernommen, so dass die logischen Bitu∈{0,1} per BPSK-Modulation den Kanalsymbolen entsprechend<br />
bzw.<br />
zugeordnet werden. Das MAP-Kriterium lautet damit<br />
u = 0 → x = +1 (1.18)<br />
u = 1 → x = −1 (1.19)<br />
P(u = 0|y) = P(x = +1|y) < > P(u = 1|y) = P(x = −1|y) (1.20)<br />
Mit Hilfe der Bayes-Regel können wir Gl. (1.20) umformen, wobei P(·) die Auftrittswahrscheinlichkeit eines<br />
Symbols beschreibt, während p(·) die Wahrscheinlichkeitsdichte angibt. Wir erhalten<br />
⇐⇒<br />
L(ˆx) := ln<br />
p(x = +1,y)<br />
p(y)<br />
p(x = +1,y) <<br />
> 1<br />
p(x = −1,y)<br />
p(x = +1,y)<br />
p(x = −1,y)<br />
< p(x = −1,y)<br />
><br />
p(y)<br />
= ln<br />
p(y|x = +1)<br />
p(y|x = −1)<br />
} {{ }<br />
L(y|x)<br />
+ln<br />
P(x = +1)<br />
P(x = −1)<br />
} {{ }<br />
L a (x)<br />
<<br />
> 0 . (1.21)<br />
DieL-Werte in Gl. (1.21) werden log-likelihood-ratios genannt, da sie aus dem Logarithmus eines Wahrscheinlichkeitsverhältnisses<br />
hervorgehen. Sie stellen die sogenannte Soft-Information dar, da ihr Vorzeichen eine harte<br />
Entscheidung über das betrachtete Bitxangibt, während ihr Betrag ein Maß für die Zuverlässigkeit dieser Entscheidung<br />
darstellt.<br />
(log-likelihood ratio) ist ein ge-<br />
Das logarithmische Verhältnis der Wahrscheinlichkeiten ln P(u=0)<br />
P(u=1)<br />
eignetes Maß für die Zuverlässigkeit einer Entscheidung.<br />
Dies heißt jedoch nicht, dass das in Gl. (1.21) dargestellte Log-Likelihood-Verhältnis die optimale Zuverlässigkeitsinformation<br />
ist. Sie erfüllt lediglich die rein anschaulich motivierte Vorstellung einer Zuverlässigkeitsinformation,<br />
was allerdings auch auf die Vorschrift<br />
L(x) = P(x = +1)−P(x = −1)<br />
zutrifft. Auch hier nimmt L positive Werte für P(x = +1) > P(x = −1) und ansonsten negative Werte an.<br />
Trotzdem hat sich in der Praxis das LLR als Zuverlässigkeitsinformation durchgesetzt, weshalb wir es auch im<br />
Rahmen dieser Vorlesung verwenden wollen.<br />
Der geschätzte Soft-Wert L(ˆx) in Gl. (1.21) setzt sich bei einer uncodierten Übertragung aus zwei Anteilen zusammen,<br />
dem TermL(y|x), der die Übergangswahrscheinlichkeiten des Kanals enthält, und dem TermL a (x),<br />
welcher unabhängig von den Kanalausgangswerten y ist und a-priori-Wissen über das gesendete Symbolxrepräsentiert.<br />
Ist dem Empfänger beispielsweise bekannt, mit welcher Wahrscheinlichkeit x = +1 bzw. x = −1<br />
1.7. DECODIERUNG VERKETTETER CODES 21