22.01.2015 Aufrufe

Vorlesungsskript Kanalcodierung II - Universität Bremen

Vorlesungsskript Kanalcodierung II - Universität Bremen

Vorlesungsskript Kanalcodierung II - Universität Bremen

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Kanalcodierung</strong> <strong>II</strong><br />

Dr.-Ing. Volker Kühn, Dr.-Ing. Dirk Wübben<br />

Universität <strong>Bremen</strong><br />

Fachbereich 1, ANT<br />

1.7.1 Definition der Soft-Information<br />

Im letzten Semester haben wir zwei verschiedene Decodierprinzipien kennengelernt, das MAP-Kriterium (Maximum<br />

a posteriori) und das Maximum-Likelihood-Kriterium. Der Unterschied besteht darin, dass bei letzterem<br />

alle Eingangssignale als gleichwahrscheinlich angenommen werden, während beim MAP-Kriterium eine unterschiedliche<br />

Verteilung des Eingangsalphabets berücksichtigt wird. Da dies für die weitere Betrachtung sehr<br />

wichtig ist, wollen wir im Folgenden stets das MAP-Kriterium verwenden, wobei die <strong>Kanalcodierung</strong> bei der<br />

Vorstellung der Soft-Information zunächst vernachlässigt wird. Die bisherige Notation wird hier weitgehend<br />

übernommen, so dass die logischen Bitu∈{0,1} per BPSK-Modulation den Kanalsymbolen entsprechend<br />

bzw.<br />

zugeordnet werden. Das MAP-Kriterium lautet damit<br />

u = 0 → x = +1 (1.18)<br />

u = 1 → x = −1 (1.19)<br />

P(u = 0|y) = P(x = +1|y) < > P(u = 1|y) = P(x = −1|y) (1.20)<br />

Mit Hilfe der Bayes-Regel können wir Gl. (1.20) umformen, wobei P(·) die Auftrittswahrscheinlichkeit eines<br />

Symbols beschreibt, während p(·) die Wahrscheinlichkeitsdichte angibt. Wir erhalten<br />

⇐⇒<br />

L(ˆx) := ln<br />

p(x = +1,y)<br />

p(y)<br />

p(x = +1,y) <<br />

> 1<br />

p(x = −1,y)<br />

p(x = +1,y)<br />

p(x = −1,y)<br />

< p(x = −1,y)<br />

><br />

p(y)<br />

= ln<br />

p(y|x = +1)<br />

p(y|x = −1)<br />

} {{ }<br />

L(y|x)<br />

+ln<br />

P(x = +1)<br />

P(x = −1)<br />

} {{ }<br />

L a (x)<br />

<<br />

> 0 . (1.21)<br />

DieL-Werte in Gl. (1.21) werden log-likelihood-ratios genannt, da sie aus dem Logarithmus eines Wahrscheinlichkeitsverhältnisses<br />

hervorgehen. Sie stellen die sogenannte Soft-Information dar, da ihr Vorzeichen eine harte<br />

Entscheidung über das betrachtete Bitxangibt, während ihr Betrag ein Maß für die Zuverlässigkeit dieser Entscheidung<br />

darstellt.<br />

(log-likelihood ratio) ist ein ge-<br />

Das logarithmische Verhältnis der Wahrscheinlichkeiten ln P(u=0)<br />

P(u=1)<br />

eignetes Maß für die Zuverlässigkeit einer Entscheidung.<br />

Dies heißt jedoch nicht, dass das in Gl. (1.21) dargestellte Log-Likelihood-Verhältnis die optimale Zuverlässigkeitsinformation<br />

ist. Sie erfüllt lediglich die rein anschaulich motivierte Vorstellung einer Zuverlässigkeitsinformation,<br />

was allerdings auch auf die Vorschrift<br />

L(x) = P(x = +1)−P(x = −1)<br />

zutrifft. Auch hier nimmt L positive Werte für P(x = +1) > P(x = −1) und ansonsten negative Werte an.<br />

Trotzdem hat sich in der Praxis das LLR als Zuverlässigkeitsinformation durchgesetzt, weshalb wir es auch im<br />

Rahmen dieser Vorlesung verwenden wollen.<br />

Der geschätzte Soft-Wert L(ˆx) in Gl. (1.21) setzt sich bei einer uncodierten Übertragung aus zwei Anteilen zusammen,<br />

dem TermL(y|x), der die Übergangswahrscheinlichkeiten des Kanals enthält, und dem TermL a (x),<br />

welcher unabhängig von den Kanalausgangswerten y ist und a-priori-Wissen über das gesendete Symbolxrepräsentiert.<br />

Ist dem Empfänger beispielsweise bekannt, mit welcher Wahrscheinlichkeit x = +1 bzw. x = −1<br />

1.7. DECODIERUNG VERKETTETER CODES 21

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!