22.01.2015 Aufrufe

Vorlesungsskript Kanalcodierung II - Universität Bremen

Vorlesungsskript Kanalcodierung II - Universität Bremen

Vorlesungsskript Kanalcodierung II - Universität Bremen

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Kanalcodierung</strong> <strong>II</strong><br />

Dr.-Ing. Volker Kühn, Dr.-Ing. Dirk Wübben<br />

Universität <strong>Bremen</strong><br />

Fachbereich 1, ANT<br />

1.7.5 Iterative (’Turbo’)-Decodierung am Beispiel zweier parallel verketteter (5,4,2)-SPC-Codes<br />

Die in den vorangegangenen Abschnitten vorgestellten Soft-Output-Algorithmen bieten nur dann Vorteile, wenn<br />

nachgeschaltete Module von der Zuverlässigkeitsinformation Gebrauch machen können. In den hier behandelten<br />

verketteten Codiersystemen erfolgt die Decodierung in der Regel durch serielle Aneinanderreihung der<br />

Teildecodierer, und zwar unabhängig davon, ob eine serielle oder eine parallele Codeverkettung vorliegt. Die<br />

prinzipielle Vorgehensweise soll zunächst anhand eines konkreten Produktcodes erläutert und dann in einer<br />

allgemeineren Form präsentiert werden.<br />

Gegeben sei die folgende (4x4)-Matrix u bestehend aus 16 Informationsbit<br />

⎛ ⎞<br />

1 0 0 1<br />

u = ⎜ 0 1 1 1<br />

⎟<br />

⎝ 1 0 1 0 ⎠ .<br />

0 0 0 1<br />

Sie wird sowohl horizontal als auch vertikal mit einem (5,4,2)-SPC-Code codiert, was zusammen mit der<br />

BPSK-Modulation zur Codematrix<br />

⎛<br />

x =<br />

⎜<br />

⎝<br />

−1 1 1 −1 1<br />

1 −1 −1 −1 −1<br />

−1 1 −1 1 1<br />

1 1 1 −1 −1<br />

1 −1 1 −1<br />

führt. Es ist zu beachten, dass die rechte untere Ecke der Matrix unbesetzt bleibt, es handelt sich also um<br />

eine parallele Verkettung der beiden SPC-Codes (unvollständiger Produktcode). Durch die auf dem Kanal<br />

einwirkenden Störungen erhalten wir die Empfangsmatrix y, deren Elemente entsprechend Gl. (1.22) in loglikelihood-Verhältnisse<br />

umgerechnet werden. (E b /N 0 = 2dB).<br />

⎛<br />

y =<br />

⎜<br />

⎝<br />

0,1 1,2 0,2 −0,5 1,0<br />

0,8 −0,7 0,6 −0,1 −1,5<br />

−1,2 0,5 −0,9 1,2 0,2<br />

0,2 −0,2 1,3 −1,5 −2,0<br />

0,3 −0,9 1,2 −1,1<br />

⎞<br />

⎛<br />

⎟<br />

⎠ =⇒ L chy =<br />

⎜<br />

⎝<br />

⎞<br />

⎟<br />

⎠<br />

0,6 7,6 1,3 −3,2 6,3<br />

5,1 −4,4 3,8 −0,6 −9,5<br />

−7,6 3,2 −5,7 7,6 1,3<br />

1,3 −1,3 8,2 −9,5 −12,7<br />

1,9 −5,7 7,6 −7,0<br />

Diese Matrix bildet nun den Ausgangspunkt für einen iterativen Decodierprozeß, der im Folgenden beschrieben<br />

wird und mit der vertikalen Decodierung beginnt. Wir wissen aus Gl. (1.41)<br />

L(û i ) = L ch y i +L a (u i )+L e (û i ) ,<br />

dass sich das LLR bei systematischen Codes aus drei Anteilen zusammensetzt, einer a-priori-Information<br />

L a (u i ), einem systematischen direkten AnteilL ch y i und der extrinsischen InformationL e (û i ). WährendL a (u i )<br />

uns jetzt noch nicht zur Verfügung steht, stellt die MatrixL ch y den direkten, schon berechneten Anteil dar und<br />

L e (û i ) soll mit Hilfe von Gl. (1.34) berechnet werden. Wir erhalten nach der vertikalen Decodierung D | zu<br />

jedem Informationsbit eine extrinsische Information L | e,1 (û i), z.B.<br />

L | e,1 (û 0) = = min(5,1; 7,6; 1,3; 1,9)·(+1)(−1)(+1)(+1) = −1,3<br />

L | e,1 (û 1) = = min(0,6; 7,6; 1,3; 1,9)·(+1)(−1)(+1)(+1) = −0,6<br />

.<br />

die zur direkten Komponente hinzu addiert wird und dannL | 1 (û i) ergibt (y s stellt den Anteil der Informationsbit<br />

von y dar).<br />

⎞<br />

⎟<br />

⎠<br />

1.7. DECODIERUNG VERKETTETER CODES 33

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!