Vorlesung
Vorlesung
Vorlesung
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 0<br />
Informations- und Kodierungstheorie<br />
Was Sie wissen sollten:<br />
¯Einschreibung in jExam (VL und Übung)<br />
¯VL-Skript komplett im Netz<br />
Skript enthält keine Beispiellösungen!<br />
Beispiele werden an der Tafel vorgerechnet (Tafelbild !!!)<br />
¯Ergänzende/Vertiefende Folienvorlagen zur VL werden im Netz<br />
bereitgestellt<br />
¯Zur Klärung von Fragen: Übung !!!, E-Mail, INF 3069<br />
Begleitbuch: Informations- und Kodierungstheorie. 4. Auflage, 2012<br />
(im Anhang weiterführende Literatur zu finden)<br />
¯Zur Fachprüfung: Formelblatt einseitig A4, Taschenrechner<br />
1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 1<br />
Informations- und Kodierungstheorie<br />
C.E. Shannon (1948) R.W. Hamming (1950)<br />
Informationstheorie setzt sich mit zwei Problemstellungen auseinander:<br />
¯Inwieweit lässt sich Information kompakt darstellen?<br />
¯Inwieweit überträgt man Information ”<br />
fehlerfrei“ (quasi fehlerfrei)?<br />
Informationstheorie begründet die Grenzen, was ist erreichbar, was nicht<br />
(Zwei Kodierungstheoreme, SHANNON-Grenze ”<br />
fehlerfreier“ Übertragung)<br />
Kodierungstheorie konstruiert praktikable Umsetzungen<br />
(weniger komplexe Algorithmen, die sich den Grenzen annähern)<br />
Begleitbuch: Informations- und Kodierungstheorie. 4. Auflage, 2012<br />
1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 2<br />
Information<br />
¯Statistischer Aspekt<br />
¯Semantischer Aspekt (Bedeutung der Information)<br />
¯Pragmatischer Aspekt (Nutzen für den Informationsempfänger)<br />
Statistische Informationstheorie<br />
Quelle Kodierer Übertragungskanal Dekodierer<br />
Senke<br />
Störung<br />
Information ist beseitigte Unbestimmtheit<br />
Das Maß dieser Unbestimmtheit ist äquivalent der Ermittlung der<br />
Informationsmenge.<br />
1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 3<br />
Quelle Kodierer Übertragungskanal Dekodierer<br />
Quelle<br />
Senke<br />
Störung<br />
Informationsquellen<br />
diskrete Quellen<br />
kontinuierliche Quellen<br />
Einzelquellen<br />
Verbundquellen<br />
Quellen mit<br />
unabhängigen<br />
Ereignissen<br />
Quellen mit<br />
abhängigen Ereignissen<br />
(MARKOW−Quellen)<br />
2 Informationsquellen 2.1 Systematisierung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 4<br />
Definition<br />
ܾܽÜÆ<br />
Eine Quelle mit dem Alphabet<br />
und der Verteilung der zugehörigen Auftrittswahrscheinlichkeiten<br />
´Ô´Üµµ´Ô´Ü½µÔ´Ü¾µÔ´ÜƵµ ¼Ô´Üµ½<br />
ÆȽԴܵ½<br />
wobei<br />
wird als diskrete<br />
Դܵ ½<br />
Quelle mit unabhängigen Ereignissen<br />
Դܵ<br />
½bezeichnet.<br />
ldԴܵ<br />
Die Unbestimmtheit (Informationsgehalt) eines EreignissesÜist<br />
Àlog logԴܵim WeiterenÀld<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.1 Einzelquellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 5<br />
Դܽµ ½ Դܾµ ½ Ô´ÜƵ<br />
FürÀ´½¾Æµgilt dann:<br />
À½ld À¾ld ...<br />
ÀÑÆÈ<br />
Gewichteter<br />
½ ԴܵÀÆÈ<br />
MittelwertÀÉÀÑ:<br />
½ Դܵ ½ ½ ÆÈ Ô´ÜµldԴܵ Դܵld<br />
ÀÑ (Quellen)Entropie,<br />
Beispiel<br />
, ÀÆld<br />
½<br />
gleichzeitig mittlerer Informationsgehalt<br />
ƾ´Ô´Üµµ´Ô´Ü½µÔ´Ü¾µµ´½¼µ<br />
sicheres, unmögliches Ereignis<br />
in bit/Ereignis, bit/Messwert, bit/(Quellen-)Zeichenbit/QZ u. ä.<br />
Warum log bzw. ld, d. h. Anwendung des logarithm. Informationsmaßes?<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.1 Einzelquellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 6<br />
Դܵ½Æ<br />
Sonderfall der Gleichverteilung:<br />
für alle<br />
ÀÉÀ¼ldÆ<br />
Maximalwert der Entropie oder Entscheidungsgehalt der Quelle<br />
Beweis<br />
Definition<br />
Der<br />
À¼ld¾½<br />
Entscheidungsgehalt von zwei unabhängigen und<br />
ÖÒ× Ø<br />
gleichwahrscheinlichen Ereignissen einer Quelle<br />
wird als Einheit der Informationsmenge bezeichnet.<br />
L: Begleitbuch, S. 1 - 20<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.1 Einzelquellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 7<br />
MARKOW-Quellen<br />
(diskrete Quellen mit abhängigen Ereignissen):<br />
¯Das EreignisÜ´Ñ·½µtritt unter der Bedingung ein, dass ganz bestimmte<br />
EreignisseÜ´½µÜ´¾µÜ´Ñµbereits eingetreten sind.<br />
¯Die<br />
Ô Ü´Ñ·½µÜ´ÑµÜ´¾µÜ´½µ¡<br />
Auswahl des EreignissesÜ´Ñ·½µerfolgt demnach mit der bedingten<br />
Wahrscheinlichkeit<br />
Ô´Ü´Ñ·½µÜ´Ñµµ<br />
MARKOW-Quellen erster Ordnung:<br />
Ô´Üܵ ´½¾Æµ<br />
wofür wir im Folgenden schreiben<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.2 MARKOW-Quellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 8<br />
Definition<br />
Eine MARKOW-Quelle ist das mathematische Modell einer<br />
Informationsquelle, bei dem die aufeinanderfolgende Auswahl von<br />
Ereignissen, d. h. die Folge der Zustände, sowohl von der momentanen<br />
Verteilung der Auftritts- bzw. Zustandswahrscheinlichkeiten als auch<br />
von der Verteilung der Übergangswahrscheinlichkeiten abhängt.<br />
Zustandsgraph einer binären MARKOW-Quelle erster Ordnung<br />
p( x | x )<br />
2<br />
1<br />
x<br />
1<br />
x<br />
2<br />
p( x | x )<br />
1<br />
1<br />
p( x | x )<br />
1<br />
2<br />
p( x | x )<br />
2<br />
2<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.2 MARKOW-Quellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 9<br />
MARKOW-Kette<br />
p(x<br />
.<br />
..<br />
p(x<br />
...<br />
p(x<br />
N<br />
i<br />
2<br />
) p(xN)<br />
)<br />
)<br />
.<br />
..<br />
p(x j |x i )<br />
.<br />
p(x<br />
p(x<br />
p(x1)<br />
p(x1)<br />
Zeit<br />
Դܵط½ÆÈ<br />
t t+1<br />
Nach dem Satz<br />
½ ԴܵØÔ´Üܵ ´½¾Æµ<br />
von der vollständigen Wahrscheinlichkeit gilt:<br />
...<br />
..<br />
.<br />
j<br />
2<br />
)<br />
)<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.2 MARKOW-Quellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 10<br />
Entropie von MARKOW-Quellen<br />
ÀÆÈ<br />
Unbestimmtheit, die in den Übergangsmöglichkeiten von einem<br />
beliebigenÜzu<br />
½ Ô´Üܵ ½ allenÜ(½¾Æ) liegt:<br />
Ô´Üܵld<br />
ÀÉÆÈ<br />
Gewichteter<br />
½ ԴܵÀ<br />
Mittelwert über alleÜ(½¾Æ):<br />
ÀÉÀÅÆÈ<br />
Die Entropie wird für den stationären FallԴܵԴܵals<br />
MARKOW-EntropieÀÅbezeichnet:<br />
½½ ÆÈ Ô´Üܵ ½ Ø Ô´ÜµÔ´Üܵld in<br />
L: Begleitbuch, S. 20 - 26<br />
Ù×ØÒ<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.2 MARKOW-Quellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 11<br />
Verbundquellen<br />
Wir betrachten gleichzeitig zwei diskrete Quellenundmit den<br />
zugehörigen Verteilungen der Auftrittswahrscheinlichkeiten:<br />
´Ô´Üµµ´Ô´Ü½µÔ´Ü¾µÔ´ÜƵµder Ereignisseܾ<br />
und<br />
´Ô´Ýµµ´Ô´Ý½µÔ´Ý¾µÔ´Ýŵµder Ereignisseݾ.<br />
Annahmen<br />
¯Die Ereignisse innerhalb jeder Einzelquelle sind voneinander unabhängig.<br />
¯Ein Ereignis in der Quellehat ein bedingtes Ereignis in der Quelle<br />
mit der bedingten WahrscheinlichkeitÔ´Ýܵzur Folge.<br />
Das Auftreten von zwei EreignissenÜundÝbezeichnet man als<br />
Verbundereignis´ÜݵEs tritt mit der<br />
VerbundwahrscheinlichkeitÔ´ÜݵԴܵ¡Ô´Ýܵauf.<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 12<br />
Definition<br />
Ô´Üݵ´½¾Æµ´½¾Åµ ÆÈ<br />
Die diskreten Quellenundmit den Verbundwahrscheinlichkeiten<br />
½½ ÅÈ Ô´Üݵ½,<br />
bilden eine Verbundquelle´µ.<br />
À´µÆÈ<br />
VerbundentropieÀ´µ:<br />
½½ ÅÈ Ô´Üݵ ½ Ô´Üݵld<br />
À´µÈ<br />
Nach einigen<br />
Դܵ·È ½<br />
Umformungen:<br />
ßÞ Ð È Ô´Ýܵ ½<br />
À´µ<br />
Դܵld ԴܵԴÝܵld<br />
Bedingte Entropie<br />
À´µ ßÞ Ð<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen
<strong>Vorlesung</strong> Informations- und<br />
´Ô´Üݵµ ¼<br />
Kodierungstheorie<br />
½ ½ 13<br />
½ ¼½ ¼½ ¼½ ½ ½ È Æ ½ ÅÈ Ô´Üݵ½<br />
¯Ô´ÜµÅÈ<br />
Beispiel<br />
½ Ô´Üݵ´½¾Æµ ´Ô´Üµµ´½ ½ ½ ½¾µ<br />
¯Ô´ÝµÆÈ ½ Ô´Üݵ´½¾Åµ ´Ô´Ýµµ´½¾ ½ ½ ½µ<br />
¯Ô´ÜݵԴܵ¡Ô´ÝܵԴݵ¡Ô´Üݵ À´µÀ´µ ÖÒ× Ø<br />
´Ô´Ýܵµ ¼ ¾ ½¾ ½ ¼½ ¼½ ¼½ ½ ´Ô´Üݵµ<br />
À´µ ÖÒ× Ø<br />
¯À´µ¿ ÎÖÙÒÖÒ× Ø À´µ<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 14<br />
À´µÀ´µ·À´µ À´µÀ´µ·À´µ<br />
Darstellung der Verbundentropie – VENN-Diagramm<br />
<br />
H(X,Y)<br />
<br />
<br />
<br />
<br />
H(X|Y) <br />
H(Y|X)<br />
<br />
<br />
<br />
H(Y)<br />
À´µÀ´µundÀ´µÀ´µ<br />
H(X)<br />
Folgende Schranken gelten für die bedingten Entropien:<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 15<br />
Grenzfälle der Abhängigkeiten beider Quellen<br />
a) Vollständige Unabhängigkeit:<br />
À´µÀ´µ·À´µ<br />
Bei unabhängigen Ereignissen giltÔ´ÝܵԴݵ, À´µÀ´µund damit<br />
d.<br />
h.<br />
H(X)<br />
H(Y)<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 16<br />
b) Vollständige Abhängigkeit:<br />
À´µÀ´µ<br />
Bei vollständig abhängigen Ereignissen ist<br />
À´µ¼und damit<br />
H(Y)<br />
H(X)<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen
<strong>Vorlesung</strong> Informations- Kodierungstheorie 17<br />
Spezielle Verbundquelle´µ<br />
Quelle mit zwei identischen Ereignismengen<br />
H(X)<br />
H(X)<br />
H(X|X) = H M<br />
À´µÀ´µ¾¡À´µ<br />
In diesem Fall gilt für die Verbundentropie<br />
ÀÅÀ´µ À´µ À´µ ¼<br />
bei vollständiger Unabhängigkeit<br />
bei vollständiger Abhängigkeit<br />
L: Begleitbuch, S. 27 - 33<br />
2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 18<br />
Kontinuierliche Quellen<br />
f(x)<br />
f(x i)<br />
0 x i x<br />
∆x<br />
Die Wahrscheinlichkeit, dass die zufällige GrößeÜim Bereich¡Ü<br />
ԴܵÊ<br />
liegt, berechnet<br />
¡Ü ´Üµdܴܵ¡Ü<br />
sich durch<br />
2 Informationsquellen 2.3 Kontinuierliche Quellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 19<br />
À´µ Entropie der ´Üµ¡Üld´´Üµ¡Üµ<br />
kontinuierlichen Quelle:<br />
È ´Üµ¡Üld´Üµ È ´Üµ¡Üld¡Ü<br />
À´µ ½Ê ½ ´Üµld´ÜµdÜ ld¡Ü<br />
ld¡Ü ¡Üist unter gleichen Bedingungen konstant. Daher lässt man<br />
meistens<br />
ÀÖÐ ½Ê<br />
weg und spricht dann von der relativen Entropie einer<br />
kontinuierlichen<br />
½ ´Üµld´ÜµdÜ<br />
Quelle:<br />
2 Informationsquellen 2.3 Kontinuierliche Quellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 20<br />
Kodierer<br />
Unter Kodierung wird i. Allg. ein Vorgang verstanden, bei dem die<br />
Elemente eines Alphabets auf die Elemente eines anderen Alphabets<br />
(bzw. auf Wörter über diesem Alphabet) eineindeutig abgebildet<br />
werden.<br />
Für die Kodierung diskreter Quellen bedeutet dies:<br />
Jedes Element des Quellenalphabetswird einem Element des<br />
KanalalphabetsÍbzw. einem Wort überÍeineindeutig zugeordnet.<br />
ͼ½<br />
Aus praktischen (technischen) Erwägungen beschränken wir uns auf die<br />
Binärkodierung, d. h.<br />
3 Kodierung diskreter Quellen 3.1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 21<br />
Quellenkodierung (Optimalkodierung, Kompression)<br />
ist die erste Stufe der Kodierung, bei der die eineindeutige Darstellung<br />
der Quelleninformation in einer realisierbaren, möglichst<br />
redundanzfreien oder redundanzarmen Form erfolgen soll.<br />
verlustfreie Quellenkodierung (Redundanzreduktion)<br />
verlustbehaftete Quellenkodierung (Irrelevanzreduktion)℄<br />
Kanalkodierung<br />
die sich meistens an die Quellenkodierung anschließt, dient dem Zweck<br />
des Störungsschutzes. Sie macht erst quasi fehlerfreie Übertragung<br />
möglich.<br />
Notwendig: Hinzufügung von Redundanz in Form von zusätzlicher<br />
Kontrollinformation (Kontrollstellen).<br />
3 Kodierung diskreter Quellen 3.1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 22<br />
Quelle<br />
X<br />
Senke<br />
Y<br />
Quellen<br />
kodierer<br />
Quellen<br />
dekodierer<br />
redundanzfrei<br />
oder redundanzarm<br />
Kryptographie<br />
Kanal<br />
kodierer<br />
Kanal<br />
dekodierer<br />
mit zusätzlicher<br />
Redundanz zum<br />
Störungsschutz<br />
Übertra<br />
gungskanal<br />
mit zusätzlicher<br />
Redundanz zum<br />
Störungsschutz<br />
3 Kodierung diskreter Quellen 3.1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 23<br />
Definition Dekodierbarkeitsbedingung (Präfix-, Fanobedingung)<br />
Ein ungleichmäßiger Kode, bei dem kein Kodewort den Anfang (Präfix)<br />
eines anderen Kodewortes darstellt, wird als präfixfreier Kode<br />
bezeichnet (hinreichende Bedingung für Eineindeutigkeit).<br />
Kodebaum – Darstellungsmöglichkeit eines (Quellen-)Kodes<br />
0<br />
Quellenkode:<br />
l=1<br />
0<br />
0 1<br />
0 1<br />
1 0<br />
1 1 0<br />
l=2<br />
1 1 1<br />
0 1 0 1 0 1 0 1<br />
Endknoten<br />
½ ÆÈ ¾ н<br />
l= l max = 3<br />
Von L.G. KRAFT gefundene Ungleichung<br />
ist eine notwendige Bedingung für die Dekodierbarkeit.<br />
3 Kodierung diskreter Quellen 3.2 Dekodierbarkeitsbedingung<br />
1
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 24<br />
¯ÐldÆ<br />
¯ÐÑÆÈ<br />
Kodewortlänge<br />
gleichmäßiger Kode (allg.:ÐldÆ<br />
½ ԴܵÐ<br />
ÀÃ℄) a<br />
ungleichmäßiger Kode<br />
¯ÐÑÀÑ<br />
Schranken<br />
¯ÀÑÐÑÀÑ·½<br />
dekodierbarer Kode<br />
¯ÐÑÀÑ ¾ ÐԴܵ¾ з½redundanzarme Kodierung<br />
Դܵ¾ Ð<br />
redundanzfreie Kodierung (Möglich ?)<br />
ÊÃдѵ¡ÀÃ℄ Àɼ Koderedundanz<br />
aÀÃÀ´µ Entropie<br />
am Kanaleingang des Übertragungskanals<br />
3 Kodierung diskreter Quellen 3.3 Koderedundanz, 1. SHANNONsches Kodierungstheorem
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 25<br />
fürԴܵ¾<br />
Das erste SHANNONsche Kodierungstheorem besagt:<br />
Redundanzfreie Kodierung ist auch Ðmöglich.<br />
Man nimmt eineÑ-fache Erweiterung der Quelle vor, d. h., die<br />
Quellenzeichen werden nicht einzeln, sondern in Blöcken vonÑ<br />
ÑÀÑÑÐÑÑÀÑ·½<br />
Zeichen kodiert.<br />
ÀÑÐÑÀÑ·½Ñ<br />
Im Folgenden: Verfahren der Optimalkodierung<br />
Verfahren der (annähernd) redundanzfreien Kodierung<br />
Grundlage bilden´Ô´Üµµ´Ô´Üܵµ, deshalb auch Entropiekodierung<br />
L: Begleitbuch, S. 40 - 59<br />
3 Kodierung diskreter Quellen 3.3 Koderedundanz, 1. SHANNONsches Kodierungstheorem
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 26<br />
SHANNON-FANO-Verfahren (1949)<br />
1. Ordnen der zu kodierenden Quellenzeichen nach fallenden Werten<br />
der Auftrittswahrscheinlichkeiten<br />
2. Teilen des geordneten Wahrscheinlichkeitsfeldes in zwei Gruppen;<br />
die Teilsummen der Wahrscheinlichkeiten in jeder Gruppe sollten<br />
möglichst gleich groß sein.<br />
Aufgrund dieses Teilungsprinzips enthält jeder Teilungsschritt und<br />
damit jedes Kodewortelement die größte Entropie bzw. Informationsmenge.<br />
3. Kodieren nach dem Prinzip, dass der ersten Gruppe immer einheitlich<br />
das Zeichen 0 (bzw. 1) und der zweiten Gruppe immer einheitlich<br />
das Zeichen 1 (bzw. 0) zugeordnet wird.<br />
4.<br />
Beispiel´Ô´Üµµ´¼½½¼¿¼¼½¼¾¼¼¼¼¼¼µÐÑ<br />
Wiederholen der Schritte 2. und 3.; solange, bis jede Teilgruppe nur<br />
noch ein Element enthält.<br />
3 Kodierung diskreter Quellen 3.4 Optimalkodierung 3.4.1 SHANNON-FANO
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 27<br />
HUFFMAN-Verfahren (1952)<br />
1. Ordnen des gegebenen Wahrscheinlichkeitsfeldes nach fallenden<br />
Werten.<br />
2. Zusammenfassen der letzten zwei Wahrscheinlichkeiten (die mit<br />
den kleinsten Werten) zu einem neuen Wert.<br />
3. Erneutes Ordnen des reduzierten Wahrscheinlichkeitsfeldes entsprechend<br />
Schritt 1.<br />
4. Wiederholen der Schritte 2. und 3. solange, bis die Zusammenfassung<br />
der beiden letzten Elemente den Wert 1 ergibt.<br />
5. Aufstellen eines Kodebaumes entsprechend dem Reduktionsschema<br />
und Zuordnung der Kodesymbole 0 und 1.<br />
´Ô´Üµµ´¼½½¼¿¼¼½¼¾¼¼¼¼¼¼µÐÑ<br />
Beispiel<br />
3 Kodierung diskreter Quellen 3.4 Optimalkodierung 3.4.2 HUFFMAN
ܾ Ü Ü¿ ܽ Ü<br />
<strong>Vorlesung</strong> Informations- und Kodierungstheorie<br />
Ü ¼¼ßÞ¼¼<br />
ÜÐ<br />
28<br />
0,30 0,25 0,16 0,11<br />
¼½½ 0,06<br />
ßÞ¼¼Ð<br />
0,30 0,25 0,16<br />
¼½ 0,12<br />
ßÞ¼½¾Ð<br />
0,30 0,25<br />
¼¾ 0,17<br />
ßÞ¼½Ð<br />
0,30<br />
¼¿¼ ¼¾<br />
0,28<br />
ßÞ Ð<br />
0,42<br />
ßÞ Ð<br />
0 1<br />
0 1 0 1<br />
0,58 0,42<br />
x 4<br />
=01<br />
1<br />
=11<br />
1<br />
ÐѾà É<br />
x =000 5<br />
0<br />
0<br />
x 2<br />
x1<br />
=001<br />
1 x 3<br />
=101<br />
0<br />
x6 =1000<br />
x 7<br />
=1001<br />
1<br />
3 Kodierung diskreter Quellen 3.4 Optimalkodierung 3.4.2 HUFFMAN
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 29<br />
Beispiel<br />
Ñ-fache Erweiterung der Quelle<br />
Eine Binärquelle sei mitÔ´¼µ¼gegeben.<br />
Aufzeigen der Reduzierung vonÊÃmit Erhöhung der Blocklänge von<br />
ѽaufѾ¿(Grundlage: SHANNON-FANO)!<br />
Berücksichtigung<br />
´Ô´Üµµ´¼¾¼¾¼µ´Ô´ÜܵµÀŽ¾Ø<br />
von´Ô´Üܵµ?<br />
Beispiel Beispiel aus 2.2.2 MARKOW-Quellen<br />
´Ô´Üܵµ ¼ ¼¼¾¼¿ ¼½¼¼¿ ¼¾¼½¼ ½ £¾½½¼½¼ÐѾ½Ã £½¼½½½¼Ðѽ½Ã<br />
£¿½¼½½¼ÐÑ¿½¿Ã<br />
Àɾ½¿¼Ø<br />
ɽ½Ø<br />
ÀÉ¿½½Ø<br />
ÀÉÀÅÈԴܵÀÉÐÅÈԴܵÐѽ¿Ã ÉÊü½¼Ø<br />
É<br />
Andere Möglichkeiten<br />
(Berücksichtigen aktuelle Häufigkeiten! SHANNON überholt?)<br />
¯LEMPEL-ZIV(-WELCH)<br />
¯Arithmetische Kodierung<br />
3 Kodierung diskreter Quellen 3.4 Optimalkodierung, Ausblick 3.4.3 Erweiterte Quelle
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 30<br />
Übertragungskanal<br />
Störung<br />
4 Kanäle<br />
Störungen<br />
¯Störungen durch Betriebsmittel (z. B. Unterbrechungen durch<br />
Vermittlungseinrichtungen)<br />
¯Störungen aus dem Umfeld (z. B. Beeinflussungen durch<br />
Starkstromleitungen, magnetische Streufelder)<br />
¯thermisches Rauschen der Bauelemente des Übertragungskanals<br />
¯Funkkanäle: Mehrwegeausbreitung (reflektierende Objekte),<br />
kurzzeitige Abschattungen, Nachbarkanalbeeinflussungen<br />
Trotzdem: Quasi fehlerfreie Übertragung<br />
Im Folgenden nur Betrachtungen aus Sicht der Informationsübertragung !
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 31<br />
BERGERsches Entropiemodell des Übertragungskanals:<br />
H(X|Y)<br />
Quelle<br />
X<br />
H(X)<br />
H T<br />
H(Y)<br />
Senke<br />
À´µ À´µ<br />
H(Y|X)<br />
ÀÌ<br />
Entropie am Kanaleingang<br />
À´µ<br />
Entropie am Kanalausgang<br />
À´µ<br />
Transinformation<br />
Äquivokation (Rückschlussentropie)<br />
giltÀ´µÀ´µÀÌ<br />
Irrelevanz (Störentropie)<br />
Im Idealfall, d. h., der Kanal ist ungestört,<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.1 BERGERsches Modell, Transinformation<br />
Y
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 32<br />
Die TransinformationÀÌist die Informationsmenge, die im Mittel<br />
durch<br />
ÀÌ ein Kanalzeichen<br />
À´µ·À´µ<br />
vom Sender<br />
À´µ<br />
zum Empfänger übertragen werden<br />
kann:<br />
À´µ À´µ À´µ À´µ inØÃ<br />
Notwendig: Kenntnisse über das Stör-(Übergangs-)verhalten<br />
– Statistische Untersuchungen<br />
– Übertragungsweg (Kabel, Funk) widerspiegelt typische<br />
Annahme:´Ô´Ýܵµbekannt,ÆÅ<br />
Fehlerstrukturen<br />
Nachbildung des Störverhaltens (z. B. Binär-, AWGN-Kanalmodell)<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.1 BERGERsches Modell, Transinformation
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 33<br />
Wahrscheinlichkeitstheoretisches Modell eines diskreten Kanals:<br />
p(y M-1|x N-1)<br />
p(x )<br />
p(y )<br />
N-1<br />
. . p(yj<br />
)<br />
p(y<br />
p(x . j |x i)<br />
i)<br />
. ..<br />
.<br />
..<br />
.<br />
.<br />
p(yj |x 0)<br />
p(x1)<br />
p(y<br />
p(y<br />
|x )<br />
1)<br />
1 0<br />
p(x0)<br />
p(y0<br />
)<br />
p(y 0 |x 0 )<br />
.<br />
M-1<br />
X<br />
Y<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.1 BERGERsches Modell, Transinformation
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 34<br />
¯Ô´Ýܵ <br />
Interpretation<br />
und<br />
¯Ô´Ýܵ <br />
Wahrscheinlichkeit, mit welcher das gesendete ZeichenÜunverfälscht<br />
übertragen wird<br />
und<br />
À´µÈ<br />
Wahrscheinlichkeit, mit welcher das gesendete ZeichenÜin das<br />
empfangene<br />
È<br />
ZeichenÝverfälscht<br />
Ô´ÝܵÀÌÀ´µ ½ À´µ<br />
wird<br />
ԴܵԴÝܵld<br />
Ô´Ýܵ½<br />
Für<br />
Ô´Ýܵ¼ <br />
eine fehlerfreie Übertragung<br />
<br />
gilt:<br />
für und<br />
für<br />
ÀÌÀ´µ<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.1 BERGERsches Modell, Transinformation
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 35<br />
´Ô´Ýµµ´Ô´Ý¼µÔ´Ý½µÔ´ÝÅ ´Ô´Üµµ´Ô´Ü¼µÔ´Ü½µÔ´ÜÆ<br />
Beschreibung der Komponenten durch<br />
½µµ<br />
Vektoren bzw. Matrizen:<br />
´Ô´Ýܵµ ¼ Դݼܽµ ¼Ü¼µ Դݽܼµ Դݽܽµ Ô´ÝÅ ½Ü¼µ ½Ü½µ<br />
½ ԴݼÜÆ ½µ ԴݽÜÆ ½µ Ô´ÝÅ ½ÜÆ ½µ <br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />
´Ô´Üݵµ ¼ Դܽݼµ ¼Ý¼µ Դܼݽµ Դܽݽµ ԴܼÝŠԴܽÝÅ ½µ<br />
½ Ô´ÜÆ ½Ý¼µ Ô´ÜÆ ½Ý½µ Ô´ÜÆ ½ÝÅ ½µ <br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />
Beispiel Berechnung vonÀÌ<br />
´Ô´Üµµ´¼¾¼¼¿µ´Ô´Ýܵµ ¼ ¼ ¼¿ ¼½ ¼ ¼½ ¼<br />
¼¾½<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.1 BERGERsches Modell, Transinformation
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 36<br />
Kanalkapazität diskreter Kanäle<br />
Quelle<br />
X<br />
I<br />
Q<br />
Quellen<br />
kodierer<br />
I<br />
KQ<br />
Kanal<br />
kodierer<br />
I K K<br />
I<br />
K<br />
Übertra<br />
gungskanal<br />
Senke<br />
Y<br />
I Q<br />
Quellen<br />
dekodierer<br />
ÁÉ ÁÃÉ<br />
Quelleninformationsfluss<br />
Quellenkodeinformationsfluss<br />
I T<br />
Kanal<br />
dekodierer<br />
I K<br />
ÁÃÃ ÁÌ<br />
Kanalkodeinformationsfluss<br />
Kanalinformationsfluss (ÜbertragungsgeschwindigkeitÚĐÙ)<br />
Transinformationsfluss<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.2 Kanalkapazität
QuelleninformationsflussÁÉinØ×<br />
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 37<br />
ÁÉÉÀÉ (É– Quellensymbolfrequenz<br />
QuellenkodeinformationsflussÁÃÉinØ×<br />
ÁÃÉÉÐÀÃ<br />
inÉ×)<br />
(allg. gleichmäßiger Quellenkode:ÐldÆ<br />
ÀÃ℄)<br />
KanalkodeinformationsflussÁÃÃinØ×<br />
KanalsymbolfrequenzÃinÃ×<br />
ÁÃÃɴз¡ÐµÀÃÉÒÀÃ(Kanalkode:Òз¡Ð)<br />
aus der Übertragungstechnik auch SchrittgeschwindigkeitÚ×in<br />
ÜbertragungsgeschwindigkeitÚĐÙinØ×<br />
inÙ ËÖØØ×oder<br />
TransinformationsflussÁÌinØ×<br />
ÚĐÙÁÃÚ×ÀÃ<br />
ÁÌÚ×ÀÌ<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.2 Kanalkapazität
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 38<br />
ÁÃÁÃÉ ÁÃÙÒ×℄ÉÐ ßÞÐ<br />
Ungesicherte Übertragung<br />
Ú× ÀÃ<br />
ÁÃÁÃà ÁÃ×℄ÉÒ ßÞÐ<br />
Gesicherte Übertragung<br />
Ú× ÀÃ (Kanalkode bekannt!)<br />
ÁÌÁÃÉ Ú×ÁÃÉ ÀÌ ÉÐÀà ÀÌÉÒ<br />
bzw.<br />
ÁÃ×℄ÁÃÃÉÐÀà ÀÌ ÀÃÚ×ÀáÐÒ Ð<br />
(Abschätzung¡Ð!)<br />
vonÁÃÙÒ×℄ÚĐÙÙÒ×℄ÁÃ×℄ÚĐÙ×℄<br />
ƽ¾¼Éɽ¼¼É׿<br />
Beispiel Berechnung<br />
Kanalverhältnisse aus letztem Beispiel<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.2 Kanalkapazität
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 39<br />
Der TransinformationsflussÁÌauf gestörten Kanälen ist immer kleiner<br />
als die ÜbertragungsgeschwindigkeitÚĐÙ.<br />
Die Frage nach der maximal übertragbaren Information führt zum<br />
Begriff der Kanalkapazität.<br />
Definition<br />
Die<br />
ÑÜÁÌÑÜÚ×À̾ÀÌÑÜ<br />
Kanalkapazitätist der Maximalwert des<br />
Transinformationsflusses:<br />
L: Begleitbuch, S. 77 - 90<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.2 Kanalkapazität
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 40<br />
Gestörter Binärkanal<br />
p(x )<br />
p(x<br />
ܼ<br />
0)<br />
ܽ ݼ<br />
Zeichen<br />
ݽ<br />
Zeichen<br />
<br />
Zeichen<br />
Zeichen<br />
Æ<br />
Schrittfehlerwahrscheinlichkeit:<br />
Schrittfehlerwahrscheinlichkeit:<br />
1−<br />
δ<br />
δ<br />
1− ε<br />
X<br />
Y<br />
p(y )<br />
1 1<br />
ε<br />
p(y )<br />
0<br />
´Ô´Ýܵµ ¼ ½ Æ ½ Æ ½ <br />
0 am Kanaleingang<br />
1 am Kanaleingang<br />
0 am Kanalausgang<br />
1 am Kanalausgang<br />
statt des gesendeten<br />
Zeichensܼwird das Zeichenݽempfangen<br />
statt des gesendeten<br />
Zeichensܽwird das Zeichenݼempfangen<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 41<br />
Gegeben:´Ô´ÜµµÆ<br />
Berechnung der Transinformation<br />
von´Ô´Ýµµ vonÀ´µ<br />
1. Schritt: Ermittlung<br />
vonÀ´µ<br />
2. Schritt: Ermittlung<br />
3. Schritt: Berechnung<br />
4. Schritt: Berechnung der TransinformationÀÌÀ´µ À´µ<br />
´Ô´Üµµ´¼¼µÔ´Ý½Ü¼µ¼½ÆԴݼܽµ¼¼<br />
Beispiel Berechnung vonÀÌ<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 42<br />
ÆÔ×<br />
Spezialfälle des gestörten Binärkanals<br />
ÀÌÀ´µ ´½<br />
Symmetrisch gestörter Binärkanal<br />
´½ ½Ô×µ·Ô×ld½Ô× <br />
(Ô×Schrittfehlerwahrscheinlichkeit)<br />
Ô×µld<br />
ÀÌÑܽ ´½ ´½ ½Ô×µ·Ô×ld½Ô× Ô´Ü¼µÔ´Ü½µ½¾: Ô×µld<br />
ÀÌÀ´µ Annahme:Ô×Ƽ<br />
Einseitig gestörter<br />
Դܼµ´½<br />
Binärkanal<br />
´½ ½Ô×µ·Ô×ld½Ô× Ô×µld<br />
À̽·½¾ ´½·Ô×µ ½ Ô×ld½Ô× Ô´Ü¼µÔ´Ü½µ½¾: ´½·Ô×µld<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 43<br />
Binärkanal mit Störerkennung<br />
y(t)<br />
y 0<br />
0 =<br />
y M −1<br />
... ...<br />
y j<br />
y 2<br />
y 1<br />
= 1<br />
t<br />
p(x 1)<br />
p(x 0 )<br />
p(y |x<br />
M-1<br />
.<br />
.<br />
p(y<br />
|x<br />
0 0<br />
)<br />
) p(yj<br />
|x 1)<br />
1<br />
p(y |x ) j 0<br />
p(y )<br />
.<br />
p(y j )<br />
.<br />
M-1<br />
p(y 1 )<br />
p(y )<br />
0<br />
X<br />
Y<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 44<br />
Spezialfall: Symmetrisch gestörter Binärkanal mit Auslöschung<br />
1−p s<br />
−λ<br />
p(x 1) p(y 1)<br />
p(x )<br />
p s<br />
p s<br />
0 1−ps<br />
−λ<br />
0<br />
ÀÌÑÜ´½ µ Ô×ld½Ô×·´½ ԴܼµÔ´Ü½µ½¾:<br />
µld<br />
λ<br />
λ<br />
p(y )<br />
2<br />
p(y )<br />
ݾ– Auslöschungszeichen<br />
½ ½ ´½ Ô× µld<br />
½ Ô× ½ <br />
p(x )<br />
1<br />
p(x )<br />
0<br />
1−λ<br />
λ<br />
1−λ<br />
λ<br />
p(y )<br />
1<br />
p(y )<br />
2<br />
p(y )<br />
ԴܼµÔ´Ü½µ½¾: ÀÌÑÜ´½ µ<br />
0<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 45<br />
Beispiel<br />
Bewertung von Kanalmodellen<br />
1−p s<br />
p(x 1) p(y 1)<br />
p s<br />
p(y )<br />
2<br />
1−p s<br />
−λ<br />
p(x 1) p(y 1)<br />
p s<br />
1−λ<br />
p(x 1) p(y 1)<br />
λ<br />
p(y 2)<br />
p<br />
p s<br />
s<br />
λ<br />
p(x<br />
Gegeben:ԴܼµÔ´Ü½µ½¾<br />
0)<br />
p(y 0)<br />
p(x 0)<br />
p(y 0)<br />
p(x 0)<br />
1−p s<br />
1−p s<br />
−λ 1−λ<br />
Kanal<br />
¼ 1<br />
Kanal 2<br />
Kanal 3<br />
Դݽµ ¼µ<br />
Դݾµ ½ ¼ ¼´½ ½ µ<br />
´¼¼µ ¼ ½ Ô× ½ Ô× ½ Ì<br />
½ Ô× ¼<br />
λ<br />
λ<br />
p(y )<br />
2<br />
p(y )<br />
0<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 46<br />
Դݼµ Դݽµ ¼ ¼ Դݾµ ¼ ¼¼½ ¼<br />
À´µ ½¼¼¼Øà ½¼½Øà ½½¾½Øà ¼¼¾<br />
À´µ ÀÌÑÜ ¼½½Øà ¼Øà ¼½½Øà ¼¼Øà ¼½½Øà ¼¼ØÃ<br />
Ergebnis:<br />
Kanal 1 Kanal 2 Kanal 3<br />
L: Begleitbuch, S. 90 - 99<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 47<br />
ÀÌÑܽØÃ<br />
und<br />
Kanalkapazität des Binärkanals<br />
Für den ungestörten Fall und unter der AnnahmeԴܼµÔ´Ü½µgilt:<br />
ÑÜÆØ ×¾Æ× ½.<br />
Die<br />
¾½ ´½<br />
Kanalkapazität eines symmetrisch gestörten Binärkanals mit<br />
´½ ½Ô×µ·Ô×ld½Ô× gleichverteilten Eingangszeichen lautet beispielsweise:<br />
. Ô×µld<br />
Beispiel<br />
Dimensionierung vonÉ (Aufg.s.: 3.1, 8. Aufgabe)<br />
´Ô´Üµµ´¼½¼¿¼½¼¼¼¼¼µ,<br />
(rauschfreier) Binärkanal mit½¼¼ÀÞ,ɼÉ×möglich?<br />
4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 48<br />
Analoge Kanäle<br />
Entropie analoger Quellen<br />
f(x)<br />
f(x i)<br />
0 x i x<br />
∆x<br />
Die Wahrscheinlichkeit, dass die zufällige GrößeÜim Bereich¡Ü<br />
ԴܵÊ<br />
liegt, berechnet<br />
¡Ü ´Üµdܴܵ¡Ü<br />
sich durch<br />
4 Kanäle 4.2 Analoge Kanäle 4.2.1 Entropie analoger Quellen
À×ÖÀÑÈ<br />
<strong>Vorlesung</strong> Informations- und Kodierungstheorie<br />
½<br />
49<br />
È ´Üµ¡Ü <br />
´Üµ¡Üld<br />
´Üµ ½ È<br />
ÀÒ½Ê ´Üµ¡Üld¡Ü ½ ´ÜµdÜ ½ ld¡Ü<br />
´Üµ¡Üld<br />
´Üµld<br />
ld¡Ü ¡Üist unter gleichen Bedingungen konstant. Daher lässt man<br />
ÀÖнÊ<br />
meistens weg und spricht dann von der relativen Entropie einer<br />
analogen<br />
½ ´ÜµdÜ ½<br />
Quelle:<br />
´Üµld<br />
vonÀÖÐ<br />
´ÜµÔ¾È ½ ¾È ܾ<br />
Beispiel Berechnung<br />
4 Kanäle 4.2 Analoge Kanäle 4.2.1 Entropie analoger Quellen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 50<br />
Transinformation analoger Kanäle<br />
¯Signale und Störungen überlagern sich additiv und sind damit am<br />
Kanalausgang als Summe beider vorhanden.<br />
¯Es entstehen keine Störanteile, die vom Nutzsignal abhängen.<br />
Nutz- und Störsignal sind unkorreliert, d. h., die Leistung des<br />
Empfangssignals ist gleich der Summe aus Nutz- und<br />
Störsignalleistung:<br />
P x<br />
P y = P x + P z<br />
Pz<br />
Annahme: Amplitudenwerte von Nutz- und Störsignal sind<br />
normalverteilt:´Üµ<br />
½ ¾È ܾ Ô¾Èe<br />
4 Kanäle 4.2 Analoge Kanäle 4.2.2 Transinformation, Kanalkapazität
<strong>Vorlesung</strong><br />
À´µ½¾ld¾ÈÜ<br />
Informations- und Kodierungstheorie 51<br />
Entropie der Quelle<br />
´ÈÜmittlere Nutzsignalleistungµ<br />
À´µ½¾ld¾ÈÞ<br />
Störentropie<br />
´ÈÞmittlere Störsignalleistungµ<br />
À´µ½¾ld¾´ÈÜ·ÈÞµ<br />
Entropie am Kanalausgang<br />
À̽¾ld½·ÈÜ ÈÞ <br />
Transinformation analoger Kanäle<br />
À̽¾ldÈÜ<br />
der BedingungÈÜ<br />
ÈÞ½<br />
ÈÞ<br />
unter<br />
4 Kanäle 4.2 Analoge Kanäle 4.2.2 Transinformation, Kanalkapazität
<strong>Vorlesung</strong><br />
Ö½¼ÐÈÜ<br />
Informations- und Kodierungstheorie 52<br />
ÈÞ<br />
Rauschabstand<br />
in(Dezibel)<br />
FürÈÜ<br />
À̽¾¼¿¿¾Ö¼½Ö<br />
dann<br />
ÈÞ½gilt<br />
Ò¾½¾ld½·ÈÜ ÈÞ<br />
Kanalkapazität analoger Kanäle<br />
ÒÆØ ×Æ× ½ld½·ÈÜ<br />
oder<br />
FürÈÜ<br />
ÈÞ <br />
Ò¼¿¿¾Ö<br />
man<br />
ÈÞ½erhält<br />
L: B.buch, S. 33 - 37, 68 - 76, 102 - 106<br />
4 Kanäle 4.2 Analoge Kanäle 4.2.2 Transinformation, Kanalkapazität
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 53<br />
Quantisierung analoger Signale<br />
Quelle<br />
Kodierer<br />
Übertragungskanal<br />
Dekodierer<br />
Senke<br />
Diskrete<br />
Quelle<br />
Analoge<br />
Quelle<br />
Störung<br />
Analoge Quelle<br />
f(t)<br />
Abtastung<br />
f(n t<br />
A<br />
)<br />
Amplituden−<br />
quantisierung<br />
f*(n t<br />
A<br />
)<br />
Quellenkodierer<br />
x(t)<br />
f(t)<br />
f(n t<br />
A)<br />
f*(n t<br />
A<br />
)<br />
x(t)<br />
t<br />
n t<br />
A<br />
n t<br />
A<br />
t<br />
a)<br />
b) c) d)<br />
4 Kanäle 4.3 Quantisierung analoger Signale
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 54<br />
Zeitquantisierung<br />
¾ Ï×<br />
Abtastfrequenz<br />
in<br />
Abstand der Abtastwerte:<br />
ؾ½<br />
½ <br />
bei Einhaltung obiger Bedingung kein Infomationsverlust<br />
Amplitudenquantisierung<br />
Informationsverlust abhängig von Stufung und Verteilung<br />
Annahme: Quantisierung mit linearer Kennlinie<br />
4 Kanäle 4.3 Quantisierung analoger Signale
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 55<br />
n<br />
m<br />
Diskrete Quelle<br />
i<br />
2<br />
δ<br />
21<br />
δ<br />
22<br />
1<br />
ÀÕÑÈ ½<br />
x 1<br />
x 2<br />
Դܵ<br />
½x i<br />
Ï Ø<br />
x<br />
m<br />
x<br />
Analoge Quelle<br />
Դܵld<br />
ÀÕÑÜldÑ<br />
in<br />
Դܵ½Ñ:<br />
4 Kanäle 4.3 Quantisierung analoger Signale
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 56<br />
Modell der diskreten Übertragung eines quantisierten, gestörten Signals<br />
Analoge Quelle<br />
Q<br />
an<br />
I<br />
Q<br />
Analoger<br />
Kanal<br />
C an<br />
ADU<br />
Iq= I KQ<br />
Kodierer<br />
Übertragungskanal<br />
Dekodierer<br />
Senke<br />
ld½·ÈÜ ÒÁÕ<br />
ÈÞ ¾ldÑ<br />
ÑÕÈÜ ÈÞ oderѽ¼Ö¾¼<br />
Störung<br />
Dekodierer DAU Senke<br />
ÁÕÁÃÉ, wennÐldÑ<br />
4 Kanäle 4.3 Quantisierung analoger Signale
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 57<br />
Kenngrößen der Analog-Digital-Umwandlung<br />
¯Grenzfrequenz<br />
Das analoge Signal hat zwei Kenngrößen, die den Informationsfluss<br />
¯RauschabstandÖ<br />
bestimmen:<br />
und<br />
¯UmsetzzeitØÙ<br />
Wichtige<br />
¯KodewortlängeÐldÑ<br />
Kenngrößen des Analog-Digital-Umsetzers (ADU) sind:<br />
und<br />
Da durch den ADU das quantisierte Signal in einem gleichmäßigen<br />
Kode dargestellt wird, werden nur Stufenanzahlen von<br />
Ѿ(½¾)<br />
realisiert.<br />
4 Kanäle 4.3 Quantisierung analoger Signale
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 58<br />
Bedingungen zur Vermeidung von Informationsverlust durch ADU:<br />
¯In<br />
ØÙØ<br />
der ZeitØÙist das Signal abzutasten und der Abtastwert in einem<br />
Binärkode darzustellen:<br />
м½ÖѾÐ<br />
¯Die erforderliche Kodewortlänge wird durch den Rauschabstand<br />
vorgegeben:<br />
mitÐinÃ<br />
ÏÖin<br />
ÁÃɾÐÀÃÐÀÃ<br />
Kanalkapazität des nachgeschalteten Binärkanals:<br />
(Gesicherte Übertragung!)<br />
Ò½ÀÞÖ¼BK:¼½Æ¼¼Ô´Ü¼µÔ´Ü½µ<br />
Übertragung:ÚĐÙÙÒ×℄ÚĐÙ×℄Ò<br />
Beispiel ADU, diskrete<br />
L: Begleitbuch, S. 108 - 123<br />
4 Kanäle 4.3 Quantisierung analoger Signale
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 59<br />
Kanal−<br />
(de)kodierer<br />
Fehlerkorrektur<br />
durch Wiederholung (ARQ)<br />
[automatic repeat request]<br />
"Fehlererkennung"<br />
durch Rekonstruktion (FEC)<br />
[forward error correction]<br />
"Fehlerkorrektur"<br />
mit Entscheidungs<br />
rückmeldung<br />
mit Maximum<br />
Likelihood<br />
mit begrenzter<br />
Mindestdistanz<br />
5 Kanalkodierung 5.1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 60<br />
ARQ<br />
a*<br />
FEC<br />
Kanalkodefolge<br />
a<br />
Übertragung<br />
Empfangsfolge b<br />
Wiederholung<br />
n fehlerfreie<br />
Übertragung ?<br />
n<br />
Fehlerkorrektur<br />
j<br />
Entfernen der<br />
Redundanz<br />
5 Kanalkodierung 5.1 Einführung<br />
b*
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 61<br />
Fehlerkorrektur durch Wiederholung<br />
hinzugefügte redundante Stellen nur zur Erkennung eines Fehlers<br />
Fehlerkorrektur durch Rekonstruktion<br />
hinzugefügte redundante Stellen zur Erkennung eines Fehlers und<br />
Lokalisierung der Fehlerpositionen<br />
FECARQ<br />
(Aus Abschätzung bekannt:¡Ð)<br />
Rekonstruktionsergebnisse<br />
¯korrekte Rekonstruktion<br />
¯falsche Rekonstruktion<br />
¯Versagen der Rekonstruktion<br />
5 Kanalkodierung 5.1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 62<br />
Allgemeine Kenngrößen von Kanalkodes<br />
Quelle<br />
X<br />
Quellen<br />
kodierer<br />
A *<br />
Kanal<br />
kodierer<br />
A<br />
ܾܽÜÄ<br />
Senke<br />
Quellen<br />
Y<br />
dekodierer<br />
½¾Ä ££½£¾£Ä<br />
½¾Æ ½¾Æ<br />
B*<br />
Kanal<br />
dekodierer<br />
Übertra<br />
gungskanal<br />
´Òе, auch´ÒÐÑÒµKode<br />
B<br />
E<br />
Beispiel<br />
´Ò½ÒµWiederholungskode<br />
5 Kanalkodierung 5.1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 63<br />
´Ù½Ù¾ÙÒµund´Ù½Ù¾ÙÒµ<br />
Definition<br />
Die Anzahl der Stellen, in denen sich zwei Kodewörter<br />
´µ¾ÒÙÙ ¾Ò½¾Ò<br />
unterscheiden, bezeichnet man als HAMMING-Distanz´µ:<br />
mit<br />
´µ<br />
Binärkode:<br />
½´Ù¨Ùµ ÒÈ<br />
Û´µ<br />
HAMMING-Distanz:<br />
½ ÒÈ Ù´0µ<br />
ÑÒ¾´µÑÒ<br />
¾Ò¼´0µÑÒ ¾Ò¼Û´µÛÑÒ<br />
HAMMING-Gewicht:<br />
Beispiel<br />
Distanzberechnung<br />
´½ÑÒ)Wiederholungskode;´¿ÑÒ)Paritätskode<br />
5 Kanalkodierung 5.1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 64<br />
Geometrische Deutung der minimalen HAMMING-Distanz:<br />
Kodewort<br />
a i<br />
Kodewort<br />
a j<br />
Korrekturkugeln<br />
d( ai , a j )<br />
0 1 2 3 4 5<br />
ÑÒund<br />
FK:ÑÒ ÑÒ··½<br />
Leistungsfähigkeit<br />
½ FE:¼ÑÒ ½<br />
eines Kodes bzgl. und FK:<br />
¾ ÑÒ ¾ (ÑÒgeradzahlig?)<br />
Beispiel Fortsetzung:<br />
5 Kanalkodierung 5.1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 65<br />
¾Ò¾Ð¾¾Ð½· Ò½¡· Ò¾¡·· Ò¡<br />
Berechnung der redundanten Stellen(bekannt:ÑÒÐoderÒ)<br />
´Ò µÒ´Ò ½µ¡¡´Ò ½¡¾¡¡·½µ<br />
ldÈ ¼ Ò¡ldÈ ¼ з ¡<br />
¾È ¼ Ò¡ Ò¡ Ò<br />
untere Schranke fürbei vorgegebenemÐ<br />
obere Schranke fürÐbei vorgegebenemÒÐÒ <br />
HAMMING-Schranke<br />
”“: Entsprechende Kodes heißen dichtgepackt oder perfekt.<br />
Beispiel Berechnung von<br />
ÐÑÒ<br />
5 Kanalkodierung 5.1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie<br />
ÖÒ Ð<br />
66<br />
Weitere Kodekenngrößen<br />
relative Redundanz<br />
Koderate ÊÐÒ<br />
Ò Ò<br />
Zweites SHANNONsches Kodierungstheorem<br />
Die RestfehlerwahrscheinlichkeitÔÊkann beliebig klein gehalten<br />
werden, solange die KoderateÊden Wert der maximalen<br />
TransinformationÀÌnicht überschreitet.<br />
Darüber hinaus hat SHANNON theoretisch nachgewiesen, dass auch<br />
bei beliebig kleiner Restfehlerwahrscheinlichkeit immer noch eine<br />
Koderate größer als Null möglich ist [SHA 48].<br />
L: Begleitbuch, S. 125 - 137<br />
5 Kanalkodierung 5.1 Einführung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 67<br />
ÐÓÓ× ÐÖ×ÃÒÐÓ× ÐÓÖ´×ÕÙÒØÐеÃÓ×<br />
Klassifizierung von Kanalkodes<br />
ÈÖØĐØ×Ó× ´ÒĐÖ¸ÒØÒĐÖµ ´ÒĐÖµ<br />
´ÎÖØØØÃÓ×µ ÏÖÓÐÙÒ×Ó× ÊßÅÍÄÄÊßÃÓ×ÀßÃÓ×ÊËßÃÓ×<br />
ÀÅÅÁÆßÃÓ× ÝÐ×ÃÓ× ÐØÙÒ×Ó×<br />
´ÊßÃÓ×µ<br />
Neu“: Turbokodes, LDPC-Kodes<br />
”<br />
(einfache, auch verkettete Blockkodes mit iterativer Dekodierung)<br />
L: Begleitbuch, S. 138 - 141<br />
5 Kanalkodierung 5.2 Klassifizierung von Kanalkodes
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 68<br />
Definition<br />
Ein Kode heißt linearer Blockkode, oder kurz Linearkode, wenn der<br />
Kanalkodierer für die Transformation von Quellenkodewörtern der<br />
LängeÐaus dem Alphabet£(Quellenkode) in Kanalkodewörter der<br />
LängeÒdes Alphabets(Kanalkode) eine Verknüpfungsoperation<br />
verwendet, die in der algebraischen Struktur einer Gruppe definiert ist.<br />
Darstellung von Linearkodes als Gruppe<br />
Axiom G1: Abgeschlossenheit<br />
Axiom G2: Assoziatives Gesetz<br />
Axiom G3: Neutrales Element<br />
Axiom G4: Inverses Element<br />
Kommutativgesetz<br />
abelsche Gruppe<br />
Beispiel<br />
Wiederholungskode, Paritätskode<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 69<br />
Wichtig für algebraische Kodes:<br />
£lineare Verknüpfung von Kanalkodewörtern führt wieder zu einem<br />
Kanalkodewort<br />
£Nullwort ist immer auch Kanalkodewort<br />
£Axiome stellen Kodebildungs- und Fehlererkennungsvorschrift dar<br />
¼½ÒmitľÐKanalkodewörtern,Ò Ð £´ÒÐÑÒµKanalkode:<br />
£ÑÒdes Kanalkodes bestimmt Leistungsfähigkeit<br />
FE:ÑÒ<br />
Bei einem Linearkode ist die minimale HAMMING-Distanz gleich<br />
FK:¤ÑÒ<br />
dem minimalen<br />
¾ ½½ÛÑÒ ¥¤ÛÑÒ Gewicht der<br />
¾ ½¥¤ÑÒ<br />
Kodewörter (außer<br />
¾ ¥¤ÛÑÒ<br />
dem Nullwort).<br />
¾ ¥<br />
Beispiel Kanalkodealphabet<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 70<br />
½ ¼ ´¼¼¼¼¼¼¼µ ´½¼¼¼½¼½µ<br />
Kanalkodealphabet:<br />
¾ ´¼¼½¼½½¼µ ´¼¼¼½¼½½µ ½¼ ´½¼¼½½½¼µ<br />
¿ ´¼¼½½½¼½µ ½½ ´½¼½¼¼½½µ<br />
´¼½¼¼½½½µ ½¾ ´½¼½½¼¼¼µ<br />
´¼½¼½½¼¼µ ½¿ ´½½¼¼¼½¼µ<br />
´¼½½¼¼¼½µ ½ ´½½¼½¼¼½µ<br />
´¼½½½¼½¼µ ½ ´½½½¼½¼¼µ ´½½½½½½½µ<br />
Überprüfen der Eigenschaften!<br />
´ÒÐÑÒµLinearkode<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 71<br />
Darstellung von Linearkodes durch Matrizen<br />
Definition<br />
Ein LinearkodemitľÐKanalkodewörtern ist durch seine<br />
GeneratormatrixmitÐlinear unabhängigen Kanalkodewörtern<br />
(Basiswörtern) eindeutig beschrieben:<br />
Ð¢Ò ¼ Ù Ù¾½ ½½ Ù½¾ Ù¾¾ Ù½Ò½ Ù¾Ò<br />
Ùн Ùо .<br />
.<br />
. ..<br />
ÙÐÒ<br />
Ù ¾¼½<br />
. Mit einer Einheitsmatrix über den erstenÐSpalten der Generatormatrix<br />
sind die zugehörigen Kanalkodewörter mit Sicherheit linear<br />
unabhängig.<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 72<br />
Kanonische oder reduzierte Staffelform<br />
Ð¢Ò ¼ ½ ¼ ½ ¼ ٠پз½ ½Ð·½ ٽз¾ پз¾ Ù½Ò½<br />
Ù¾Ò<br />
¼ ½ ÙÐз½ ÙÐз¾ ÙÐÒ<br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />
¼ ½ ¼ ½ ¼ ¾½ ½½ ½¾ ¾¾ ½½ ¾ ÁÐ℄<br />
¼ ¼ ¼ ½ н о Ð<br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />
Beispiel<br />
Fortsetzung:ТÒ<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 73<br />
Definition<br />
Ein Linearkode heißt systematischer Kode, wenn aus einem<br />
Kanalkodewort¾durch Streichen redundanter Stellen das<br />
Quellenkodewort£¾£unmittelbar entnommen werden kann.<br />
£¡Ð¢Ò<br />
Bildung eines Kanalkodewortes – Kanalkodierung<br />
´Ù½Ù¾ÙÒµ ´Ù½Ù¾Ùе ¼ ½ ¼ ½ ¼¼ ¾½ ½½ ½¾½ ¾¾¾<br />
¼ ¼ ¼½ н оÐ<br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />
Fortsetzung:£´¼½¼½µ<br />
Beispiel<br />
½<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 74<br />
Aufbau einer Kontrollmatrix (aus der Generatormatrix):<br />
Ein zuorthogonaler Unterraum¼ist dadurch gekennzeichnet, dass<br />
das Skalarprodukt eines beliebigen Vektors ausmit jedem beliebigen<br />
Vektor<br />
´Ù½Ù¾ÙÒµ<br />
aus¼Null ist.<br />
Es<br />
¼´Ù½Ù¾ÙÒµmit¼¾¼<br />
mit¾<br />
sei<br />
und<br />
¡¼Ù½¡Ù½¨Ù¾¡Ù¾¨¨ÙÒ¡ÙÒ¼<br />
Dann gilt<br />
ÁÐ℄ <br />
für alle<br />
£Ist<br />
dann ist der zuorthogonale Unterraum¼<br />
ÀÌÁ℄<br />
durch<br />
¡ÀÌ´À¡ÌµÌ¼<br />
beschrieben.<br />
Orthogonalitätsbedingung:<br />
Beispiel Fortsetzung:ТÒÀ¢Ò<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 75<br />
¡¼Ì<br />
Kontroll(auch<br />
½ Ù½¡½½¨Ù¾¡¾½¨¨ÙСн¨Ùз½¡½¨Ùз¾¡¼¨¨ÙÒ¡¼<br />
Prüf-)matrix liefert auch Vorschrift zur Bildung der<br />
Kontrollstellen(Bestimmungsgleichungen):<br />
¼<br />
Ùз½℄½Ù½¡½½¨Ù¾¡¾½¨¨ÙСн<br />
Allgemein:<br />
Erstes KontrollelementÙз½℄½des Kanalkodewortes:<br />
Ùз℄Ù½¡½¨Ù¾¡¾¨¨ÙСР´½¾µ<br />
für´Ù½Ù¾ÙÐÙз½Ùз¾Ùзµ´Ð½Ð¾Ðн¾µ<br />
£´¼½¼½µ<br />
für´½¾µ<br />
Beispiel Forts.: Bestimmungsgleichungen<br />
L: Begleitbuch, S. 142 - 151<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 76<br />
Fehlererkennung und Fehlerkorrektur – Kanaldekodierung<br />
¯Die Empfangsfolgekann als Überlagerung eines Kanalkodewortes<br />
mit einem Fehlerwortaufgefasst werden:<br />
¨.<br />
×À¡ÌÀ¡´¨µÌÀ¡Ì ßÞÐ<br />
Damit gilt für das Fehlersyndrom<br />
¼ ¨À¡ÌÀ¡Ì<br />
(auch Prüfvektor)<br />
GewichtÛ´µÑÒ<br />
GewichtÛ´µÑÒ<br />
¯Alle Fehlermuster, deren<br />
¾ ½<br />
½ist, sind mit<br />
Sicherheit erkennbar.<br />
¯Alle Fehlermuster, deren ist, sind mit<br />
Sicherheit korrigierbar.<br />
¯Ist¾undÛ´µÑÒ<br />
¯Darüber hinaus sind nur Fehlermuster<br />
¾ ½<br />
erkennbar, die nicht indefiniert<br />
sind, d. h.¾.<br />
erfolgt eine Falschkorrektur oder<br />
Rekonstruktionsversagen.<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.2 FE und FK
<strong>Vorlesung</strong> Informations-<br />
×À¢Ò¡Ì<br />
und Kodierungstheorie 77<br />
¯Empfangsfolge¾?<br />
(auch: Kontrollgleichungen für×´½¾µ)<br />
×¼:¾<br />
fehlerfreie Übertragung<br />
oder<br />
kein erkennbarer Fehler<br />
langeÛ´µ¤ÑÒ<br />
×¼:¾Fehlererkennung,<br />
¾ ½¥<br />
Korrektur?<br />
¯Jedem Fehlersyndrom ist maximal ein Fehlermuster zugeordnet, so-<br />
¯Die Syndrome sind-stellige Vektoren. Also können´¾<br />
Fortsetzung:´½½¼¼½¼½µ¾<br />
½µverschiedene<br />
Fehlermuster<br />
für×´½¾µ<br />
korrigiert werden.<br />
Beispiel<br />
Kontrollgleichungen<br />
L: Begleitbuch, S. 152 - 154<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.2 FE und FK
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 78<br />
Einfachster“ Linearkode:<br />
£´Ù½Ù¾Ùе´Ù½Ù¾ÙÐÙз½µ<br />
”<br />
Paritätskode<br />
Ùз½ ÐÈ Ùз½– Paritätselement:<br />
½<br />
Ùmod¾ (Ergänzung auf geradzahlige Anzahl Eins)<br />
Generatormatrix´Ò<br />
ÑÒ? ½µ¢Ò?<br />
KontrollmatrixÀ½¢Ò?<br />
Fehlererkennung:×À¡ÌÒÈ<br />
½ Ùmod¾×¼¾<br />
Anwendung: DÜ in Rechnern, Erweiterung von Kodes, RAID5<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.2 FE und FK
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 79<br />
Verkettung von zwei Paritätskodes<br />
´Ò½¡Ò¾Ð½¡Ð¾ÑÒ½¡ÑÒ¾µProduktkode<br />
Quellen−<br />
kodewörter<br />
aus A*<br />
Paritätselemente<br />
bzgl. der l Zeilen<br />
Paritätselement<br />
bzgl. der<br />
Paritätselemente<br />
Beispiel:<br />
1 0 0 1 0 0<br />
1 0 1 0 1 1<br />
0 1 1 0 0 0<br />
1 0 0 1 1 1<br />
0 0 0 0 0 0<br />
0 1 1 0 1 1<br />
1 0 1 0 1 1<br />
Paritätselemente<br />
( l +1) stelliges<br />
bzgl. der m Spalten l stelliges<br />
Kanalkodewort Quellenkodewort<br />
s<br />
0<br />
s<br />
1 0 0 1 0 0 0<br />
1 0 1 0 1 1 0<br />
0 1 1 0 0 0 0<br />
1 0 0 1 1 1 0<br />
0 0 0 1 0 0 1<br />
0 1 1 0 1 1 0<br />
1 0 1 0 1 1 0<br />
0 0 0 1 0 0 1<br />
0<br />
5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.2 FE und FK
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 80<br />
Fehlerkorrigierender HAMMING-Kode<br />
Definition<br />
¯Der<br />
vonÒ¾<br />
fehlerkorrigierende HAMMING-Kode ist zunächst bzgl. der<br />
HAMMING-Schranke ein dichtgepackter Kode. Er hat einen minimalen<br />
HAMMING-Abstand vonÑÒ¿und eine Kodewortlänge<br />
½.<br />
¯Man bezeichnet diesen Kode auch als einfehlerkorrigierenden<br />
HAMMING-Kode.<br />
¯Geschickte Vertauschung der Spalten vonÀ, so dass die-te Spalte<br />
vonÀder Dualdarstellung vonentspricht. Das Fehlersyndrom×<br />
liefert dann unmittelbar die dual dargestellte Position des fehlerhaften<br />
Elementes in.<br />
5 Kanalkodierung 5.4 Einfehlerkorrigierende HAMMING-Kodes
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 81<br />
¼½<br />
Ò Ò Ò<br />
¯Kontrollmatrix eines´µHAMMING-Kodes:<br />
À¢ÒÀ¿¢ ½¼Ð¿<br />
½ Ò<br />
¼½Ð¾<br />
½ Ò¿ ¼ Ò¾ ¼ Ò½½ Ð ¼¿ ½Ð½<br />
½¼¾ ¼½ <br />
PositionenÒ¾´¼½µ ½<br />
Kontrollstellen an<br />
¯×À¡Ì chungen´½¾µausÀ´℄Ðпо¿Ð½¾½µ<br />
Berechnen der Kontrollstellen mittels den Bestimmungsglei-<br />
durch×´××<br />
bzw. Kontrollgleichungen×´½¾µausÀ<br />
Ein Fehler<br />
£´½¼¼½µ¨´¼¼½¼¼¼¼µ£<br />
wird ½×½µÌlokalisiert und damit<br />
korrigiert.<br />
Beispiel<br />
5 Kanalkodierung 5.4 Einfehlerkorrigierende HAMMING-Kodes
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 82<br />
Verkürzter HAMMING-Kode<br />
FürKontrollstellen sind maximalÒ¾ ½verschiedene Syndrome<br />
möglich und damit maximalÒ¾<br />
о ½Stellen bzgl. Einfachfehler<br />
korrigierbar.<br />
о ½<br />
liefert einen dichtgepackten<br />
mitÒ¾<br />
Kode<br />
(HAMMING-Schranke erfüllt), ”“ ½ einen verkürzten Kode<br />
Das Korrekturschema des einfehlerkorrigierenden HAMMING-Kodes<br />
lässt sich auch dann anwenden.<br />
Beispiel<br />
´µHAMMING-Kodeverkürzter´¿µHAMMING-Kode<br />
Überprüfe mit HAMMING-Schranke!<br />
5 Kanalkodierung 5.4 Einfehlerkorrigierende HAMMING-Kodes
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 83<br />
Erweiterter HAMMING-Kode<br />
¯Jedem Kanalkodewort wird ein weiteres Kontrollelement¼hinzugefügt.<br />
´℄Ðпо¿Ð½¾½¼µ´℄ÒÒÒÒÒ¿Ò¾Ò½Ò¼µ<br />
¯Dieses Kontrollelement wird durch eine zusätzliche Bestimmungsgleichung<br />
Ò¼ÒÈ ½<br />
berechnet, die sämtliche Kodewortelemente einbezieht:<br />
mit<br />
Òmod¾zusätzl. Kontrollgleichung:×¼ÒÈ<br />
¼<br />
Òmod¾<br />
Paritätsbit<br />
Erzeugt Kanalkode mit geradzahliger Parität<br />
¯Die Anzahl der Kontrollelemente beträgt damit·½, die Kodewortlänge<br />
£´½¼¼½µ<br />
erhöht sich aufÒ¾. Der Minimalabstand istÑÒ.<br />
¯Die Anzahl<br />
´½½¼½½¼¼½µ¾<br />
der Informationselemente ist unverändert.<br />
Beispiel<br />
von×und×¼ Auswertung<br />
L: Begleitbuch, S. 156 - 161<br />
5 Kanalkodierung 5.4 Einfehlerkorrigierende HAMMING-Kodes
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 84<br />
Zyklische Kodes<br />
Binäre primitive BCH-Kodes<br />
´ÙÒ<br />
Definition<br />
½ÙÒ ¾Ù½Ù¼µ<br />
Ein Kode heißt zyklisch, wenn für jedes Kanalkodewort<br />
durch zyklische Verschiebung der Elemente mit<br />
´ÙÒ ¾ÙÒ ¿Ù¼ÙÒ ½µ<br />
wieder ein Kanalkodewort entsteht. a<br />
Ein zyklischer Kode ist ein spezieller Linearkode, der sowohl<br />
algebraische Gruppenaxiome als auch Ring- und Körperaxiome erfüllt.<br />
Das Generatorpolynom´Üµist i. Allg. ein Produkt von MinimalpolynomenѴܵ,<br />
das den zyklischen Kode vollständig beschreibt.¾!<br />
Hinweis: Schreibweise von Polynomen<br />
ȴܵÙÖÜÖ·ÙÖ ½ÜÖ ½··Ù¼mitÙ¾¼½<br />
a<br />
ExponentenÖÒdurchÖmodÒ ´Üµ´Üµ¡ÜÞmod´ÜÒ·½µersetzt<br />
5 Kanalkodierung 5.5 Zyklische Kodes
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 85<br />
über´¾µ<br />
Ausgewählte algebraische Grundlagen<br />
¯Eigenschaften eines Modularpolynoms<br />
1. Das Modularpolynom muss irreduzibel sein.<br />
£Ein Polynom ist irreduzibel, wenn es nicht in ein Produkt von<br />
Polynomen zerlegbar ist.<br />
Ò¾½ ½<br />
£Das ModularpolynomŴܵvom Grad½gradŴܵbestimmt<br />
den KodeparameterÒmit<br />
ÜmodŴܵ´¼½Ôµ<br />
£Der tatsächliche Wert vonÒberechnet sich aus dem Zyklus der<br />
Polynomreste über´¾µmit<br />
und bestimmtÒÔ¾½ ½<br />
Ŵܵܿ·Ü¾·½<br />
Beispiel<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen
ÒÔ¾½ ½<br />
dann besitzt das irreduzible PolynomŴܵauch die Eigenschaft,<br />
primitiv zu sein.<br />
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 86<br />
2. Ist<br />
¯Erweiterungskörper und Minimalpolynome<br />
Die Leistungsfähigkeit eines BCH-Kodes hängt von der Anzahl aufeinanderfolgender<br />
Nullstellen in´Üµab.Nullstellen?<br />
ȴܽµ½È´Ü¼µ½<br />
Beispiel<br />
ȴܷܷܵ½über´¾µprimitiv:<br />
Das Polynomȴܵhat über´¾µkeine Nullstelle.<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 87<br />
Fundamentalsatz der Algebra<br />
Jedes Polynom hat mindestens eine Nullstelle, gegebenenfalls in einem<br />
anderen Körper, und jedes PolynomÖ-ten Grades lässt sich in genauÖ<br />
Teilpolynome<br />
ȴܵÙÖÜÖ·ÙÖ<br />
ersten<br />
½ÜÖ<br />
Grades,<br />
½··Ù½Ü·Ù¼<br />
d. h. inÖLinearfaktoren, zerlegen, i. Allg.<br />
unter Zuhilfenahme von Erweiterungselementen«:<br />
´Ü «½µ´Ü «¾µ´Ü «Öµ<br />
Ein neues Element«wird als Nullstelle eines irreduziblen Polynoms<br />
über´¾µhinzugefügt, welches einem Erweiterungskörper angehört.<br />
Auf der Grundlage eines irreduziblen ModularpolynomsŴܵvom<br />
in´¾½µ<br />
Grad½gradŴܵüber´¾µentsteht durch Hinzunahme einer<br />
Nullstelle«ein endlicher Erweiterungskörper´¾½µ, d. h.,«ist<br />
Nullstelle vonŴܵund ein (Erweiterungs-)Element<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie<br />
Elemente«´¼½´¾½ ¾µµ<br />
88<br />
Zum Erweiterungskörper´¾½µgehören<br />
Ŵܵܿ·Ü¾·½über´¾µ<br />
dann neben dem<br />
Nullelement die<br />
Beispiel<br />
des´¾¿µ«modÅ´Ü«µ<br />
Bestimmung Erweiterungskörpers´¾¿µ:<br />
¼ ¼¼¼<br />
Elemente Polynomreste Koeffizienten der<br />
Polynomreste<br />
Nullelement<br />
«¿ « «¾·«·½·½ ½¼½ ½½½<br />
«¼ «½ «¾ «¾ « ½ ¼¼½ ¼½¼ ½¼¼<br />
« « « «¾·«·½ ¼½½<br />
½ ½½¼ ¼¼½<br />
isomorph dem Zyklus der Polynomreste über´¾µ<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 89<br />
Berechnungsbeispiele<br />
£ «·««modÅ´«µ·«modÅ´«µ«<br />
für Addition und Multiplikation im<br />
´¾¿µÜ¿·Ü¾·½:<br />
«¾·«¾´½¼¼µ¨´½¼¼µ¼ «·«¾´¼½½µ¨´½¼¼µ´½½½µ«<br />
bzw.<br />
£ «¿·« «¡««´·µmodÔ «·«<br />
B.«¡««mod«¾<br />
«¾¡« «¡«¡«<br />
Z.<br />
«·«¼<br />
Z. B.«·«¾«·½·«¾«<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen
Ŵܵܿ·Ü¾·½<br />
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 90<br />
Å´Ü«µ«¿·«¾·½´«¾·½µ·«¾·½¼<br />
Beispiel<br />
«Nullstelle vonŴܵund Erweiterungselement:<br />
Ŵܵܿ·Ü¾·½´Ü «½µ´Ü «¾µ´Ü «¿µ<br />
Fundamentalsatz der Algebra:<br />
im´¾¿µ<br />
d.<br />
««¾<br />
h.,«½«½,«¾und«¿sind Nullstellen<br />
Zuordnung«zu den Elementen<br />
½modÔ<br />
´½¾½´gradŴܵµµ<br />
von´¾½µ:<br />
´¼½¾½ Elemente«¾¼«¾½«¾½<br />
£Die<br />
½modÔsind im Zyklus<br />
¾µzueinander konjugiert.<br />
£Konjugierte Elemente befinden sich in einem Zyklus.<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 91<br />
Die Nullstellen vonŴܵsind damit die im Zyklus½stehenden<br />
zu«½konjugierten Elemente«¾«¾und«¿«.<br />
¾undliefern demzufolge<br />
fürÔ¾½<br />
den gleichen Zyklus.<br />
£Die Anzahl der Elemente in einem Zyklus wird durch½ <br />
gradŴܵbegrenzt und ist ½¾Èfür alle Zyklen<br />
gleich (ausgenommen:¼).<br />
«¼ im´¾¿µ<br />
Beispiel Zyklen<br />
«¿«« «½«¾«<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 92<br />
Jedem«aus´¾½µist ein<br />
MinimalpolynomѴܵzugeordnet:<br />
£Das Minimalpolynom eines beliebigen Elementes«ist irreduzibel<br />
und vom GradÖ½.<br />
£Zu jedem Element«existiert genau ein MinimalpolynomѴܵ.<br />
£Das Minimalpolynom des Elementes«ist gleichzeitig das Minimalpolynom<br />
der Elemente«¾½,«¾¾,«¾Ö ½modÔ.<br />
£Ist«eine Nullstelle des MinimalpolynomsѴܵ, dann sind die<br />
Özueinander konjugierten Nullstellen«,«¾½,«¾¾,«¾Ö<br />
Ѵܵ´Ü «µ´Ü «¾½µ´Ü «¾¾µ´Ü «¾Ö ½µ<br />
½die<br />
sämtlichen Nullstellen vonѴܵ:<br />
£Das ModularpolynomŴܵist wegenÅ´Ü«½µ¼das Minimalpolynomѽ´Üµdes<br />
Elementes«½.<br />
Beispiel<br />
Ѽ´ÜµÑ½´ÜµÑ¿´Üµim´¾¿µÅ´ÜµÜ¿·Ü¾·½?<br />
L: Begleitbuch, S. 162 - 169<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 93<br />
´Üµ´Å´Üµµauch:´Üµ´ÐµÅ´Üµ<br />
Generatorpolynom primitiver BCH-Kodes<br />
zur Kodierung und Fehlererkennung<br />
EntwurfsabstandundŴܵbestimmen Wahl der Kodeparameter!<br />
Notwendig:<br />
´¾½µ¼«¼«½«¾«¾½ ¾<br />
¯Erweiterungskörper´¾½µ:<br />
WennŴܵprimitiv ist und«als Nullstelle hat, dann gilt<br />
¯Ein MinimalpolynomѴܵhat««¾«als Nullstellen:<br />
««·½«·¾«·<br />
½modÔÖ½.<br />
¯Das Generatorpolynom´Üµhat die Aufeinanderfolge von<br />
¾als Nullstellen, so auch¾.<br />
Ѵܵ´Ü·«µ´Ü·«¾µ´Ü·«µ im´¾µ<br />
Daraus folgt:ѴܵѾ´ÜµÑ´ÜµÑ¾Ö<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.2 Generatorpolynom von BCH-Kodes
<strong>Vorlesung</strong><br />
«´·½·<br />
Informations- und Kodierungstheorie<br />
wird´Üµ<br />
94<br />
Damit ein BCH-Kode die aufeinanderfolgenden Elemente<br />
´ÜµkgVѴܵѷ½´ÜµÑ·<br />
¾µals Nullstellen<br />
¾´Üµ<br />
enthält,<br />
i. Allg. ein Produkt von Minimalpolynomen sein:<br />
(in<br />
Ò¾½<br />
praktischen Anwendungsfällen istmeist 0 oder 1).<br />
Kodeparameter<br />
grad´Üµ ÐÒ <br />
½weilŴܵprimitiv<br />
ÑÒØØ×ĐÐ℄<br />
Über die Zyklendarstellung kann die tatsächliche Aufeinanderfolge der<br />
Nullstellen bestimmt und damit der tatsächliche AbstandÑÒ<br />
ermittelt werden:<br />
ÑÒ´tatsächliche Anzahl aufeinanderfolgender Nullstellenµ·½<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.2 Generatorpolynom von BCH-Kodes
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 95<br />
von´Üµ<br />
Beispiel Ŵܷܷܵ½primitiv<br />
Bildung<br />
¯´Üµfür<br />
¯Bestimmen möglicher Generatorpolynome´Üµaus den Zyklen der<br />
Exponenten von«für½bzw. 0!<br />
¯´ÜµÜ·Ü·Ü·Ü·½<br />
¯´¿½¾½µBCH-Kode<br />
Analysiere´Üµbzgl.ÑÒund den Kodeparametern<br />
(gradŴܵ)<br />
L: Begleitbuch, S. 175 - 179<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.2 Generatorpolynom von BCH-Kodes
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 96<br />
´ÜµÅ´ÜµÑ½´Üµ<br />
Spezielle BCH-Kodes: CRC[cyclic<br />
ÑÒ¿<br />
redundancy check]-Kodes!<br />
Zyklischer HAMMING-Kode<br />
mit Sicherheit Erkennen von Ein-<br />
Länge½gradŴܵ<br />
und Zweifachfehlern<br />
UND<br />
´ÒÐÑÒµ´¾½ ½¾½<br />
Erkennen von Bündelfehlern der<br />
½<br />
Kodeparameter?<br />
½ÑÒ¿µBCH-Kode<br />
ÑÒmit¿½·½ ´ÜµÑ¼´ÜµÑ½´Üµ Ѽ´Üµ´Ü·½µ<br />
ABRAMSON-Kode<br />
´¾½ ½¾½ ½ ´½·½µÑÒµBCH-Kode<br />
Beispiel Kodeparameter im´¾µfür obige Kodes<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.2 Generatorpolynom von BCH-Kodes
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 97<br />
(Kanal-)Kodierung:<br />
¯Multiplikationsverfahren<br />
Bildungsverfahren für¾<br />
Ein zyklischer Kodeder LängeÒist durch´Üµbeschrieben. Das<br />
Kodepolynom´Üµdes Kanalkodewortesentsteht aus der Multiplikation<br />
des zu kodierenden Polynoms£´Üµmit dem Generatorpolynom´Üµ:<br />
´ÜµÜ¿·Ü¾·½£´½¼½½µ´Üµ<br />
´Üµ£´Üµ´Üµ.<br />
Beispiel<br />
¯Divisionsverfahren<br />
Ein zyklischer Kodeder LängeÒist durch´Üµ(vom Grad) beschrieben.<br />
Das Kodepolynom´Üµdes Kodewortesentsteht aus der<br />
´Üµ£´ÜµÜ·Ö´ÜµÖ´Üµ´£´ÜµÜµmod´Üµ<br />
Multiplikation des zu kodierenden Polynoms£´ÜµmitÜund der<br />
Subtraktion eines Restpolynomsִܵ(bedeutet im´¾µAddition):<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.3 Kodierung und Fehlererkennung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 98<br />
¯Generatormatrix<br />
Auf der Grundlage des Generatorpolynoms´ÜµÜ·Ù ½Ü ½·<br />
Ð¢Ò ¼ ·Ù¼Ü¼ist<br />
¼ ¼ ¼ ½ Ù ½ Ù ½ Ù½ Ù¼<br />
eine Generatormatrix<br />
½ Ù<br />
definiert:<br />
¾ Ù¼ ½ ½ Ù ½ ¼ ¼ <br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />
£¡<br />
. . . . . . . . . . . . . . . . . . . . . . . . . .<br />
Das Kanalkodewort¾bildet sich dann wie folgt:<br />
£Die Bildungsverfahren führen auf das gleiche Kanalkodealphabet.<br />
Die Zuordnung der Quellenkodewörter zu den Kanalkodewörtern<br />
ist jedoch eine andere.<br />
£Die Anwendung des Divisionsverfahrens liefert immer einen systematischen<br />
Kode.<br />
£Das Bildungsverfahren muss dem Dekodierer bekannt sein.<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.3 Kodierung und Fehlererkennung
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 99<br />
(Kanal-)Dekodierung: Fehlererkennung<br />
Jedes Kanalkodewortmuss in seiner Polynomdarstellung durch´Üµ<br />
teilbar sein.<br />
Ist eine Empfangsfolge´Üµdurch´Üµteilbar, dann ist¾definiert,<br />
sonst gilt¾und<br />
´½¼½½½¼¼µ´¼¼½½¼½¼µ¾<br />
damit Fehlererkennung.<br />
£Fehlerpolynom (auch Prüfpolynom):״ܵ´Üµmod´Üµ¼<br />
Beispiel<br />
ÑÒ ½<br />
Mit Sicherheit erkennbar:<br />
Erkennen aller Bündelfehler, bei denen der Abstand zwischen<br />
dem ersten und dem letzten fehlerhaften Element (einschließlich<br />
dieser) im Fehlermuster kleiner oder gleich dem Graddes Generatorpolynoms<br />
ist.<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.3 Kodierung und Fehlererkennung
<strong>Vorlesung</strong><br />
´Üµ¼ÜÒ<br />
Informations- und Kodierungstheorie 100<br />
Struktur<br />
Ü ½·¼ÜÒ ¾··1Ü ½··1Ü ·¼Ü ½··¼Ü¼<br />
des<br />
´1Ü<br />
Bündelfehlers:<br />
½·Ù ¾Ü ¾··Ù½Ü½·1µ<br />
¾Ð<br />
Sind darüber hinaus weitere Fehler erkennbar?<br />
Ô½± Ô±<br />
Typische Fehlererkennungs-CRC-Kodes:<br />
Zyklischer HAMMING-Kode:´ÜµÑ½´Üµ<br />
´ÜµÑ½´Üµ´Ü·½µ<br />
ABRAMSON-Kode:<br />
¾Ò¾ Ô´½ ¾ µ¡½¼¼±<br />
Beispiel:<br />
L: Begleitbuch, S. 169 - 175<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.3 Kodierung und Fehlererkennung
´ÒÐÑÒµ´Ò Ð ÑÒµconst<br />
Diese Kodes verlieren ihre zyklische Eigenschaft.<br />
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 101<br />
Ein Kanalkode heißt verkürzter Kode, wenn gilt:<br />
Fehlererkennung und Fehlerkorrektur bleiben erhalten.<br />
Beispiel<br />
BCH-Kode fürн¾?<br />
Ѽ´Üµ´Üµ: Ein<br />
¯überÒ¾½ ´Ò¾½ ½ÐÑÒµ´Ò·½ÐÑÒ·½µÐconst<br />
¯das Generatorpolynom´ÜµmitѼ´Üµ´Ü·½µmultipliziert wird:<br />
½ein<br />
Kanalkode heißt erweiterter Kode, wenn<br />
Paritätsbit gesetzt wird.<br />
(Vergleiche mit erweitertem HAMMING-Kode!)<br />
Die zyklische Eigenschaft geht verloren (Ausnahme:Ò·½¾½<br />
mit´Ü·½µ<br />
Damit auch alle ungeradzahligen Fehler erkennbar!<br />
Beispiel Forts.: Erweiterung<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.4 Verkürzte, erweiterte BCH-Kodes<br />
½).
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 102<br />
Anwendung zyklischer Kodes<br />
¯FehlererkennungCRC-Kodes<br />
z. B. in Protokollen auf der Sicherungsschicht:<br />
ATM benutzt CRC-8 (), CRC-10, CRC-32;<br />
CRC-CCITT in HDLC (½); Ethernet benutzt CRC-32<br />
z. B. im digitalen Teilnehmeranschluss (ISDN, xDSL)<br />
CRC-23 (ܾ¿·Ü·½, primitiv)<br />
z. B. beim Mobilfunk: CRC-3<br />
(in Kodeverkettung zur Fehlerverdeckung)<br />
¯Fehlerkorrektur (LV Kanalkodierung)<br />
Sinnvoll bei der Satellitenkommunikation wegen der Laufzeiten<br />
oder in Speicher- und CD-Anwendungen, wenn einzelne Bereiche<br />
systematisch und unwiderruflich unbrauchbar sind.<br />
L: Begleitbuch, S. 182 - 184<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.5 Anwendungen
<strong>Vorlesung</strong> Informations- und Kodierungstheorie 103<br />
Lehrveranstaltung begonnen mit<br />
Informationstheorie beschäftigt sich mit zwei Problemstellungen<br />
Praktikable<br />
£<br />
Umsetzung mittels Kodierung<br />
¯Inwieweit lässt sich Information kompakt darstellen?<br />
Quellenkodierung<br />
£ ÊÃдѵ¡ÀÃ℄ Àɼ<br />
¯Inwieweit überträgt man Information quasi fehlerfrei?<br />
£ Kanalkodierung,<br />
(verlustfreie QK: gleichmäßige Kodierung,<br />
SHANNON-FANO, HUFFMAN, Erweiterte Quellen, ...)<br />
abhängig vom Störverhalten des<br />
Übertragungskanals<br />
£<br />
Dimensionierung des Übertragungsvorgangs,<br />
Abschätzung von¡Ð<br />
Dimensionierung<br />
des Kanalkodes<br />
¾<br />
5 Kanalkodierung 5.5 Zyklische Kodes 5.5.5 Anwendungen