01.03.2014 Aufrufe

Vorlesung

Vorlesung

Vorlesung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Vorlesung</strong> Informations- und Kodierungstheorie 0<br />

Informations- und Kodierungstheorie<br />

Was Sie wissen sollten:<br />

¯Einschreibung in jExam (VL und Übung)<br />

¯VL-Skript komplett im Netz<br />

Skript enthält keine Beispiellösungen!<br />

Beispiele werden an der Tafel vorgerechnet (Tafelbild !!!)<br />

¯Ergänzende/Vertiefende Folienvorlagen zur VL werden im Netz<br />

bereitgestellt<br />

¯Zur Klärung von Fragen: Übung !!!, E-Mail, INF 3069<br />

Begleitbuch: Informations- und Kodierungstheorie. 4. Auflage, 2012<br />

(im Anhang weiterführende Literatur zu finden)<br />

¯Zur Fachprüfung: Formelblatt einseitig A4, Taschenrechner<br />

1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 1<br />

Informations- und Kodierungstheorie<br />

C.E. Shannon (1948) R.W. Hamming (1950)<br />

Informationstheorie setzt sich mit zwei Problemstellungen auseinander:<br />

¯Inwieweit lässt sich Information kompakt darstellen?<br />

¯Inwieweit überträgt man Information ”<br />

fehlerfrei“ (quasi fehlerfrei)?<br />

Informationstheorie begründet die Grenzen, was ist erreichbar, was nicht<br />

(Zwei Kodierungstheoreme, SHANNON-Grenze ”<br />

fehlerfreier“ Übertragung)<br />

Kodierungstheorie konstruiert praktikable Umsetzungen<br />

(weniger komplexe Algorithmen, die sich den Grenzen annähern)<br />

Begleitbuch: Informations- und Kodierungstheorie. 4. Auflage, 2012<br />

1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 2<br />

Information<br />

¯Statistischer Aspekt<br />

¯Semantischer Aspekt (Bedeutung der Information)<br />

¯Pragmatischer Aspekt (Nutzen für den Informationsempfänger)<br />

Statistische Informationstheorie<br />

Quelle Kodierer Übertragungskanal Dekodierer<br />

Senke<br />

Störung<br />

Information ist beseitigte Unbestimmtheit<br />

Das Maß dieser Unbestimmtheit ist äquivalent der Ermittlung der<br />

Informationsmenge.<br />

1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 3<br />

Quelle Kodierer Übertragungskanal Dekodierer<br />

Quelle<br />

Senke<br />

Störung<br />

Informationsquellen<br />

diskrete Quellen<br />

kontinuierliche Quellen<br />

Einzelquellen<br />

Verbundquellen<br />

Quellen mit<br />

unabhängigen<br />

Ereignissen<br />

Quellen mit<br />

abhängigen Ereignissen<br />

(MARKOW−Quellen)<br />

2 Informationsquellen 2.1 Systematisierung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 4<br />

Definition<br />

ܾܽÜÆ<br />

Eine Quelle mit dem Alphabet<br />

und der Verteilung der zugehörigen Auftrittswahrscheinlichkeiten<br />

´Ô´Üµµ´Ô´Ü½µÔ´Ü¾µÔ´ÜƵµ ¼Ô´Üµ½<br />

ÆȽԴܵ½<br />

wobei<br />

wird als diskrete<br />

Դܵ ½<br />

Quelle mit unabhängigen Ereignissen<br />

Դܵ<br />

½bezeichnet.<br />

ldԴܵ<br />

Die Unbestimmtheit (Informationsgehalt) eines EreignissesÜist<br />

Àlog logԴܵim WeiterenÀld<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.1 Einzelquellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 5<br />

Դܽµ ½ Դܾµ ½ Ô´ÜƵ<br />

FürÀ´½¾Æµgilt dann:<br />

À½ld À¾ld ...<br />

ÀÑÆÈ<br />

Gewichteter<br />

½ ԴܵÀÆÈ<br />

MittelwertÀÉÀÑ:<br />

½ Դܵ ½ ½ ÆÈ Ô´ÜµldԴܵ Դܵld<br />

ÀÑ (Quellen)Entropie,<br />

Beispiel<br />

, ÀÆld<br />

½<br />

gleichzeitig mittlerer Informationsgehalt<br />

ƾ´Ô´Üµµ´Ô´Ü½µÔ´Ü¾µµ´½¼µ<br />

sicheres, unmögliches Ereignis<br />

in bit/Ereignis, bit/Messwert, bit/(Quellen-)Zeichenbit/QZ u. ä.<br />

Warum log bzw. ld, d. h. Anwendung des logarithm. Informationsmaßes?<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.1 Einzelquellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 6<br />

Դܵ½Æ<br />

Sonderfall der Gleichverteilung:<br />

für alle<br />

ÀÉÀ¼ldÆ<br />

Maximalwert der Entropie oder Entscheidungsgehalt der Quelle<br />

Beweis<br />

Definition<br />

Der<br />

À¼ld¾½<br />

Entscheidungsgehalt von zwei unabhängigen und<br />

ÖÒ× Ø<br />

gleichwahrscheinlichen Ereignissen einer Quelle<br />

wird als Einheit der Informationsmenge bezeichnet.<br />

L: Begleitbuch, S. 1 - 20<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.1 Einzelquellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 7<br />

MARKOW-Quellen<br />

(diskrete Quellen mit abhängigen Ereignissen):<br />

¯Das EreignisÜ´Ñ·½µtritt unter der Bedingung ein, dass ganz bestimmte<br />

EreignisseÜ´½µÜ´¾µÜ´Ñµbereits eingetreten sind.<br />

¯Die<br />

Ô Ü´Ñ·½µÜ´ÑµÜ´¾µÜ´½µ¡<br />

Auswahl des EreignissesÜ´Ñ·½µerfolgt demnach mit der bedingten<br />

Wahrscheinlichkeit<br />

Ô´Ü´Ñ·½µÜ´Ñµµ<br />

MARKOW-Quellen erster Ordnung:<br />

Ô´Üܵ ´½¾Æµ<br />

wofür wir im Folgenden schreiben<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.2 MARKOW-Quellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 8<br />

Definition<br />

Eine MARKOW-Quelle ist das mathematische Modell einer<br />

Informationsquelle, bei dem die aufeinanderfolgende Auswahl von<br />

Ereignissen, d. h. die Folge der Zustände, sowohl von der momentanen<br />

Verteilung der Auftritts- bzw. Zustandswahrscheinlichkeiten als auch<br />

von der Verteilung der Übergangswahrscheinlichkeiten abhängt.<br />

Zustandsgraph einer binären MARKOW-Quelle erster Ordnung<br />

p( x | x )<br />

2<br />

1<br />

x<br />

1<br />

x<br />

2<br />

p( x | x )<br />

1<br />

1<br />

p( x | x )<br />

1<br />

2<br />

p( x | x )<br />

2<br />

2<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.2 MARKOW-Quellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 9<br />

MARKOW-Kette<br />

p(x<br />

.<br />

..<br />

p(x<br />

...<br />

p(x<br />

N<br />

i<br />

2<br />

) p(xN)<br />

)<br />

)<br />

.<br />

..<br />

p(x j |x i )<br />

.<br />

p(x<br />

p(x<br />

p(x1)<br />

p(x1)<br />

Zeit<br />

Դܵط½ÆÈ<br />

t t+1<br />

Nach dem Satz<br />

½ ԴܵØÔ´Üܵ ´½¾Æµ<br />

von der vollständigen Wahrscheinlichkeit gilt:<br />

...<br />

..<br />

.<br />

j<br />

2<br />

)<br />

)<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.2 MARKOW-Quellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 10<br />

Entropie von MARKOW-Quellen<br />

ÀÆÈ<br />

Unbestimmtheit, die in den Übergangsmöglichkeiten von einem<br />

beliebigenÜzu<br />

½ Ô´Üܵ ½ allenÜ(½¾Æ) liegt:<br />

Ô´Üܵld<br />

ÀÉÆÈ<br />

Gewichteter<br />

½ ԴܵÀ<br />

Mittelwert über alleÜ(½¾Æ):<br />

ÀÉÀÅÆÈ<br />

Die Entropie wird für den stationären FallԴܵԴܵals<br />

MARKOW-EntropieÀÅbezeichnet:<br />

½½ ÆÈ Ô´Üܵ ½ Ø Ô´ÜµÔ´Üܵld in<br />

L: Begleitbuch, S. 20 - 26<br />

Ù×ØÒ<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.2 MARKOW-Quellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 11<br />

Verbundquellen<br />

Wir betrachten gleichzeitig zwei diskrete Quellenundmit den<br />

zugehörigen Verteilungen der Auftrittswahrscheinlichkeiten:<br />

´Ô´Üµµ´Ô´Ü½µÔ´Ü¾µÔ´ÜƵµder Ereignisseܾ<br />

und<br />

´Ô´Ýµµ´Ô´Ý½µÔ´Ý¾µÔ´Ýŵµder Ereignisseݾ.<br />

Annahmen<br />

¯Die Ereignisse innerhalb jeder Einzelquelle sind voneinander unabhängig.<br />

¯Ein Ereignis in der Quellehat ein bedingtes Ereignis in der Quelle<br />

mit der bedingten WahrscheinlichkeitÔ´Ýܵzur Folge.<br />

Das Auftreten von zwei EreignissenÜundÝbezeichnet man als<br />

Verbundereignis´ÜݵEs tritt mit der<br />

VerbundwahrscheinlichkeitÔ´ÜݵԴܵ¡Ô´Ýܵauf.<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 12<br />

Definition<br />

Ô´Üݵ´½¾Æµ´½¾Åµ ÆÈ<br />

Die diskreten Quellenundmit den Verbundwahrscheinlichkeiten<br />

½½ ÅÈ Ô´Üݵ½,<br />

bilden eine Verbundquelle´µ.<br />

À´µÆÈ<br />

VerbundentropieÀ´µ:<br />

½½ ÅÈ Ô´Üݵ ½ Ô´Üݵld<br />

À´µÈ<br />

Nach einigen<br />

Դܵ·È ½<br />

Umformungen:<br />

ßÞ Ð È Ô´Ýܵ ½<br />

À´µ<br />

Դܵld ԴܵԴÝܵld<br />

Bedingte Entropie<br />

À´µ ßÞ Ð<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen


<strong>Vorlesung</strong> Informations- und<br />

´Ô´Üݵµ ¼<br />

Kodierungstheorie<br />

½ ½ 13<br />

½ ¼½ ¼½ ¼½ ½ ½ È Æ ½ ÅÈ Ô´Üݵ½<br />

¯Ô´ÜµÅÈ<br />

Beispiel<br />

½ Ô´Üݵ´½¾Æµ ´Ô´Üµµ´½ ½ ½ ½¾µ<br />

¯Ô´ÝµÆÈ ½ Ô´Üݵ´½¾Åµ ´Ô´Ýµµ´½¾ ½ ½ ½µ<br />

¯Ô´ÜݵԴܵ¡Ô´ÝܵԴݵ¡Ô´Üݵ À´µÀ´µ ÖÒ× Ø<br />

´Ô´Ýܵµ ¼ ¾ ½¾ ½ ¼½ ¼½ ¼½ ½ ´Ô´Üݵµ<br />

À´µ ÖÒ× Ø<br />

¯À´µ¿ ÎÖÙÒÖÒ× Ø À´µ<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 14<br />

À´µÀ´µ·À´µ À´µÀ´µ·À´µ<br />

Darstellung der Verbundentropie – VENN-Diagramm<br />

<br />

H(X,Y)<br />

<br />

<br />

<br />

<br />

H(X|Y) <br />

H(Y|X)<br />

<br />

<br />

<br />

H(Y)<br />

À´µÀ´µundÀ´µÀ´µ<br />

H(X)<br />

Folgende Schranken gelten für die bedingten Entropien:<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 15<br />

Grenzfälle der Abhängigkeiten beider Quellen<br />

a) Vollständige Unabhängigkeit:<br />

À´µÀ´µ·À´µ<br />

Bei unabhängigen Ereignissen giltÔ´ÝܵԴݵ, À´µÀ´µund damit<br />

d.<br />

h.<br />

H(X)<br />

H(Y)<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 16<br />

b) Vollständige Abhängigkeit:<br />

À´µÀ´µ<br />

Bei vollständig abhängigen Ereignissen ist<br />

À´µ¼und damit<br />

H(Y)<br />

H(X)<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen


<strong>Vorlesung</strong> Informations- Kodierungstheorie 17<br />

Spezielle Verbundquelle´µ<br />

Quelle mit zwei identischen Ereignismengen<br />

H(X)<br />

H(X)<br />

H(X|X) = H M<br />

À´µÀ´µ¾¡À´µ<br />

In diesem Fall gilt für die Verbundentropie<br />

ÀÅÀ´µ À´µ À´µ ¼<br />

bei vollständiger Unabhängigkeit<br />

bei vollständiger Abhängigkeit<br />

L: Begleitbuch, S. 27 - 33<br />

2 Informationsquellen 2.2 Diskrete Quellen 2.2.3 Verbundquellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 18<br />

Kontinuierliche Quellen<br />

f(x)<br />

f(x i)<br />

0 x i x<br />

∆x<br />

Die Wahrscheinlichkeit, dass die zufällige GrößeÜim Bereich¡Ü<br />

ԴܵÊ<br />

liegt, berechnet<br />

¡Ü ´Üµdܴܵ¡Ü<br />

sich durch<br />

2 Informationsquellen 2.3 Kontinuierliche Quellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 19<br />

À´µ Entropie der ´Üµ¡Üld´´Üµ¡Üµ<br />

kontinuierlichen Quelle:<br />

È ´Üµ¡Üld´Üµ È ´Üµ¡Üld¡Ü<br />

À´µ ½Ê ½ ´Üµld´ÜµdÜ ld¡Ü<br />

ld¡Ü ¡Üist unter gleichen Bedingungen konstant. Daher lässt man<br />

meistens<br />

ÀÖÐ ½Ê<br />

weg und spricht dann von der relativen Entropie einer<br />

kontinuierlichen<br />

½ ´Üµld´ÜµdÜ<br />

Quelle:<br />

2 Informationsquellen 2.3 Kontinuierliche Quellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 20<br />

Kodierer<br />

Unter Kodierung wird i. Allg. ein Vorgang verstanden, bei dem die<br />

Elemente eines Alphabets auf die Elemente eines anderen Alphabets<br />

(bzw. auf Wörter über diesem Alphabet) eineindeutig abgebildet<br />

werden.<br />

Für die Kodierung diskreter Quellen bedeutet dies:<br />

Jedes Element des Quellenalphabetswird einem Element des<br />

KanalalphabetsÍbzw. einem Wort überÍeineindeutig zugeordnet.<br />

ͼ½<br />

Aus praktischen (technischen) Erwägungen beschränken wir uns auf die<br />

Binärkodierung, d. h.<br />

3 Kodierung diskreter Quellen 3.1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 21<br />

Quellenkodierung (Optimalkodierung, Kompression)<br />

ist die erste Stufe der Kodierung, bei der die eineindeutige Darstellung<br />

der Quelleninformation in einer realisierbaren, möglichst<br />

redundanzfreien oder redundanzarmen Form erfolgen soll.<br />

verlustfreie Quellenkodierung (Redundanzreduktion)<br />

verlustbehaftete Quellenkodierung (Irrelevanzreduktion)℄<br />

Kanalkodierung<br />

die sich meistens an die Quellenkodierung anschließt, dient dem Zweck<br />

des Störungsschutzes. Sie macht erst quasi fehlerfreie Übertragung<br />

möglich.<br />

Notwendig: Hinzufügung von Redundanz in Form von zusätzlicher<br />

Kontrollinformation (Kontrollstellen).<br />

3 Kodierung diskreter Quellen 3.1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 22<br />

Quelle<br />

X<br />

Senke<br />

Y<br />

Quellen<br />

kodierer<br />

Quellen<br />

dekodierer<br />

redundanzfrei<br />

oder redundanzarm<br />

Kryptographie<br />

Kanal<br />

kodierer<br />

Kanal<br />

dekodierer<br />

mit zusätzlicher<br />

Redundanz zum<br />

Störungsschutz<br />

Übertra<br />

gungskanal<br />

mit zusätzlicher<br />

Redundanz zum<br />

Störungsschutz<br />

3 Kodierung diskreter Quellen 3.1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 23<br />

Definition Dekodierbarkeitsbedingung (Präfix-, Fanobedingung)<br />

Ein ungleichmäßiger Kode, bei dem kein Kodewort den Anfang (Präfix)<br />

eines anderen Kodewortes darstellt, wird als präfixfreier Kode<br />

bezeichnet (hinreichende Bedingung für Eineindeutigkeit).<br />

Kodebaum – Darstellungsmöglichkeit eines (Quellen-)Kodes<br />

0<br />

Quellenkode:<br />

l=1<br />

0<br />

0 1<br />

0 1<br />

1 0<br />

1 1 0<br />

l=2<br />

1 1 1<br />

0 1 0 1 0 1 0 1<br />

Endknoten<br />

½ ÆÈ ¾ н<br />

l= l max = 3<br />

Von L.G. KRAFT gefundene Ungleichung<br />

ist eine notwendige Bedingung für die Dekodierbarkeit.<br />

3 Kodierung diskreter Quellen 3.2 Dekodierbarkeitsbedingung<br />

1


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 24<br />

¯ÐldÆ<br />

¯ÐÑÆÈ<br />

Kodewortlänge<br />

gleichmäßiger Kode (allg.:ÐldÆ<br />

½ ԴܵÐ<br />

ÀÃ℄) a<br />

ungleichmäßiger Kode<br />

¯ÐÑÀÑ<br />

Schranken<br />

¯ÀÑÐÑÀÑ·½<br />

dekodierbarer Kode<br />

¯ÐÑÀÑ ¾ ÐԴܵ¾ з½redundanzarme Kodierung<br />

Դܵ¾ Ð<br />

redundanzfreie Kodierung (Möglich ?)<br />

ÊÃдѵ¡ÀÃ℄ Àɼ Koderedundanz<br />

aÀÃÀ´µ Entropie<br />

am Kanaleingang des Übertragungskanals<br />

3 Kodierung diskreter Quellen 3.3 Koderedundanz, 1. SHANNONsches Kodierungstheorem


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 25<br />

fürԴܵ¾<br />

Das erste SHANNONsche Kodierungstheorem besagt:<br />

Redundanzfreie Kodierung ist auch Ðmöglich.<br />

Man nimmt eineÑ-fache Erweiterung der Quelle vor, d. h., die<br />

Quellenzeichen werden nicht einzeln, sondern in Blöcken vonÑ<br />

ÑÀÑÑÐÑÑÀÑ·½<br />

Zeichen kodiert.<br />

ÀÑÐÑÀÑ·½Ñ<br />

Im Folgenden: Verfahren der Optimalkodierung<br />

Verfahren der (annähernd) redundanzfreien Kodierung<br />

Grundlage bilden´Ô´Üµµ´Ô´Üܵµ, deshalb auch Entropiekodierung<br />

L: Begleitbuch, S. 40 - 59<br />

3 Kodierung diskreter Quellen 3.3 Koderedundanz, 1. SHANNONsches Kodierungstheorem


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 26<br />

SHANNON-FANO-Verfahren (1949)<br />

1. Ordnen der zu kodierenden Quellenzeichen nach fallenden Werten<br />

der Auftrittswahrscheinlichkeiten<br />

2. Teilen des geordneten Wahrscheinlichkeitsfeldes in zwei Gruppen;<br />

die Teilsummen der Wahrscheinlichkeiten in jeder Gruppe sollten<br />

möglichst gleich groß sein.<br />

Aufgrund dieses Teilungsprinzips enthält jeder Teilungsschritt und<br />

damit jedes Kodewortelement die größte Entropie bzw. Informationsmenge.<br />

3. Kodieren nach dem Prinzip, dass der ersten Gruppe immer einheitlich<br />

das Zeichen 0 (bzw. 1) und der zweiten Gruppe immer einheitlich<br />

das Zeichen 1 (bzw. 0) zugeordnet wird.<br />

4.<br />

Beispiel´Ô´Üµµ´¼½½¼¿¼¼½¼¾¼¼¼¼¼¼µÐÑ<br />

Wiederholen der Schritte 2. und 3.; solange, bis jede Teilgruppe nur<br />

noch ein Element enthält.<br />

3 Kodierung diskreter Quellen 3.4 Optimalkodierung 3.4.1 SHANNON-FANO


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 27<br />

HUFFMAN-Verfahren (1952)<br />

1. Ordnen des gegebenen Wahrscheinlichkeitsfeldes nach fallenden<br />

Werten.<br />

2. Zusammenfassen der letzten zwei Wahrscheinlichkeiten (die mit<br />

den kleinsten Werten) zu einem neuen Wert.<br />

3. Erneutes Ordnen des reduzierten Wahrscheinlichkeitsfeldes entsprechend<br />

Schritt 1.<br />

4. Wiederholen der Schritte 2. und 3. solange, bis die Zusammenfassung<br />

der beiden letzten Elemente den Wert 1 ergibt.<br />

5. Aufstellen eines Kodebaumes entsprechend dem Reduktionsschema<br />

und Zuordnung der Kodesymbole 0 und 1.<br />

´Ô´Üµµ´¼½½¼¿¼¼½¼¾¼¼¼¼¼¼µÐÑ<br />

Beispiel<br />

3 Kodierung diskreter Quellen 3.4 Optimalkodierung 3.4.2 HUFFMAN


ܾ Ü Ü¿ ܽ Ü<br />

<strong>Vorlesung</strong> Informations- und Kodierungstheorie<br />

Ü ¼¼ßÞ¼¼<br />

ÜÐ<br />

28<br />

0,30 0,25 0,16 0,11<br />

¼½½ 0,06<br />

ßÞ¼¼Ð<br />

0,30 0,25 0,16<br />

¼½ 0,12<br />

ßÞ¼½¾Ð<br />

0,30 0,25<br />

¼¾ 0,17<br />

ßÞ¼½Ð<br />

0,30<br />

¼¿¼ ¼¾<br />

0,28<br />

ßÞ Ð<br />

0,42<br />

ßÞ Ð<br />

0 1<br />

0 1 0 1<br />

0,58 0,42<br />

x 4<br />

=01<br />

1<br />

=11<br />

1<br />

ÐѾà É<br />

x =000 5<br />

0<br />

0<br />

x 2<br />

x1<br />

=001<br />

1 x 3<br />

=101<br />

0<br />

x6 =1000<br />

x 7<br />

=1001<br />

1<br />

3 Kodierung diskreter Quellen 3.4 Optimalkodierung 3.4.2 HUFFMAN


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 29<br />

Beispiel<br />

Ñ-fache Erweiterung der Quelle<br />

Eine Binärquelle sei mitÔ´¼µ¼gegeben.<br />

Aufzeigen der Reduzierung vonÊÃmit Erhöhung der Blocklänge von<br />

ѽaufѾ¿(Grundlage: SHANNON-FANO)!<br />

Berücksichtigung<br />

´Ô´Üµµ´¼¾¼¾¼µ´Ô´ÜܵµÀŽ¾Ø<br />

von´Ô´Üܵµ?<br />

Beispiel Beispiel aus 2.2.2 MARKOW-Quellen<br />

´Ô´Üܵµ ¼ ¼¼¾¼¿ ¼½¼¼¿ ¼¾¼½¼ ½ £¾½½¼½¼ÐѾ½Ã £½¼½½½¼Ðѽ½Ã<br />

£¿½¼½½¼ÐÑ¿½¿Ã<br />

Àɾ½¿¼Ø<br />

ɽ½Ø<br />

ÀÉ¿½½Ø<br />

ÀÉÀÅÈԴܵÀÉÐÅÈԴܵÐѽ¿Ã ÉÊü½¼Ø<br />

É<br />

Andere Möglichkeiten<br />

(Berücksichtigen aktuelle Häufigkeiten! SHANNON überholt?)<br />

¯LEMPEL-ZIV(-WELCH)<br />

¯Arithmetische Kodierung<br />

3 Kodierung diskreter Quellen 3.4 Optimalkodierung, Ausblick 3.4.3 Erweiterte Quelle


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 30<br />

Übertragungskanal<br />

Störung<br />

4 Kanäle<br />

Störungen<br />

¯Störungen durch Betriebsmittel (z. B. Unterbrechungen durch<br />

Vermittlungseinrichtungen)<br />

¯Störungen aus dem Umfeld (z. B. Beeinflussungen durch<br />

Starkstromleitungen, magnetische Streufelder)<br />

¯thermisches Rauschen der Bauelemente des Übertragungskanals<br />

¯Funkkanäle: Mehrwegeausbreitung (reflektierende Objekte),<br />

kurzzeitige Abschattungen, Nachbarkanalbeeinflussungen<br />

Trotzdem: Quasi fehlerfreie Übertragung<br />

Im Folgenden nur Betrachtungen aus Sicht der Informationsübertragung !


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 31<br />

BERGERsches Entropiemodell des Übertragungskanals:<br />

H(X|Y)<br />

Quelle<br />

X<br />

H(X)<br />

H T<br />

H(Y)<br />

Senke<br />

À´µ À´µ<br />

H(Y|X)<br />

ÀÌ<br />

Entropie am Kanaleingang<br />

À´µ<br />

Entropie am Kanalausgang<br />

À´µ<br />

Transinformation<br />

Äquivokation (Rückschlussentropie)<br />

giltÀ´µÀ´µÀÌ<br />

Irrelevanz (Störentropie)<br />

Im Idealfall, d. h., der Kanal ist ungestört,<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.1 BERGERsches Modell, Transinformation<br />

Y


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 32<br />

Die TransinformationÀÌist die Informationsmenge, die im Mittel<br />

durch<br />

ÀÌ ein Kanalzeichen<br />

À´µ·À´µ<br />

vom Sender<br />

À´µ<br />

zum Empfänger übertragen werden<br />

kann:<br />

À´µ À´µ À´µ À´µ inØÃ<br />

Notwendig: Kenntnisse über das Stör-(Übergangs-)verhalten<br />

– Statistische Untersuchungen<br />

– Übertragungsweg (Kabel, Funk) widerspiegelt typische<br />

Annahme:´Ô´Ýܵµbekannt,ÆÅ<br />

Fehlerstrukturen<br />

Nachbildung des Störverhaltens (z. B. Binär-, AWGN-Kanalmodell)<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.1 BERGERsches Modell, Transinformation


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 33<br />

Wahrscheinlichkeitstheoretisches Modell eines diskreten Kanals:<br />

p(y M-1|x N-1)<br />

p(x )<br />

p(y )<br />

N-1<br />

. . p(yj<br />

)<br />

p(y<br />

p(x . j |x i)<br />

i)<br />

. ..<br />

.<br />

..<br />

.<br />

.<br />

p(yj |x 0)<br />

p(x1)<br />

p(y<br />

p(y<br />

|x )<br />

1)<br />

1 0<br />

p(x0)<br />

p(y0<br />

)<br />

p(y 0 |x 0 )<br />

.<br />

M-1<br />

X<br />

Y<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.1 BERGERsches Modell, Transinformation


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 34<br />

¯Ô´Ýܵ <br />

Interpretation<br />

und<br />

¯Ô´Ýܵ <br />

Wahrscheinlichkeit, mit welcher das gesendete ZeichenÜunverfälscht<br />

übertragen wird<br />

und<br />

À´µÈ<br />

Wahrscheinlichkeit, mit welcher das gesendete ZeichenÜin das<br />

empfangene<br />

È<br />

ZeichenÝverfälscht<br />

Ô´ÝܵÀÌÀ´µ ½ À´µ<br />

wird<br />

ԴܵԴÝܵld<br />

Ô´Ýܵ½<br />

Für<br />

Ô´Ýܵ¼ <br />

eine fehlerfreie Übertragung<br />

<br />

gilt:<br />

für und<br />

für<br />

ÀÌÀ´µ<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.1 BERGERsches Modell, Transinformation


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 35<br />

´Ô´Ýµµ´Ô´Ý¼µÔ´Ý½µÔ´ÝÅ ´Ô´Üµµ´Ô´Ü¼µÔ´Ü½µÔ´ÜÆ<br />

Beschreibung der Komponenten durch<br />

½µµ<br />

Vektoren bzw. Matrizen:<br />

´Ô´Ýܵµ ¼ Դݼܽµ ¼Ü¼µ Դݽܼµ Դݽܽµ Ô´ÝÅ ½Ü¼µ ½Ü½µ<br />

½ ԴݼÜÆ ½µ ԴݽÜÆ ½µ Ô´ÝÅ ½ÜÆ ½µ <br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />

´Ô´Üݵµ ¼ Դܽݼµ ¼Ý¼µ Դܼݽµ Դܽݽµ ԴܼÝŠԴܽÝÅ ½µ<br />

½ Ô´ÜÆ ½Ý¼µ Ô´ÜÆ ½Ý½µ Ô´ÜÆ ½ÝÅ ½µ <br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />

Beispiel Berechnung vonÀÌ<br />

´Ô´Üµµ´¼¾¼¼¿µ´Ô´Ýܵµ ¼ ¼ ¼¿ ¼½ ¼ ¼½ ¼<br />

¼¾½<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.1 BERGERsches Modell, Transinformation


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 36<br />

Kanalkapazität diskreter Kanäle<br />

Quelle<br />

X<br />

I<br />

Q<br />

Quellen<br />

kodierer<br />

I<br />

KQ<br />

Kanal<br />

kodierer<br />

I K K<br />

I<br />

K<br />

Übertra<br />

gungskanal<br />

Senke<br />

Y<br />

I Q<br />

Quellen<br />

dekodierer<br />

ÁÉ ÁÃÉ<br />

Quelleninformationsfluss<br />

Quellenkodeinformationsfluss<br />

I T<br />

Kanal<br />

dekodierer<br />

I K<br />

ÁÃÃ ÁÌ<br />

Kanalkodeinformationsfluss<br />

Kanalinformationsfluss (ÜbertragungsgeschwindigkeitÚĐÙ)<br />

Transinformationsfluss<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.2 Kanalkapazität


QuelleninformationsflussÁÉinØ×<br />

<strong>Vorlesung</strong> Informations- und Kodierungstheorie 37<br />

ÁÉÉÀÉ (É– Quellensymbolfrequenz<br />

QuellenkodeinformationsflussÁÃÉinØ×<br />

ÁÃÉÉÐÀÃ<br />

inÉ×)<br />

(allg. gleichmäßiger Quellenkode:ÐldÆ<br />

ÀÃ℄)<br />

KanalkodeinformationsflussÁÃÃinØ×<br />

KanalsymbolfrequenzÃinÃ×<br />

ÁÃÃɴз¡ÐµÀÃÉÒÀÃ(Kanalkode:Òз¡Ð)<br />

aus der Übertragungstechnik auch SchrittgeschwindigkeitÚ×in<br />

ÜbertragungsgeschwindigkeitÚĐÙinØ×<br />

inÙ ËÖØØ×oder<br />

TransinformationsflussÁÌinØ×<br />

ÚĐÙÁÃÚ×ÀÃ<br />

ÁÌÚ×ÀÌ<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.2 Kanalkapazität


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 38<br />

ÁÃÁÃÉ ÁÃÙÒ×℄ÉÐ ßÞÐ<br />

Ungesicherte Übertragung<br />

Ú× ÀÃ<br />

ÁÃÁÃà ÁÃ×℄ÉÒ ßÞÐ<br />

Gesicherte Übertragung<br />

Ú× ÀÃ (Kanalkode bekannt!)<br />

ÁÌÁÃÉ Ú×ÁÃÉ ÀÌ ÉÐÀà ÀÌÉÒ<br />

bzw.<br />

ÁÃ×℄ÁÃÃÉÐÀà ÀÌ ÀÃÚ×ÀáÐÒ Ð<br />

(Abschätzung¡Ð!)<br />

vonÁÃÙÒ×℄ÚĐÙÙÒ×℄ÁÃ×℄ÚĐÙ×℄<br />

ƽ¾¼Éɽ¼¼É׿<br />

Beispiel Berechnung<br />

Kanalverhältnisse aus letztem Beispiel<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.2 Kanalkapazität


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 39<br />

Der TransinformationsflussÁÌauf gestörten Kanälen ist immer kleiner<br />

als die ÜbertragungsgeschwindigkeitÚĐÙ.<br />

Die Frage nach der maximal übertragbaren Information führt zum<br />

Begriff der Kanalkapazität.<br />

Definition<br />

Die<br />

ÑÜÁÌÑÜÚ×À̾ÀÌÑÜ<br />

Kanalkapazitätist der Maximalwert des<br />

Transinformationsflusses:<br />

L: Begleitbuch, S. 77 - 90<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.2 Kanalkapazität


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 40<br />

Gestörter Binärkanal<br />

p(x )<br />

p(x<br />

ܼ<br />

0)<br />

ܽ ݼ<br />

Zeichen<br />

ݽ<br />

Zeichen<br />

<br />

Zeichen<br />

Zeichen<br />

Æ<br />

Schrittfehlerwahrscheinlichkeit:<br />

Schrittfehlerwahrscheinlichkeit:<br />

1−<br />

δ<br />

δ<br />

1− ε<br />

X<br />

Y<br />

p(y )<br />

1 1<br />

ε<br />

p(y )<br />

0<br />

´Ô´Ýܵµ ¼ ½ Æ ½ Æ ½ <br />

0 am Kanaleingang<br />

1 am Kanaleingang<br />

0 am Kanalausgang<br />

1 am Kanalausgang<br />

statt des gesendeten<br />

Zeichensܼwird das Zeichenݽempfangen<br />

statt des gesendeten<br />

Zeichensܽwird das Zeichenݼempfangen<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 41<br />

Gegeben:´Ô´ÜµµÆ<br />

Berechnung der Transinformation<br />

von´Ô´Ýµµ vonÀ´µ<br />

1. Schritt: Ermittlung<br />

vonÀ´µ<br />

2. Schritt: Ermittlung<br />

3. Schritt: Berechnung<br />

4. Schritt: Berechnung der TransinformationÀÌÀ´µ À´µ<br />

´Ô´Üµµ´¼¼µÔ´Ý½Ü¼µ¼½ÆԴݼܽµ¼¼<br />

Beispiel Berechnung vonÀÌ<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 42<br />

ÆÔ×<br />

Spezialfälle des gestörten Binärkanals<br />

ÀÌÀ´µ ´½<br />

Symmetrisch gestörter Binärkanal<br />

´½ ½Ô×µ·Ô×ld½Ô× <br />

(Ô×Schrittfehlerwahrscheinlichkeit)<br />

Ô×µld<br />

ÀÌÑܽ ´½ ´½ ½Ô×µ·Ô×ld½Ô× Ô´Ü¼µÔ´Ü½µ½¾: Ô×µld<br />

ÀÌÀ´µ Annahme:Ô×Ƽ<br />

Einseitig gestörter<br />

Դܼµ´½<br />

Binärkanal<br />

´½ ½Ô×µ·Ô×ld½Ô× Ô×µld<br />

À̽·½¾ ´½·Ô×µ ½ Ô×ld½Ô× Ô´Ü¼µÔ´Ü½µ½¾: ´½·Ô×µld<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 43<br />

Binärkanal mit Störerkennung<br />

y(t)<br />

y 0<br />

0 =<br />

y M −1<br />

... ...<br />

y j<br />

y 2<br />

y 1<br />

= 1<br />

t<br />

p(x 1)<br />

p(x 0 )<br />

p(y |x<br />

M-1<br />

.<br />

.<br />

p(y<br />

|x<br />

0 0<br />

)<br />

) p(yj<br />

|x 1)<br />

1<br />

p(y |x ) j 0<br />

p(y )<br />

.<br />

p(y j )<br />

.<br />

M-1<br />

p(y 1 )<br />

p(y )<br />

0<br />

X<br />

Y<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 44<br />

Spezialfall: Symmetrisch gestörter Binärkanal mit Auslöschung<br />

1−p s<br />

−λ<br />

p(x 1) p(y 1)<br />

p(x )<br />

p s<br />

p s<br />

0 1−ps<br />

−λ<br />

0<br />

ÀÌÑÜ´½ µ Ô×ld½Ô×·´½ ԴܼµÔ´Ü½µ½¾:<br />

µld<br />

λ<br />

λ<br />

p(y )<br />

2<br />

p(y )<br />

ݾ– Auslöschungszeichen<br />

½ ½ ´½ Ô× µld<br />

½ Ô× ½ <br />

p(x )<br />

1<br />

p(x )<br />

0<br />

1−λ<br />

λ<br />

1−λ<br />

λ<br />

p(y )<br />

1<br />

p(y )<br />

2<br />

p(y )<br />

ԴܼµÔ´Ü½µ½¾: ÀÌÑÜ´½ µ<br />

0<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 45<br />

Beispiel<br />

Bewertung von Kanalmodellen<br />

1−p s<br />

p(x 1) p(y 1)<br />

p s<br />

p(y )<br />

2<br />

1−p s<br />

−λ<br />

p(x 1) p(y 1)<br />

p s<br />

1−λ<br />

p(x 1) p(y 1)<br />

λ<br />

p(y 2)<br />

p<br />

p s<br />

s<br />

λ<br />

p(x<br />

Gegeben:ԴܼµÔ´Ü½µ½¾<br />

0)<br />

p(y 0)<br />

p(x 0)<br />

p(y 0)<br />

p(x 0)<br />

1−p s<br />

1−p s<br />

−λ 1−λ<br />

Kanal<br />

¼ 1<br />

Kanal 2<br />

Kanal 3<br />

Դݽµ ¼µ<br />

Դݾµ ½ ¼ ¼´½ ½ µ<br />

´¼¼µ ¼ ½ Ô× ½ Ô× ½ Ì<br />

½ Ô× ¼<br />

λ<br />

λ<br />

p(y )<br />

2<br />

p(y )<br />

0<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 46<br />

Դݼµ Դݽµ ¼ ¼ Դݾµ ¼ ¼¼½ ¼<br />

À´µ ½¼¼¼Øà ½¼½Øà ½½¾½Øà ¼¼¾<br />

À´µ ÀÌÑÜ ¼½½Øà ¼Øà ¼½½Øà ¼¼Øà ¼½½Øà ¼¼ØÃ<br />

Ergebnis:<br />

Kanal 1 Kanal 2 Kanal 3<br />

L: Begleitbuch, S. 90 - 99<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 47<br />

ÀÌÑܽØÃ<br />

und<br />

Kanalkapazität des Binärkanals<br />

Für den ungestörten Fall und unter der AnnahmeԴܼµÔ´Ü½µgilt:<br />

ÑÜÆØ ×¾Æ× ½.<br />

Die<br />

¾½ ´½<br />

Kanalkapazität eines symmetrisch gestörten Binärkanals mit<br />

´½ ½Ô×µ·Ô×ld½Ô× gleichverteilten Eingangszeichen lautet beispielsweise:<br />

. Ô×µld<br />

Beispiel<br />

Dimensionierung vonÉ (Aufg.s.: 3.1, 8. Aufgabe)<br />

´Ô´Üµµ´¼½¼¿¼½¼¼¼¼¼µ,<br />

(rauschfreier) Binärkanal mit½¼¼ÀÞ,ɼÉ×möglich?<br />

4 Kanäle 4.1 Diskrete Kanäle 4.1.3 Binärkanal


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 48<br />

Analoge Kanäle<br />

Entropie analoger Quellen<br />

f(x)<br />

f(x i)<br />

0 x i x<br />

∆x<br />

Die Wahrscheinlichkeit, dass die zufällige GrößeÜim Bereich¡Ü<br />

ԴܵÊ<br />

liegt, berechnet<br />

¡Ü ´Üµdܴܵ¡Ü<br />

sich durch<br />

4 Kanäle 4.2 Analoge Kanäle 4.2.1 Entropie analoger Quellen


À×ÖÀÑÈ<br />

<strong>Vorlesung</strong> Informations- und Kodierungstheorie<br />

½<br />

49<br />

È ´Üµ¡Ü <br />

´Üµ¡Üld<br />

´Üµ ½ È<br />

ÀÒ½Ê ´Üµ¡Üld¡Ü ½ ´ÜµdÜ ½ ld¡Ü<br />

´Üµ¡Üld<br />

´Üµld<br />

ld¡Ü ¡Üist unter gleichen Bedingungen konstant. Daher lässt man<br />

ÀÖнÊ<br />

meistens weg und spricht dann von der relativen Entropie einer<br />

analogen<br />

½ ´ÜµdÜ ½<br />

Quelle:<br />

´Üµld<br />

vonÀÖÐ<br />

´ÜµÔ¾È ½ ¾È ܾ<br />

Beispiel Berechnung<br />

4 Kanäle 4.2 Analoge Kanäle 4.2.1 Entropie analoger Quellen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 50<br />

Transinformation analoger Kanäle<br />

¯Signale und Störungen überlagern sich additiv und sind damit am<br />

Kanalausgang als Summe beider vorhanden.<br />

¯Es entstehen keine Störanteile, die vom Nutzsignal abhängen.<br />

Nutz- und Störsignal sind unkorreliert, d. h., die Leistung des<br />

Empfangssignals ist gleich der Summe aus Nutz- und<br />

Störsignalleistung:<br />

P x<br />

P y = P x + P z<br />

Pz<br />

Annahme: Amplitudenwerte von Nutz- und Störsignal sind<br />

normalverteilt:´Üµ<br />

½ ¾È ܾ Ô¾Èe<br />

4 Kanäle 4.2 Analoge Kanäle 4.2.2 Transinformation, Kanalkapazität


<strong>Vorlesung</strong><br />

À´µ½¾ld¾ÈÜ<br />

Informations- und Kodierungstheorie 51<br />

Entropie der Quelle<br />

´ÈÜmittlere Nutzsignalleistungµ<br />

À´µ½¾ld¾ÈÞ<br />

Störentropie<br />

´ÈÞmittlere Störsignalleistungµ<br />

À´µ½¾ld¾´ÈÜ·ÈÞµ<br />

Entropie am Kanalausgang<br />

À̽¾ld½·ÈÜ ÈÞ <br />

Transinformation analoger Kanäle<br />

À̽¾ldÈÜ<br />

der BedingungÈÜ<br />

ÈÞ½<br />

ÈÞ<br />

unter<br />

4 Kanäle 4.2 Analoge Kanäle 4.2.2 Transinformation, Kanalkapazität


<strong>Vorlesung</strong><br />

Ö½¼ÐÈÜ<br />

Informations- und Kodierungstheorie 52<br />

ÈÞ<br />

Rauschabstand<br />

in(Dezibel)<br />

FürÈÜ<br />

À̽¾¼¿¿¾Ö¼½Ö<br />

dann<br />

ÈÞ½gilt<br />

Ò¾½¾ld½·ÈÜ ÈÞ<br />

Kanalkapazität analoger Kanäle<br />

ÒÆØ ×Æ× ½ld½·ÈÜ<br />

oder<br />

FürÈÜ<br />

ÈÞ <br />

Ò¼¿¿¾Ö<br />

man<br />

ÈÞ½erhält<br />

L: B.buch, S. 33 - 37, 68 - 76, 102 - 106<br />

4 Kanäle 4.2 Analoge Kanäle 4.2.2 Transinformation, Kanalkapazität


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 53<br />

Quantisierung analoger Signale<br />

Quelle<br />

Kodierer<br />

Übertragungskanal<br />

Dekodierer<br />

Senke<br />

Diskrete<br />

Quelle<br />

Analoge<br />

Quelle<br />

Störung<br />

Analoge Quelle<br />

f(t)<br />

Abtastung<br />

f(n t<br />

A<br />

)<br />

Amplituden−<br />

quantisierung<br />

f*(n t<br />

A<br />

)<br />

Quellenkodierer<br />

x(t)<br />

f(t)<br />

f(n t<br />

A)<br />

f*(n t<br />

A<br />

)<br />

x(t)<br />

t<br />

n t<br />

A<br />

n t<br />

A<br />

t<br />

a)<br />

b) c) d)<br />

4 Kanäle 4.3 Quantisierung analoger Signale


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 54<br />

Zeitquantisierung<br />

¾ Ï×<br />

Abtastfrequenz<br />

in<br />

Abstand der Abtastwerte:<br />

ؾ½<br />

½ <br />

bei Einhaltung obiger Bedingung kein Infomationsverlust<br />

Amplitudenquantisierung<br />

Informationsverlust abhängig von Stufung und Verteilung<br />

Annahme: Quantisierung mit linearer Kennlinie<br />

4 Kanäle 4.3 Quantisierung analoger Signale


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 55<br />

n<br />

m<br />

Diskrete Quelle<br />

i<br />

2<br />

δ<br />

21<br />

δ<br />

22<br />

1<br />

ÀÕÑÈ ½<br />

x 1<br />

x 2<br />

Դܵ<br />

½x i<br />

Ï Ø<br />

x<br />

m<br />

x<br />

Analoge Quelle<br />

Դܵld<br />

ÀÕÑÜldÑ<br />

in<br />

Դܵ½Ñ:<br />

4 Kanäle 4.3 Quantisierung analoger Signale


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 56<br />

Modell der diskreten Übertragung eines quantisierten, gestörten Signals<br />

Analoge Quelle<br />

Q<br />

an<br />

I<br />

Q<br />

Analoger<br />

Kanal<br />

C an<br />

ADU<br />

Iq= I KQ<br />

Kodierer<br />

Übertragungskanal<br />

Dekodierer<br />

Senke<br />

ld½·ÈÜ ÒÁÕ<br />

ÈÞ ¾ldÑ<br />

ÑÕÈÜ ÈÞ oderѽ¼Ö¾¼<br />

Störung<br />

Dekodierer DAU Senke<br />

ÁÕÁÃÉ, wennÐldÑ<br />

4 Kanäle 4.3 Quantisierung analoger Signale


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 57<br />

Kenngrößen der Analog-Digital-Umwandlung<br />

¯Grenzfrequenz<br />

Das analoge Signal hat zwei Kenngrößen, die den Informationsfluss<br />

¯RauschabstandÖ<br />

bestimmen:<br />

und<br />

¯UmsetzzeitØÙ<br />

Wichtige<br />

¯KodewortlängeÐldÑ<br />

Kenngrößen des Analog-Digital-Umsetzers (ADU) sind:<br />

und<br />

Da durch den ADU das quantisierte Signal in einem gleichmäßigen<br />

Kode dargestellt wird, werden nur Stufenanzahlen von<br />

Ѿ(½¾)<br />

realisiert.<br />

4 Kanäle 4.3 Quantisierung analoger Signale


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 58<br />

Bedingungen zur Vermeidung von Informationsverlust durch ADU:<br />

¯In<br />

ØÙØ<br />

der ZeitØÙist das Signal abzutasten und der Abtastwert in einem<br />

Binärkode darzustellen:<br />

м½ÖѾÐ<br />

¯Die erforderliche Kodewortlänge wird durch den Rauschabstand<br />

vorgegeben:<br />

mitÐinÃ<br />

ÏÖin<br />

ÁÃɾÐÀÃÐÀÃ<br />

Kanalkapazität des nachgeschalteten Binärkanals:<br />

(Gesicherte Übertragung!)<br />

Ò½ÀÞÖ¼BK:¼½Æ¼¼Ô´Ü¼µÔ´Ü½µ<br />

Übertragung:ÚĐÙÙÒ×℄ÚĐÙ×℄Ò<br />

Beispiel ADU, diskrete<br />

L: Begleitbuch, S. 108 - 123<br />

4 Kanäle 4.3 Quantisierung analoger Signale


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 59<br />

Kanal−<br />

(de)kodierer<br />

Fehlerkorrektur<br />

durch Wiederholung (ARQ)<br />

[automatic repeat request]<br />

"Fehlererkennung"<br />

durch Rekonstruktion (FEC)<br />

[forward error correction]<br />

"Fehlerkorrektur"<br />

mit Entscheidungs<br />

rückmeldung<br />

mit Maximum<br />

Likelihood<br />

mit begrenzter<br />

Mindestdistanz<br />

5 Kanalkodierung 5.1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 60<br />

ARQ<br />

a*<br />

FEC<br />

Kanalkodefolge<br />

a<br />

Übertragung<br />

Empfangsfolge b<br />

Wiederholung<br />

n fehlerfreie<br />

Übertragung ?<br />

n<br />

Fehlerkorrektur<br />

j<br />

Entfernen der<br />

Redundanz<br />

5 Kanalkodierung 5.1 Einführung<br />

b*


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 61<br />

Fehlerkorrektur durch Wiederholung<br />

hinzugefügte redundante Stellen nur zur Erkennung eines Fehlers<br />

Fehlerkorrektur durch Rekonstruktion<br />

hinzugefügte redundante Stellen zur Erkennung eines Fehlers und<br />

Lokalisierung der Fehlerpositionen<br />

FECARQ<br />

(Aus Abschätzung bekannt:¡Ð)<br />

Rekonstruktionsergebnisse<br />

¯korrekte Rekonstruktion<br />

¯falsche Rekonstruktion<br />

¯Versagen der Rekonstruktion<br />

5 Kanalkodierung 5.1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 62<br />

Allgemeine Kenngrößen von Kanalkodes<br />

Quelle<br />

X<br />

Quellen<br />

kodierer<br />

A *<br />

Kanal<br />

kodierer<br />

A<br />

ܾܽÜÄ<br />

Senke<br />

Quellen<br />

Y<br />

dekodierer<br />

½¾Ä ££½£¾£Ä<br />

½¾Æ ½¾Æ<br />

B*<br />

Kanal<br />

dekodierer<br />

Übertra<br />

gungskanal<br />

´Òе, auch´ÒÐÑÒµKode<br />

B<br />

E<br />

Beispiel<br />

´Ò½ÒµWiederholungskode<br />

5 Kanalkodierung 5.1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 63<br />

´Ù½Ù¾ÙÒµund´Ù½Ù¾ÙÒµ<br />

Definition<br />

Die Anzahl der Stellen, in denen sich zwei Kodewörter<br />

´µ¾ÒÙÙ ¾Ò½¾Ò<br />

unterscheiden, bezeichnet man als HAMMING-Distanz´µ:<br />

mit<br />

´µ<br />

Binärkode:<br />

½´Ù¨Ùµ ÒÈ<br />

Û´µ<br />

HAMMING-Distanz:<br />

½ ÒÈ Ù´0µ<br />

ÑÒ¾´µÑÒ<br />

¾Ò¼´0µÑÒ ¾Ò¼Û´µÛÑÒ<br />

HAMMING-Gewicht:<br />

Beispiel<br />

Distanzberechnung<br />

´½ÑÒ)Wiederholungskode;´¿ÑÒ)Paritätskode<br />

5 Kanalkodierung 5.1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 64<br />

Geometrische Deutung der minimalen HAMMING-Distanz:<br />

Kodewort<br />

a i<br />

Kodewort<br />

a j<br />

Korrekturkugeln<br />

d( ai , a j )<br />

0 1 2 3 4 5<br />

ÑÒund<br />

FK:ÑÒ ÑÒ··½<br />

Leistungsfähigkeit<br />

½ FE:¼ÑÒ ½<br />

eines Kodes bzgl. und FK:<br />

¾ ÑÒ ¾ (ÑÒgeradzahlig?)<br />

Beispiel Fortsetzung:<br />

5 Kanalkodierung 5.1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 65<br />

¾Ò¾Ð¾¾Ð½· Ò½¡· Ò¾¡·· Ò¡<br />

Berechnung der redundanten Stellen(bekannt:ÑÒÐoderÒ)<br />

´Ò µÒ´Ò ½µ¡¡´Ò ½¡¾¡¡·½µ<br />

ldÈ ¼ Ò¡ldÈ ¼ з ¡<br />

¾È ¼ Ò¡ Ò¡ Ò<br />

untere Schranke fürbei vorgegebenemÐ<br />

obere Schranke fürÐbei vorgegebenemÒÐÒ <br />

HAMMING-Schranke<br />

”“: Entsprechende Kodes heißen dichtgepackt oder perfekt.<br />

Beispiel Berechnung von<br />

ÐÑÒ<br />

5 Kanalkodierung 5.1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie<br />

ÖÒ Ð<br />

66<br />

Weitere Kodekenngrößen<br />

relative Redundanz<br />

Koderate ÊÐÒ<br />

Ò Ò<br />

Zweites SHANNONsches Kodierungstheorem<br />

Die RestfehlerwahrscheinlichkeitÔÊkann beliebig klein gehalten<br />

werden, solange die KoderateÊden Wert der maximalen<br />

TransinformationÀÌnicht überschreitet.<br />

Darüber hinaus hat SHANNON theoretisch nachgewiesen, dass auch<br />

bei beliebig kleiner Restfehlerwahrscheinlichkeit immer noch eine<br />

Koderate größer als Null möglich ist [SHA 48].<br />

L: Begleitbuch, S. 125 - 137<br />

5 Kanalkodierung 5.1 Einführung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 67<br />

ÐÓÓ× ÐÖ×ÃÒÐÓ× ÐÓÖ´×ÕÙÒØÐеÃÓ×<br />

Klassifizierung von Kanalkodes<br />

ÈÖØĐØ×Ó× ´ÒĐÖ¸ÒØÒĐÖµ ´ÒĐÖµ<br />

´ÎÖØØØÃÓ×µ ÏÖÓÐÙÒ×Ó× ÊßÅÍÄÄÊßÃÓ×ÀßÃÓ×ÊËßÃÓ×<br />

ÀÅÅÁÆßÃÓ× ÝÐ×ÃÓ× ÐØÙÒ×Ó×<br />

´ÊßÃÓ×µ<br />

Neu“: Turbokodes, LDPC-Kodes<br />

”<br />

(einfache, auch verkettete Blockkodes mit iterativer Dekodierung)<br />

L: Begleitbuch, S. 138 - 141<br />

5 Kanalkodierung 5.2 Klassifizierung von Kanalkodes


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 68<br />

Definition<br />

Ein Kode heißt linearer Blockkode, oder kurz Linearkode, wenn der<br />

Kanalkodierer für die Transformation von Quellenkodewörtern der<br />

LängeÐaus dem Alphabet£(Quellenkode) in Kanalkodewörter der<br />

LängeÒdes Alphabets(Kanalkode) eine Verknüpfungsoperation<br />

verwendet, die in der algebraischen Struktur einer Gruppe definiert ist.<br />

Darstellung von Linearkodes als Gruppe<br />

Axiom G1: Abgeschlossenheit<br />

Axiom G2: Assoziatives Gesetz<br />

Axiom G3: Neutrales Element<br />

Axiom G4: Inverses Element<br />

Kommutativgesetz<br />

abelsche Gruppe<br />

Beispiel<br />

Wiederholungskode, Paritätskode<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 69<br />

Wichtig für algebraische Kodes:<br />

£lineare Verknüpfung von Kanalkodewörtern führt wieder zu einem<br />

Kanalkodewort<br />

£Nullwort ist immer auch Kanalkodewort<br />

£Axiome stellen Kodebildungs- und Fehlererkennungsvorschrift dar<br />

¼½ÒmitľÐKanalkodewörtern,Ò Ð £´ÒÐÑÒµKanalkode:<br />

£ÑÒdes Kanalkodes bestimmt Leistungsfähigkeit<br />

FE:ÑÒ<br />

Bei einem Linearkode ist die minimale HAMMING-Distanz gleich<br />

FK:¤ÑÒ<br />

dem minimalen<br />

¾ ½½ÛÑÒ ¥¤ÛÑÒ Gewicht der<br />

¾ ½¥¤ÑÒ<br />

Kodewörter (außer<br />

¾ ¥¤ÛÑÒ<br />

dem Nullwort).<br />

¾ ¥<br />

Beispiel Kanalkodealphabet<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 70<br />

½ ¼ ´¼¼¼¼¼¼¼µ ´½¼¼¼½¼½µ<br />

Kanalkodealphabet:<br />

¾ ´¼¼½¼½½¼µ ´¼¼¼½¼½½µ ½¼ ´½¼¼½½½¼µ<br />

¿ ´¼¼½½½¼½µ ½½ ´½¼½¼¼½½µ<br />

´¼½¼¼½½½µ ½¾ ´½¼½½¼¼¼µ<br />

´¼½¼½½¼¼µ ½¿ ´½½¼¼¼½¼µ<br />

´¼½½¼¼¼½µ ½ ´½½¼½¼¼½µ<br />

´¼½½½¼½¼µ ½ ´½½½¼½¼¼µ ´½½½½½½½µ<br />

Überprüfen der Eigenschaften!<br />

´ÒÐÑÒµLinearkode<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 71<br />

Darstellung von Linearkodes durch Matrizen<br />

Definition<br />

Ein LinearkodemitľÐKanalkodewörtern ist durch seine<br />

GeneratormatrixmitÐlinear unabhängigen Kanalkodewörtern<br />

(Basiswörtern) eindeutig beschrieben:<br />

Ð¢Ò ¼ Ù Ù¾½ ½½ Ù½¾ Ù¾¾ Ù½Ò½ Ù¾Ò<br />

Ùн Ùо .<br />

.<br />

. ..<br />

ÙÐÒ<br />

Ù ¾¼½<br />

. Mit einer Einheitsmatrix über den erstenÐSpalten der Generatormatrix<br />

sind die zugehörigen Kanalkodewörter mit Sicherheit linear<br />

unabhängig.<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 72<br />

Kanonische oder reduzierte Staffelform<br />

Ð¢Ò ¼ ½ ¼ ½ ¼ ٠پз½ ½Ð·½ ٽз¾ پз¾ Ù½Ò½<br />

Ù¾Ò<br />

¼ ½ ÙÐз½ ÙÐз¾ ÙÐÒ<br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />

¼ ½ ¼ ½ ¼ ¾½ ½½ ½¾ ¾¾ ½½ ¾ ÁÐ℄<br />

¼ ¼ ¼ ½ н о Ð<br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />

Beispiel<br />

Fortsetzung:ТÒ<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 73<br />

Definition<br />

Ein Linearkode heißt systematischer Kode, wenn aus einem<br />

Kanalkodewort¾durch Streichen redundanter Stellen das<br />

Quellenkodewort£¾£unmittelbar entnommen werden kann.<br />

£¡Ð¢Ò<br />

Bildung eines Kanalkodewortes – Kanalkodierung<br />

´Ù½Ù¾ÙÒµ ´Ù½Ù¾Ùе ¼ ½ ¼ ½ ¼¼ ¾½ ½½ ½¾½ ¾¾¾<br />

¼ ¼ ¼½ н оÐ<br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />

Fortsetzung:£´¼½¼½µ<br />

Beispiel<br />

½<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 74<br />

Aufbau einer Kontrollmatrix (aus der Generatormatrix):<br />

Ein zuorthogonaler Unterraum¼ist dadurch gekennzeichnet, dass<br />

das Skalarprodukt eines beliebigen Vektors ausmit jedem beliebigen<br />

Vektor<br />

´Ù½Ù¾ÙÒµ<br />

aus¼Null ist.<br />

Es<br />

¼´Ù½Ù¾ÙÒµmit¼¾¼<br />

mit¾<br />

sei<br />

und<br />

¡¼Ù½¡Ù½¨Ù¾¡Ù¾¨¨ÙÒ¡ÙÒ¼<br />

Dann gilt<br />

ÁÐ℄ <br />

für alle<br />

£Ist<br />

dann ist der zuorthogonale Unterraum¼<br />

ÀÌÁ℄<br />

durch<br />

¡ÀÌ´À¡ÌµÌ¼<br />

beschrieben.<br />

Orthogonalitätsbedingung:<br />

Beispiel Fortsetzung:ТÒÀ¢Ò<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 75<br />

¡¼Ì<br />

Kontroll(auch<br />

½ Ù½¡½½¨Ù¾¡¾½¨¨ÙСн¨Ùз½¡½¨Ùз¾¡¼¨¨ÙÒ¡¼<br />

Prüf-)matrix liefert auch Vorschrift zur Bildung der<br />

Kontrollstellen(Bestimmungsgleichungen):<br />

¼<br />

Ùз½℄½Ù½¡½½¨Ù¾¡¾½¨¨ÙСн<br />

Allgemein:<br />

Erstes KontrollelementÙз½℄½des Kanalkodewortes:<br />

Ùз℄Ù½¡½¨Ù¾¡¾¨¨ÙСР´½¾µ<br />

für´Ù½Ù¾ÙÐÙз½Ùз¾Ùзµ´Ð½Ð¾Ðн¾µ<br />

£´¼½¼½µ<br />

für´½¾µ<br />

Beispiel Forts.: Bestimmungsgleichungen<br />

L: Begleitbuch, S. 142 - 151<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.1 Darstellungen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 76<br />

Fehlererkennung und Fehlerkorrektur – Kanaldekodierung<br />

¯Die Empfangsfolgekann als Überlagerung eines Kanalkodewortes<br />

mit einem Fehlerwortaufgefasst werden:<br />

¨.<br />

×À¡ÌÀ¡´¨µÌÀ¡Ì ßÞÐ<br />

Damit gilt für das Fehlersyndrom<br />

¼ ¨À¡ÌÀ¡Ì<br />

(auch Prüfvektor)<br />

GewichtÛ´µÑÒ<br />

GewichtÛ´µÑÒ<br />

¯Alle Fehlermuster, deren<br />

¾ ½<br />

½ist, sind mit<br />

Sicherheit erkennbar.<br />

¯Alle Fehlermuster, deren ist, sind mit<br />

Sicherheit korrigierbar.<br />

¯Ist¾undÛ´µÑÒ<br />

¯Darüber hinaus sind nur Fehlermuster<br />

¾ ½<br />

erkennbar, die nicht indefiniert<br />

sind, d. h.¾.<br />

erfolgt eine Falschkorrektur oder<br />

Rekonstruktionsversagen.<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.2 FE und FK


<strong>Vorlesung</strong> Informations-<br />

×À¢Ò¡Ì<br />

und Kodierungstheorie 77<br />

¯Empfangsfolge¾?<br />

(auch: Kontrollgleichungen für×´½¾µ)<br />

×¼:¾<br />

fehlerfreie Übertragung<br />

oder<br />

kein erkennbarer Fehler<br />

langeÛ´µ¤ÑÒ<br />

×¼:¾Fehlererkennung,<br />

¾ ½¥<br />

Korrektur?<br />

¯Jedem Fehlersyndrom ist maximal ein Fehlermuster zugeordnet, so-<br />

¯Die Syndrome sind-stellige Vektoren. Also können´¾<br />

Fortsetzung:´½½¼¼½¼½µ¾<br />

½µverschiedene<br />

Fehlermuster<br />

für×´½¾µ<br />

korrigiert werden.<br />

Beispiel<br />

Kontrollgleichungen<br />

L: Begleitbuch, S. 152 - 154<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.2 FE und FK


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 78<br />

Einfachster“ Linearkode:<br />

£´Ù½Ù¾Ùе´Ù½Ù¾ÙÐÙз½µ<br />

”<br />

Paritätskode<br />

Ùз½ ÐÈ Ùз½– Paritätselement:<br />

½<br />

Ùmod¾ (Ergänzung auf geradzahlige Anzahl Eins)<br />

Generatormatrix´Ò<br />

ÑÒ? ½µ¢Ò?<br />

KontrollmatrixÀ½¢Ò?<br />

Fehlererkennung:×À¡ÌÒÈ<br />

½ Ùmod¾×¼¾<br />

Anwendung: DÜ in Rechnern, Erweiterung von Kodes, RAID5<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.2 FE und FK


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 79<br />

Verkettung von zwei Paritätskodes<br />

´Ò½¡Ò¾Ð½¡Ð¾ÑÒ½¡ÑÒ¾µProduktkode<br />

Quellen−<br />

kodewörter<br />

aus A*<br />

Paritätselemente<br />

bzgl. der l Zeilen<br />

Paritätselement<br />

bzgl. der<br />

Paritätselemente<br />

Beispiel:<br />

1 0 0 1 0 0<br />

1 0 1 0 1 1<br />

0 1 1 0 0 0<br />

1 0 0 1 1 1<br />

0 0 0 0 0 0<br />

0 1 1 0 1 1<br />

1 0 1 0 1 1<br />

Paritätselemente<br />

( l +1) stelliges<br />

bzgl. der m Spalten l stelliges<br />

Kanalkodewort Quellenkodewort<br />

s<br />

0<br />

s<br />

1 0 0 1 0 0 0<br />

1 0 1 0 1 1 0<br />

0 1 1 0 0 0 0<br />

1 0 0 1 1 1 0<br />

0 0 0 1 0 0 1<br />

0 1 1 0 1 1 0<br />

1 0 1 0 1 1 0<br />

0 0 0 1 0 0 1<br />

0<br />

5 Kanalkodierung 5.3 Lineare Blockkodes 5.3.2 FE und FK


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 80<br />

Fehlerkorrigierender HAMMING-Kode<br />

Definition<br />

¯Der<br />

vonÒ¾<br />

fehlerkorrigierende HAMMING-Kode ist zunächst bzgl. der<br />

HAMMING-Schranke ein dichtgepackter Kode. Er hat einen minimalen<br />

HAMMING-Abstand vonÑÒ¿und eine Kodewortlänge<br />

½.<br />

¯Man bezeichnet diesen Kode auch als einfehlerkorrigierenden<br />

HAMMING-Kode.<br />

¯Geschickte Vertauschung der Spalten vonÀ, so dass die-te Spalte<br />

vonÀder Dualdarstellung vonentspricht. Das Fehlersyndrom×<br />

liefert dann unmittelbar die dual dargestellte Position des fehlerhaften<br />

Elementes in.<br />

5 Kanalkodierung 5.4 Einfehlerkorrigierende HAMMING-Kodes


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 81<br />

¼½<br />

Ò Ò Ò<br />

¯Kontrollmatrix eines´µHAMMING-Kodes:<br />

À¢ÒÀ¿¢ ½¼Ð¿<br />

½ Ò<br />

¼½Ð¾<br />

½ Ò¿ ¼ Ò¾ ¼ Ò½½ Ð ¼¿ ½Ð½<br />

½¼¾ ¼½ <br />

PositionenÒ¾´¼½µ ½<br />

Kontrollstellen an<br />

¯×À¡Ì chungen´½¾µausÀ´℄Ðпо¿Ð½¾½µ<br />

Berechnen der Kontrollstellen mittels den Bestimmungsglei-<br />

durch×´××<br />

bzw. Kontrollgleichungen×´½¾µausÀ<br />

Ein Fehler<br />

£´½¼¼½µ¨´¼¼½¼¼¼¼µ£<br />

wird ½×½µÌlokalisiert und damit<br />

korrigiert.<br />

Beispiel<br />

5 Kanalkodierung 5.4 Einfehlerkorrigierende HAMMING-Kodes


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 82<br />

Verkürzter HAMMING-Kode<br />

FürKontrollstellen sind maximalÒ¾ ½verschiedene Syndrome<br />

möglich und damit maximalÒ¾<br />

о ½Stellen bzgl. Einfachfehler<br />

korrigierbar.<br />

о ½<br />

liefert einen dichtgepackten<br />

mitÒ¾<br />

Kode<br />

(HAMMING-Schranke erfüllt), ”“ ½ einen verkürzten Kode<br />

Das Korrekturschema des einfehlerkorrigierenden HAMMING-Kodes<br />

lässt sich auch dann anwenden.<br />

Beispiel<br />

´µHAMMING-Kodeverkürzter´¿µHAMMING-Kode<br />

Überprüfe mit HAMMING-Schranke!<br />

5 Kanalkodierung 5.4 Einfehlerkorrigierende HAMMING-Kodes


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 83<br />

Erweiterter HAMMING-Kode<br />

¯Jedem Kanalkodewort wird ein weiteres Kontrollelement¼hinzugefügt.<br />

´℄Ðпо¿Ð½¾½¼µ´℄ÒÒÒÒÒ¿Ò¾Ò½Ò¼µ<br />

¯Dieses Kontrollelement wird durch eine zusätzliche Bestimmungsgleichung<br />

Ò¼ÒÈ ½<br />

berechnet, die sämtliche Kodewortelemente einbezieht:<br />

mit<br />

Òmod¾zusätzl. Kontrollgleichung:×¼ÒÈ<br />

¼<br />

Òmod¾<br />

Paritätsbit<br />

Erzeugt Kanalkode mit geradzahliger Parität<br />

¯Die Anzahl der Kontrollelemente beträgt damit·½, die Kodewortlänge<br />

£´½¼¼½µ<br />

erhöht sich aufÒ¾. Der Minimalabstand istÑÒ.<br />

¯Die Anzahl<br />

´½½¼½½¼¼½µ¾<br />

der Informationselemente ist unverändert.<br />

Beispiel<br />

von×und×¼ Auswertung<br />

L: Begleitbuch, S. 156 - 161<br />

5 Kanalkodierung 5.4 Einfehlerkorrigierende HAMMING-Kodes


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 84<br />

Zyklische Kodes<br />

Binäre primitive BCH-Kodes<br />

´ÙÒ<br />

Definition<br />

½ÙÒ ¾Ù½Ù¼µ<br />

Ein Kode heißt zyklisch, wenn für jedes Kanalkodewort<br />

durch zyklische Verschiebung der Elemente mit<br />

´ÙÒ ¾ÙÒ ¿Ù¼ÙÒ ½µ<br />

wieder ein Kanalkodewort entsteht. a<br />

Ein zyklischer Kode ist ein spezieller Linearkode, der sowohl<br />

algebraische Gruppenaxiome als auch Ring- und Körperaxiome erfüllt.<br />

Das Generatorpolynom´Üµist i. Allg. ein Produkt von MinimalpolynomenѴܵ,<br />

das den zyklischen Kode vollständig beschreibt.¾!<br />

Hinweis: Schreibweise von Polynomen<br />

ȴܵÙÖÜÖ·ÙÖ ½ÜÖ ½··Ù¼mitÙ¾¼½<br />

a<br />

ExponentenÖÒdurchÖmodÒ ´Üµ´Üµ¡ÜÞmod´ÜÒ·½µersetzt<br />

5 Kanalkodierung 5.5 Zyklische Kodes


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 85<br />

über´¾µ<br />

Ausgewählte algebraische Grundlagen<br />

¯Eigenschaften eines Modularpolynoms<br />

1. Das Modularpolynom muss irreduzibel sein.<br />

£Ein Polynom ist irreduzibel, wenn es nicht in ein Produkt von<br />

Polynomen zerlegbar ist.<br />

Ò¾½ ½<br />

£Das ModularpolynomŴܵvom Grad½gradŴܵbestimmt<br />

den KodeparameterÒmit<br />

ÜmodŴܵ´¼½Ôµ<br />

£Der tatsächliche Wert vonÒberechnet sich aus dem Zyklus der<br />

Polynomreste über´¾µmit<br />

und bestimmtÒÔ¾½ ½<br />

Ŵܵܿ·Ü¾·½<br />

Beispiel<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen


ÒÔ¾½ ½<br />

dann besitzt das irreduzible PolynomŴܵauch die Eigenschaft,<br />

primitiv zu sein.<br />

<strong>Vorlesung</strong> Informations- und Kodierungstheorie 86<br />

2. Ist<br />

¯Erweiterungskörper und Minimalpolynome<br />

Die Leistungsfähigkeit eines BCH-Kodes hängt von der Anzahl aufeinanderfolgender<br />

Nullstellen in´Üµab.Nullstellen?<br />

ȴܽµ½È´Ü¼µ½<br />

Beispiel<br />

ȴܷܷܵ½über´¾µprimitiv:<br />

Das Polynomȴܵhat über´¾µkeine Nullstelle.<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 87<br />

Fundamentalsatz der Algebra<br />

Jedes Polynom hat mindestens eine Nullstelle, gegebenenfalls in einem<br />

anderen Körper, und jedes PolynomÖ-ten Grades lässt sich in genauÖ<br />

Teilpolynome<br />

ȴܵÙÖÜÖ·ÙÖ<br />

ersten<br />

½ÜÖ<br />

Grades,<br />

½··Ù½Ü·Ù¼<br />

d. h. inÖLinearfaktoren, zerlegen, i. Allg.<br />

unter Zuhilfenahme von Erweiterungselementen«:<br />

´Ü «½µ´Ü «¾µ´Ü «Öµ<br />

Ein neues Element«wird als Nullstelle eines irreduziblen Polynoms<br />

über´¾µhinzugefügt, welches einem Erweiterungskörper angehört.<br />

Auf der Grundlage eines irreduziblen ModularpolynomsŴܵvom<br />

in´¾½µ<br />

Grad½gradŴܵüber´¾µentsteht durch Hinzunahme einer<br />

Nullstelle«ein endlicher Erweiterungskörper´¾½µ, d. h.,«ist<br />

Nullstelle vonŴܵund ein (Erweiterungs-)Element<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie<br />

Elemente«´¼½´¾½ ¾µµ<br />

88<br />

Zum Erweiterungskörper´¾½µgehören<br />

Ŵܵܿ·Ü¾·½über´¾µ<br />

dann neben dem<br />

Nullelement die<br />

Beispiel<br />

des´¾¿µ«modÅ´Ü«µ<br />

Bestimmung Erweiterungskörpers´¾¿µ:<br />

¼ ¼¼¼<br />

Elemente Polynomreste Koeffizienten der<br />

Polynomreste<br />

Nullelement<br />

«¿ « «¾·«·½·½ ½¼½ ½½½<br />

«¼ «½ «¾ «¾ « ½ ¼¼½ ¼½¼ ½¼¼<br />

« « « «¾·«·½ ¼½½<br />

½ ½½¼ ¼¼½<br />

isomorph dem Zyklus der Polynomreste über´¾µ<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 89<br />

Berechnungsbeispiele<br />

£ «·««modÅ´«µ·«modÅ´«µ«<br />

für Addition und Multiplikation im<br />

´¾¿µÜ¿·Ü¾·½:<br />

«¾·«¾´½¼¼µ¨´½¼¼µ¼ «·«¾´¼½½µ¨´½¼¼µ´½½½µ«<br />

bzw.<br />

£ «¿·« «¡««´·µmodÔ «·«<br />

B.«¡««mod«¾<br />

«¾¡« «¡«¡«<br />

Z.<br />

«·«¼<br />

Z. B.«·«¾«·½·«¾«<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen


Ŵܵܿ·Ü¾·½<br />

<strong>Vorlesung</strong> Informations- und Kodierungstheorie 90<br />

Å´Ü«µ«¿·«¾·½´«¾·½µ·«¾·½¼<br />

Beispiel<br />

«Nullstelle vonŴܵund Erweiterungselement:<br />

Ŵܵܿ·Ü¾·½´Ü «½µ´Ü «¾µ´Ü «¿µ<br />

Fundamentalsatz der Algebra:<br />

im´¾¿µ<br />

d.<br />

««¾<br />

h.,«½«½,«¾und«¿sind Nullstellen<br />

Zuordnung«zu den Elementen<br />

½modÔ<br />

´½¾½´gradŴܵµµ<br />

von´¾½µ:<br />

´¼½¾½ Elemente«¾¼«¾½«¾½<br />

£Die<br />

½modÔsind im Zyklus<br />

¾µzueinander konjugiert.<br />

£Konjugierte Elemente befinden sich in einem Zyklus.<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 91<br />

Die Nullstellen vonŴܵsind damit die im Zyklus½stehenden<br />

zu«½konjugierten Elemente«¾«¾und«¿«.<br />

¾undliefern demzufolge<br />

fürÔ¾½<br />

den gleichen Zyklus.<br />

£Die Anzahl der Elemente in einem Zyklus wird durch½ <br />

gradŴܵbegrenzt und ist ½¾Èfür alle Zyklen<br />

gleich (ausgenommen:¼).<br />

«¼ im´¾¿µ<br />

Beispiel Zyklen<br />

«¿«« «½«¾«<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 92<br />

Jedem«aus´¾½µist ein<br />

MinimalpolynomѴܵzugeordnet:<br />

£Das Minimalpolynom eines beliebigen Elementes«ist irreduzibel<br />

und vom GradÖ½.<br />

£Zu jedem Element«existiert genau ein MinimalpolynomѴܵ.<br />

£Das Minimalpolynom des Elementes«ist gleichzeitig das Minimalpolynom<br />

der Elemente«¾½,«¾¾,«¾Ö ½modÔ.<br />

£Ist«eine Nullstelle des MinimalpolynomsѴܵ, dann sind die<br />

Özueinander konjugierten Nullstellen«,«¾½,«¾¾,«¾Ö<br />

Ѵܵ´Ü «µ´Ü «¾½µ´Ü «¾¾µ´Ü «¾Ö ½µ<br />

½die<br />

sämtlichen Nullstellen vonѴܵ:<br />

£Das ModularpolynomŴܵist wegenÅ´Ü«½µ¼das Minimalpolynomѽ´Üµdes<br />

Elementes«½.<br />

Beispiel<br />

Ѽ´ÜµÑ½´ÜµÑ¿´Üµim´¾¿µÅ´ÜµÜ¿·Ü¾·½?<br />

L: Begleitbuch, S. 162 - 169<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.1 Ausgewählte algebraische Grundlagen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 93<br />

´Üµ´Å´Üµµauch:´Üµ´ÐµÅ´Üµ<br />

Generatorpolynom primitiver BCH-Kodes<br />

zur Kodierung und Fehlererkennung<br />

EntwurfsabstandundŴܵbestimmen Wahl der Kodeparameter!<br />

Notwendig:<br />

´¾½µ¼«¼«½«¾«¾½ ¾<br />

¯Erweiterungskörper´¾½µ:<br />

WennŴܵprimitiv ist und«als Nullstelle hat, dann gilt<br />

¯Ein MinimalpolynomѴܵhat««¾«als Nullstellen:<br />

««·½«·¾«·<br />

½modÔÖ½.<br />

¯Das Generatorpolynom´Üµhat die Aufeinanderfolge von<br />

¾als Nullstellen, so auch¾.<br />

Ѵܵ´Ü·«µ´Ü·«¾µ´Ü·«µ im´¾µ<br />

Daraus folgt:ѴܵѾ´ÜµÑ´ÜµÑ¾Ö<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.2 Generatorpolynom von BCH-Kodes


<strong>Vorlesung</strong><br />

«´·½·<br />

Informations- und Kodierungstheorie<br />

wird´Üµ<br />

94<br />

Damit ein BCH-Kode die aufeinanderfolgenden Elemente<br />

´ÜµkgVѴܵѷ½´ÜµÑ·<br />

¾µals Nullstellen<br />

¾´Üµ<br />

enthält,<br />

i. Allg. ein Produkt von Minimalpolynomen sein:<br />

(in<br />

Ò¾½<br />

praktischen Anwendungsfällen istmeist 0 oder 1).<br />

Kodeparameter<br />

grad´Üµ ÐÒ <br />

½weilŴܵprimitiv<br />

ÑÒØØ×ĐÐ℄<br />

Über die Zyklendarstellung kann die tatsächliche Aufeinanderfolge der<br />

Nullstellen bestimmt und damit der tatsächliche AbstandÑÒ<br />

ermittelt werden:<br />

ÑÒ´tatsächliche Anzahl aufeinanderfolgender Nullstellenµ·½<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.2 Generatorpolynom von BCH-Kodes


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 95<br />

von´Üµ<br />

Beispiel Ŵܷܷܵ½primitiv<br />

Bildung<br />

¯´Üµfür<br />

¯Bestimmen möglicher Generatorpolynome´Üµaus den Zyklen der<br />

Exponenten von«für½bzw. 0!<br />

¯´ÜµÜ·Ü·Ü·Ü·½<br />

¯´¿½¾½µBCH-Kode<br />

Analysiere´Üµbzgl.ÑÒund den Kodeparametern<br />

(gradŴܵ)<br />

L: Begleitbuch, S. 175 - 179<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.2 Generatorpolynom von BCH-Kodes


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 96<br />

´ÜµÅ´ÜµÑ½´Üµ<br />

Spezielle BCH-Kodes: CRC[cyclic<br />

ÑÒ¿<br />

redundancy check]-Kodes!<br />

Zyklischer HAMMING-Kode<br />

mit Sicherheit Erkennen von Ein-<br />

Länge½gradŴܵ<br />

und Zweifachfehlern<br />

UND<br />

´ÒÐÑÒµ´¾½ ½¾½<br />

Erkennen von Bündelfehlern der<br />

½<br />

Kodeparameter?<br />

½ÑÒ¿µBCH-Kode<br />

ÑÒmit¿½·½ ´ÜµÑ¼´ÜµÑ½´Üµ Ѽ´Üµ´Ü·½µ<br />

ABRAMSON-Kode<br />

´¾½ ½¾½ ½ ´½·½µÑÒµBCH-Kode<br />

Beispiel Kodeparameter im´¾µfür obige Kodes<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.2 Generatorpolynom von BCH-Kodes


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 97<br />

(Kanal-)Kodierung:<br />

¯Multiplikationsverfahren<br />

Bildungsverfahren für¾<br />

Ein zyklischer Kodeder LängeÒist durch´Üµbeschrieben. Das<br />

Kodepolynom´Üµdes Kanalkodewortesentsteht aus der Multiplikation<br />

des zu kodierenden Polynoms£´Üµmit dem Generatorpolynom´Üµ:<br />

´ÜµÜ¿·Ü¾·½£´½¼½½µ´Üµ<br />

´Üµ£´Üµ´Üµ.<br />

Beispiel<br />

¯Divisionsverfahren<br />

Ein zyklischer Kodeder LängeÒist durch´Üµ(vom Grad) beschrieben.<br />

Das Kodepolynom´Üµdes Kodewortesentsteht aus der<br />

´Üµ£´ÜµÜ·Ö´ÜµÖ´Üµ´£´ÜµÜµmod´Üµ<br />

Multiplikation des zu kodierenden Polynoms£´ÜµmitÜund der<br />

Subtraktion eines Restpolynomsִܵ(bedeutet im´¾µAddition):<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.3 Kodierung und Fehlererkennung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 98<br />

¯Generatormatrix<br />

Auf der Grundlage des Generatorpolynoms´ÜµÜ·Ù ½Ü ½·<br />

Ð¢Ò ¼ ·Ù¼Ü¼ist<br />

¼ ¼ ¼ ½ Ù ½ Ù ½ Ù½ Ù¼<br />

eine Generatormatrix<br />

½ Ù<br />

definiert:<br />

¾ Ù¼ ½ ½ Ù ½ ¼ ¼ <br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />

£¡<br />

. . . . . . . . . . . . . . . . . . . . . . . . . .<br />

Das Kanalkodewort¾bildet sich dann wie folgt:<br />

£Die Bildungsverfahren führen auf das gleiche Kanalkodealphabet.<br />

Die Zuordnung der Quellenkodewörter zu den Kanalkodewörtern<br />

ist jedoch eine andere.<br />

£Die Anwendung des Divisionsverfahrens liefert immer einen systematischen<br />

Kode.<br />

£Das Bildungsverfahren muss dem Dekodierer bekannt sein.<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.3 Kodierung und Fehlererkennung


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 99<br />

(Kanal-)Dekodierung: Fehlererkennung<br />

Jedes Kanalkodewortmuss in seiner Polynomdarstellung durch´Üµ<br />

teilbar sein.<br />

Ist eine Empfangsfolge´Üµdurch´Üµteilbar, dann ist¾definiert,<br />

sonst gilt¾und<br />

´½¼½½½¼¼µ´¼¼½½¼½¼µ¾<br />

damit Fehlererkennung.<br />

£Fehlerpolynom (auch Prüfpolynom):״ܵ´Üµmod´Üµ¼<br />

Beispiel<br />

ÑÒ ½<br />

Mit Sicherheit erkennbar:<br />

Erkennen aller Bündelfehler, bei denen der Abstand zwischen<br />

dem ersten und dem letzten fehlerhaften Element (einschließlich<br />

dieser) im Fehlermuster kleiner oder gleich dem Graddes Generatorpolynoms<br />

ist.<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.3 Kodierung und Fehlererkennung


<strong>Vorlesung</strong><br />

´Üµ¼ÜÒ<br />

Informations- und Kodierungstheorie 100<br />

Struktur<br />

Ü ½·¼ÜÒ ¾··1Ü ½··1Ü ·¼Ü ½··¼Ü¼<br />

des<br />

´1Ü<br />

Bündelfehlers:<br />

½·Ù ¾Ü ¾··Ù½Ü½·1µ<br />

¾Ð<br />

Sind darüber hinaus weitere Fehler erkennbar?<br />

Ô½± Ô±<br />

Typische Fehlererkennungs-CRC-Kodes:<br />

Zyklischer HAMMING-Kode:´ÜµÑ½´Üµ<br />

´ÜµÑ½´Üµ´Ü·½µ<br />

ABRAMSON-Kode:<br />

¾Ò¾ Ô´½ ¾ µ¡½¼¼±<br />

Beispiel:<br />

L: Begleitbuch, S. 169 - 175<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.3 Kodierung und Fehlererkennung


´ÒÐÑÒµ´Ò Ð ÑÒµconst<br />

Diese Kodes verlieren ihre zyklische Eigenschaft.<br />

<strong>Vorlesung</strong> Informations- und Kodierungstheorie 101<br />

Ein Kanalkode heißt verkürzter Kode, wenn gilt:<br />

Fehlererkennung und Fehlerkorrektur bleiben erhalten.<br />

Beispiel<br />

BCH-Kode fürн¾?<br />

Ѽ´Üµ´Üµ: Ein<br />

¯überÒ¾½ ´Ò¾½ ½ÐÑÒµ´Ò·½ÐÑÒ·½µÐconst<br />

¯das Generatorpolynom´ÜµmitѼ´Üµ´Ü·½µmultipliziert wird:<br />

½ein<br />

Kanalkode heißt erweiterter Kode, wenn<br />

Paritätsbit gesetzt wird.<br />

(Vergleiche mit erweitertem HAMMING-Kode!)<br />

Die zyklische Eigenschaft geht verloren (Ausnahme:Ò·½¾½<br />

mit´Ü·½µ<br />

Damit auch alle ungeradzahligen Fehler erkennbar!<br />

Beispiel Forts.: Erweiterung<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.4 Verkürzte, erweiterte BCH-Kodes<br />

½).


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 102<br />

Anwendung zyklischer Kodes<br />

¯FehlererkennungCRC-Kodes<br />

z. B. in Protokollen auf der Sicherungsschicht:<br />

ATM benutzt CRC-8 (), CRC-10, CRC-32;<br />

CRC-CCITT in HDLC (½); Ethernet benutzt CRC-32<br />

z. B. im digitalen Teilnehmeranschluss (ISDN, xDSL)<br />

CRC-23 (ܾ¿·Ü·½, primitiv)<br />

z. B. beim Mobilfunk: CRC-3<br />

(in Kodeverkettung zur Fehlerverdeckung)<br />

¯Fehlerkorrektur (LV Kanalkodierung)<br />

Sinnvoll bei der Satellitenkommunikation wegen der Laufzeiten<br />

oder in Speicher- und CD-Anwendungen, wenn einzelne Bereiche<br />

systematisch und unwiderruflich unbrauchbar sind.<br />

L: Begleitbuch, S. 182 - 184<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.5 Anwendungen


<strong>Vorlesung</strong> Informations- und Kodierungstheorie 103<br />

Lehrveranstaltung begonnen mit<br />

Informationstheorie beschäftigt sich mit zwei Problemstellungen<br />

Praktikable<br />

£<br />

Umsetzung mittels Kodierung<br />

¯Inwieweit lässt sich Information kompakt darstellen?<br />

Quellenkodierung<br />

£ ÊÃдѵ¡ÀÃ℄ Àɼ<br />

¯Inwieweit überträgt man Information quasi fehlerfrei?<br />

£ Kanalkodierung,<br />

(verlustfreie QK: gleichmäßige Kodierung,<br />

SHANNON-FANO, HUFFMAN, Erweiterte Quellen, ...)<br />

abhängig vom Störverhalten des<br />

Übertragungskanals<br />

£<br />

Dimensionierung des Übertragungsvorgangs,<br />

Abschätzung von¡Ð<br />

Dimensionierung<br />

des Kanalkodes<br />

¾<br />

5 Kanalkodierung 5.5 Zyklische Kodes 5.5.5 Anwendungen

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!