03.09.2013 Aufrufe

15.11.06 - Fachbereich 4: HTW Berlin

15.11.06 - Fachbereich 4: HTW Berlin

15.11.06 - Fachbereich 4: HTW Berlin

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Wiederholung<br />

Zu Begin der Vorlesung wurden wie immer die Inhalte der letzen Vorlesung<br />

wiederholt. Thema war hier die Codierung von Informationen nach dem Huffman<br />

Verfahren und das Verhältnis zwischen Entropie und der mittleren Codelänge.<br />

Huffman Codierung<br />

Das Prinzip der Huffman Codierung sei hier nur noch einmal kurz zusammengefasst.<br />

Das Huffman Verfahren wird verwendet, um Informationen zu kodieren. Hierbei gilt,<br />

dass je wahrscheinlicher ein Ereignis für ein Symbol, desto kürzer ist der Code, mit<br />

dem es kodiert wird. Man muss außerdem beachten, dass die gefundenen Codes<br />

präfixfrei sind, das heißt, dass keine Codierung für ein Symbol der Anfang der<br />

Codierung eines anders Symbols sein darf.<br />

Wie wichtig es ist, dass man immer mit den Symbolen mit den kleinsten<br />

Wahrscheinlichkeiten beginnt, verdeutlicht das folgende Beispiel, welches in der<br />

Vorlesung besprochen wurde.<br />

Aufgabe<br />

Es soll eine Codierung nach dem Huffman-Verfahren für die Symbole A-F mit den<br />

folgenden Wahrscheinlichkeiten gemacht werden.<br />

A => 0,4<br />

B => 0,1<br />

C => 0,1<br />

D => 0,1<br />

E => 0,1<br />

F => 0,2<br />

Entwicklung des Baumes 1<br />

Symbol resultierender Code Codelänge<br />

A 0 1<br />

B 1000 4<br />

C 1001 4<br />

D 1010 4<br />

E 1011 4<br />

F 11 2<br />

Seite - 2 -

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!