15.11.06 - Fachbereich 4: HTW Berlin
15.11.06 - Fachbereich 4: HTW Berlin
15.11.06 - Fachbereich 4: HTW Berlin
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Wiederholung<br />
Zu Begin der Vorlesung wurden wie immer die Inhalte der letzen Vorlesung<br />
wiederholt. Thema war hier die Codierung von Informationen nach dem Huffman<br />
Verfahren und das Verhältnis zwischen Entropie und der mittleren Codelänge.<br />
Huffman Codierung<br />
Das Prinzip der Huffman Codierung sei hier nur noch einmal kurz zusammengefasst.<br />
Das Huffman Verfahren wird verwendet, um Informationen zu kodieren. Hierbei gilt,<br />
dass je wahrscheinlicher ein Ereignis für ein Symbol, desto kürzer ist der Code, mit<br />
dem es kodiert wird. Man muss außerdem beachten, dass die gefundenen Codes<br />
präfixfrei sind, das heißt, dass keine Codierung für ein Symbol der Anfang der<br />
Codierung eines anders Symbols sein darf.<br />
Wie wichtig es ist, dass man immer mit den Symbolen mit den kleinsten<br />
Wahrscheinlichkeiten beginnt, verdeutlicht das folgende Beispiel, welches in der<br />
Vorlesung besprochen wurde.<br />
Aufgabe<br />
Es soll eine Codierung nach dem Huffman-Verfahren für die Symbole A-F mit den<br />
folgenden Wahrscheinlichkeiten gemacht werden.<br />
A => 0,4<br />
B => 0,1<br />
C => 0,1<br />
D => 0,1<br />
E => 0,1<br />
F => 0,2<br />
Entwicklung des Baumes 1<br />
Symbol resultierender Code Codelänge<br />
A 0 1<br />
B 1000 4<br />
C 1001 4<br />
D 1010 4<br />
E 1011 4<br />
F 11 2<br />
Seite - 2 -