Grundkurs Informatik Aufgabensammlung mit Lösungen Teil 1

Grundkurs Informatik Aufgabensammlung mit Lösungen Teil 1 Grundkurs Informatik Aufgabensammlung mit Lösungen Teil 1

www2.fh.rosenheim.de
von www2.fh.rosenheim.de Mehr von diesem Publisher
30.11.2012 Aufrufe

1-36 Aufgaben und Lösungen Lösung Es sei wfA die Wahrscheinlichkeit dafür, dass bei der Übertragung einer Nachricht über Kanal A ein Fehler auftritt und wfB die Wahrscheinlichkeit dafür, dass die Nachricht über Kanal B fehlerhaft übertragen wird. Nach Voraussetzung ist wfB=2wfA. Es gilt dann für die Wahrscheinlichkeiten wA und wB der korrekten Übertragung über Kanal A bzw. B: wA=1-wfA und wB=1-wfB=1-2wfA Die Wahrscheinlichkeit wBB dafür, dass mindestens eine der zweimal über Kanal B gesendeten identischen Nachrichten ohne Störung den Empfänger erreicht ist: wBB = w(beide Nachrichten bleiben ungestört) + w(nur Nachrichten 1 bleibt ungestört) + w(nur Nachrichten 2 bleibt ungestört) = = wB wB + wB(1-wB) + (1-wB)wB = 2wB-wB 2 = wA-wB 2 < wA Es ist also günstiger, die Nachricht nur einmal über Kanal A zu senden. Aufgabe 2.5.6 (L2) Gegeben seien ein Alphabet A sowie zwei Worte s=s1s2s3...sn und t=t1t2t3...tm mit sj,tj A aus dem Nachrichtenraum A * über diesem Alphabet. Geben Sie eine exakte Definition der lexikografischen Ordnung s

Aufgaben und Lösungen 1-37 Fragen immer zur Ermittlung beider Zahlen ausreichen. Im Einzelfall kann man natürlich Glück haben und mit weniger als 13 Fragen die beiden Zahlen erraten. Dasselbe Resultat erhält man auch durch folgende Überlegung: Wenn alle Ausgänge gleich wahrscheinlich sind, wird die zugehörige Entropie H=ld(4950) 12.27 sein. Auch daraus folgt, dass 13 Fragen genügen. Über eine Strategie zur Auswahl vernünftiger Fragen ist damit natürlich nichts gesagt. Aufgabe 2.5.8 (M1) Gegeben sei das Alphabet A = {a, e, i, o, u} mit den Auftrittswahrscheinlichkeiten w(a)=0.25, w(e)=0.20, w(i)=0.10, w(o)=0.30, w(u)=0.15. Berechnen Sie die Informationsgehalte der Zeichen von A und die Entropie. Lösung Informationsgehalt: Zeichen wi Ii ------------------------------ a 0.25 2.0000 e 0.20 2.3219 i 0.10 3.3219 o 0.30 1.7370 u 0.15 2.7370 I i ld 1 Entropie: w i H n i 1 i i I w H = 0.25 2.0000 + 0.20 2.3219 + 0.10 3.3219 + 0.30 1.7370 +0.15 2. 7370 = = 0.5 + 0.46438 + 0.33219 + 0.5211 + 0.41055 = 2.22822 [Bit/Zeichen] Aufgabe 2.3.9 (M2) Berechnen Sie den mittleren Informationsgehalt des Textes dieser Aufgabe. Lösung Zunächst ist zu abzuzählen, wie oft die einzelnen Zeichen im Text der Aufgabe auftreten. So findet man beispielsweise die Häufigkeiten ha=3 für das Zeichen „a“ und ht=5 für das Zeichen „t“. Die Gesamtzahl der Zeichen ist n=73. Daraus berechnet man nun gemäß wi=hi/n die Auftrittswahrscheinlichkeiten wi. Daraus folgt für die Informationsgehalte Ii der Zeichen: I i ld 1 w i Der mittlere Informationsgehalt, d.h. die Entropie H ergibt sich dann aus der Formel: H n i 1 i i I w Dies kann man etwas mühsam per Hand berechnen. Hier wurde ein C-Programm verwendet. Das Ergebnis H ≈ 4.136 mit den Zwischenergebnissen ist unten aufgelistet.

Aufgaben und <strong>Lösungen</strong> 1-37<br />

Fragen immer zur Er<strong>mit</strong>tlung beider Zahlen ausreichen. Im Einzelfall kann man natürlich Glück<br />

haben und <strong>mit</strong> weniger als 13 Fragen die beiden Zahlen erraten.<br />

Dasselbe Resultat erhält man auch durch folgende Überlegung: Wenn alle Ausgänge gleich<br />

wahrscheinlich sind, wird die zugehörige Entropie H=ld(4950) 12.27 sein. Auch daraus folgt,<br />

dass 13 Fragen genügen. Über eine Strategie zur Auswahl vernünftiger Fragen ist da<strong>mit</strong> natürlich<br />

nichts gesagt.<br />

Aufgabe 2.5.8 (M1)<br />

Gegeben sei das Alphabet A = {a, e, i, o, u} <strong>mit</strong> den Auftrittswahrscheinlichkeiten w(a)=0.25,<br />

w(e)=0.20, w(i)=0.10, w(o)=0.30, w(u)=0.15. Berechnen Sie die Informationsgehalte der Zeichen<br />

von A und die Entropie.<br />

Lösung<br />

Informationsgehalt:<br />

Zeichen wi Ii<br />

------------------------------<br />

a 0.25 2.0000<br />

e 0.20 2.3219<br />

i 0.10 3.3219<br />

o 0.30 1.7370<br />

u 0.15 2.7370<br />

I<br />

i<br />

ld<br />

1<br />

Entropie:<br />

w<br />

i<br />

H<br />

n<br />

i 1<br />

i i I w<br />

H = 0.25 2.0000 + 0.20 2.3219 + 0.10 3.3219 + 0.30 1.7370 +0.15 2. 7370 =<br />

= 0.5 + 0.46438 + 0.33219 + 0.5211 + 0.41055 = 2.22822 [Bit/Zeichen]<br />

Aufgabe 2.3.9 (M2)<br />

Berechnen Sie den <strong>mit</strong>tleren Informationsgehalt des Textes dieser Aufgabe.<br />

Lösung<br />

Zunächst ist zu abzuzählen, wie oft die einzelnen Zeichen im Text der Aufgabe auftreten. So<br />

findet man beispielsweise die Häufigkeiten ha=3 für das Zeichen „a“ und ht=5 für das Zeichen<br />

„t“. Die Gesamtzahl der Zeichen ist n=73. Daraus berechnet man nun gemäß wi=hi/n die<br />

Auftrittswahrscheinlichkeiten wi. Daraus folgt für die Informationsgehalte Ii der Zeichen:<br />

I<br />

i<br />

ld<br />

1<br />

w<br />

i<br />

Der <strong>mit</strong>tlere Informationsgehalt, d.h. die Entropie H ergibt sich dann aus der Formel:<br />

H<br />

n<br />

i 1<br />

i i I w<br />

Dies kann man etwas mühsam per Hand berechnen. Hier wurde ein C-Programm verwendet.<br />

Das Ergebnis H ≈ 4.136 <strong>mit</strong> den Zwischenergebnissen ist unten aufgelistet.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!