18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

268 16. Verwendung von Sprachmodellen<br />

wobei pi die vom Sprachmodell vorgegebene Wahrscheinlichkeit für das<br />

i-te Wort wi bei gegebener Historie w1, w2, . . . wi−1 ist.<br />

Ergodische Quellen sind solche, deren Verhalten durch eine unendlich<br />

lange Symbolfolge komplett beschrieben werden kann. Es ist vernünftig<br />

anzunehmen, daß es sich bei einem Sprachproduktionssystem um eine solche<br />

Quelle handelt. Für ergodische Quellen gilt:<br />

1<br />

HE = − lim<br />

n→∞ n log2 P(w1, w2, . . .wn) (16.9)<br />

Da aber niemals eine unendliche Wortfolge zur Verfügung steht, sondern<br />

eine sehr große aber endliche Folge w1, w2, . . . wn, wird die Entropie der<br />

Quelle, die diese Folge produziert approximiert durch:<br />

HE ≈ − 1<br />

n log 2 P(w1, w2, . . .wn) (16.10)<br />

Dieser Wert HE ist ein Maß für die Schwierigkeit einer Spracherkennungsaufgabe<br />

aus linguistischer Sicht (d.h. ohne Berücksichtigung der<br />

akustischen Gegebenheiten). Ein großer Wert bedeutet viel Entropie =<br />

wenig Information = schwierige Aufgabe, ein kleiner Wert bedeutet wenig<br />

Entropie = viel Information = leichte Aufgabe. Der Wert<br />

PP = 2 HE 1 −<br />

= P(w1, w2, . . . wn) n (16.11)<br />

Wäre in einem Sprachmodell über dem Vokabular V jede Wortfolge gleich<br />

wahrscheinlich, so wäre P(w1, w2, . . .wn) = (1/|V |) n und die Perplexität<br />

wäre ((1/|V |) n 1 − ) n = |V |. Das heißt, eine Quelle mit der Entropie PP<br />

enthält den gleichen Informationsgehalt wie eine Quelle, die aus einem<br />

Vokabular der Größe |V | = PP gleichverteilt Wörter emittiert. Eine andere<br />

Veranschaulichung des Perplexitätswertes ist die des geometrischen Mittels<br />

der Zahl der zu jedem Zeitpunkt zu erwartender Wörter:<br />

PP =<br />

1<br />

<br />

P(w1, w2, . . . wn) =<br />

n<br />

1<br />

n n<br />

i=1 pi<br />

(16.12)<br />

Aus der Sicht des Spracherkenners bedeutet dies, daß die Aufgabe,<br />

Sprache mit beliebigem Vokabular und einer Perplexität von PP so schwer<br />

zu erkennen ist, wie Sprache mit einem Vokabular der Größe PP und dem<br />

Verzicht auf den Einsatz eines Sprachmodells. Im übrigen gilt: jede von der

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!