18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

16.4 Perplexität 267<br />

Qualität des Modells verwendet wird. Das Sprachmodell, das weniger Fehler<br />

produziert, würde dann als das bessere angesehen werden. Allerdings hat<br />

man hier drei Probleme: Erstens ist das Durchführen einer Erkennung auf<br />

einer aussagekräftigen Testmenge aufwendig, zweitens hängt die Wortfehlerrate<br />

sehr wesentlich davon ab, wie gut das Sprachmodell zur Testdatenmenge<br />

paßt, und drittens hängt das Ergebnis auch von der Zusammenarbeit des<br />

Sprachmodells und des akustischen Modells ab.<br />

Wenn wir den einen Zweck von Sprachmodellen, nämlich die Vereinfachung<br />

der Erkennungsaufgabe, betrachten, dann ist ein Modell, dessen<br />

Übergangswahrscheinlichkeiten nahezu gleichverteilt sind (s. Abb. 16.1<br />

rechts), deutlich weniger ” nützlich“ als eines, das eine weniger glatte<br />

Verteilung hat (s. Abb. 16.1 links) – vorausgesetzt natürlich, die Wahrscheinlichkeitswerte<br />

sind sinnvoll geschätzt.<br />

wi<br />

0.19<br />

0.22<br />

0.18<br />

0.19<br />

0.22<br />

wi+1,1<br />

wi+1,5<br />

wi+1,2<br />

wi+1,4<br />

wi+1,3<br />

wi<br />

0.55<br />

0.10<br />

0.01<br />

0.05<br />

0.29<br />

wi+1,1<br />

wi+1,5<br />

wi+1,2<br />

wi+1,4<br />

wi+1,3<br />

Abb. 16.1. Sprachmodelle mit wenig (links) und viel (rechts) Informationsgehalt<br />

Ein Sprachmodell mit absolut gleichverteilten Übergangswahrscheinlichkeiten<br />

ist völlig wertlos, es liefert keine Information und könnte auch gleich<br />

ganz weggelassen werden. Ein Maß, das die ” Glattheit“ einer Verteilung<br />

mißt, also die mangelnde Information, ist die Entropie:<br />

H = −<br />

n<br />

pi · log2 pi<br />

i=1<br />

(16.7)<br />

Betrachten wir das Sprachmodell als eine Informationsquelle und jedes<br />

Wort als ein Symbol, das die Quelle zufällig entsprechend der Sprachmodellwahrscheinlichkeiten<br />

emittiert, dann ist die Entropie der Quelle definiert als:<br />

HQ = lim<br />

n→∞ −<br />

n<br />

pi · log2 pi, (16.8)<br />

i=1

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!