18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

18.4 Sprachmodelle höherer Ordnung 323<br />

Wortendezustand ist, getroffen werden, dann steht weniger Information zur<br />

Verfügung. Möglicherweise wird eine Hypothese verworfen, die, wenn die<br />

Bigrammwahrscheinlichkeit in das aktuelle Wort bekannt wäre, wesentlich<br />

besser bewertet und somit erhalten worden wäre. Umgekehrt kann es<br />

vorkommen, daß die Suche unnötigerweise Zustände expandiert, die bei<br />

Kenntnis der niedrigen Bigrammwahrscheinlichkeit gar nicht erst betreten<br />

worden wären. Der geringer Zeitverlust ist dabei unproblematisch. Wie<br />

schwerwiegender ist die erhöhte Wahrscheinlichkeit für Suchfehler.<br />

18.4 Sprachmodelle höherer Ordnung<br />

An Abb. 15.10 ist zu erkennen, daß ein derartiges Such-HMM bestenfalls<br />

Bigramme als Wortübergangswahrscheinlichkeiten verwenden kann. Wenn<br />

trigramme verwendet werden sollen müßte das HMM wesentlich größer sein<br />

(s. Abb. 18.8).<br />

Das Trigramm-HMM enthält also n Kopien des Bigramm-HMMs aus<br />

Abb. 15.10. Auf die gleiche Art lassen sich auch Kopien von als Baumstruktur<br />

angeordneten HMMs zu einem Trigramm-Modell verbinden. Selbstverständlich<br />

kann für die Erkennung großer Vokabulare ein derartig großes HMM<br />

nicht komplett im Speicher gehalten werden. Daher werden nur die Teile<br />

dynamisch angelegt, die benötigt werden. Wenn ein Zustand expandiert<br />

wird, werden die ihm folgenden Zustände alloziert. Wenn Baumkopien<br />

erzeugt werden, entsteht auch hier wieder die gleiche Problematik wie bei<br />

den verzögerten Bigrammen.<br />

Eine Alternative selbst bei Bigramm-HMMs trotzdem Trigramm-<br />

Informationen zu verwenden sind sogenannte ” poor man’s trigrams“. Dabei<br />

wird für jeden Zeitpunkt t das Wort ˆw(t) gemerkt, das den wahrscheinlichsten<br />

Endzustand hat. Wenn dann ein Wortübergang von w1 nach w2<br />

stattfindet, und der Viterbi-Rückwärtszeiger von Wort w1 auf den Zeitpunkt<br />

t zeigt, so wird unabhängig davon, welches das beste Vorgängerwort von w1<br />

ist, als Übergangswahrscheinlichkeit P3(w2| ˆw(t), w1) verwendet.<br />

Statt umständliche Baumkopien zu machen, ist es auch möglich in den<br />

einzelnen Baumknoten mehrere Historien (Linguistische Kontexte) zu speichern,<br />

die dann bei der Expansion gegebenenfalls in den Nachfolgezustand<br />

” mitgenommen“ werden [?].

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!