18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

192 12. Hidden Markov Modelle<br />

Wiederholen Sie dieses Experiment für verschiedene Beobachtungen und für<br />

verschiedene Einstellungen der Sommer- und Winterparameter.<br />

12.4.2 Das Dekodierungsproblem<br />

Beim Dekodierungsproblem manifestiert sich ganz besonders die Tatsache,<br />

daß Hidden Markov Modelle eben doch nur Modelle sind, die die Wirklichkeit<br />

mehr oder weniger gut modellieren. Man kann sagen, ein Modell ist dann<br />

gut, wenn es die Wirklichkeit zuverlässig vorhersagen kann. Im Falle der<br />

Hidden Markov Modelle hieße das, daß ein HMM gut ist, wenn der Wert<br />

P(X|λ) der tatsächlichen Wahrscheinlichkeitsverteilung sehr ähnlich ist.<br />

Allerdings ergeben sich hierbei zwei kaum lösbare Probleme: Zum einen<br />

läßt sich die ” tatsächliche“ Wahrscheinlichkeitsverteilung meist gar nicht<br />

bestimmen und die vom HMM berechnete Modellverteilung ist sowieso die<br />

beste bekannte. Zum anderen bleibt es fragwürdig, ob ein Hidden Markov<br />

Modell überhaupt geeignet ist. Insbesondere muß man sich die Frage gefallen<br />

lassen, welcher Zustand der Wirklichkeit einem Zustand des Markov Modells<br />

entspricht, oder sogar noch tiefgreifender: läuft die Wirklichkeit überhaupt<br />

in Zuständen und Zustandsübergängen statt. Aus der Sicht der Spracherkennung<br />

könnten Zustände der Sprachproduktion in etwa den IPA-Lauten<br />

entsprechen. Betrachten wir aber ein digitalisiertes Sprachsignal, so sehen<br />

wir in der Regel keine exakt bestimmbaren Zeitpunkte, an denen ein Laut<br />

endet und der folgende Laut anfängt. Ähnlich wie bei Diphthongen, die<br />

Übergänge von einem in einen anderen Vokal sind, gibt es auch bei fast<br />

allen Lautpaaren mehr oder weniger fließende Übergänge. Zwar ist es oft<br />

möglich, einen Bereich des Sprachsignals eindeutig einem Laut zuzuordnen,<br />

aber die Übergänge sind eher unscharf, so daß man nicht von einem klaren<br />

Zustandsübergang sprechen kann. Trotzdem muß das HMM die Wirklichkeit<br />

so modellieren, als würden Sprünge stattfinden.<br />

Das Dekodierungsproblem hat zum Ziel, herauszufinden, welche Zustandsfolge<br />

am ehesten durchlaufen wurde. Formal bedeutet das:<br />

gegeben: HMM λ und Beobachtung X = (x1, x2, . . . xT)<br />

gesucht: die wahrscheinlichste Zustandsfolge sq1, sq2, . . .sqT<br />

also<br />

argmax P(q1, q2, . . . qT |x1, x2, . . . xT , λ) (12.9)<br />

q1,q2,...qT<br />

Dies läßt sich nach Bayes schreiben als

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!