18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

12.4 Die drei Probleme der Hidden Markov Modelle 187<br />

der unten vorgestellten zentralen Probleme der Hidden Markov Modelle.<br />

Da HMMs für Spracherkennung in der Regel immer eine Äußerung<br />

umfassen, die dadurch gekennzeichnet ist, daß davor und danach Stille<br />

ist. Daher kann man normalerweise problemlos davon ausgehen, daß bei<br />

jedem Sprach-HMM der jeweils erste und letzte Zustand fest vorgegeben<br />

sind und für den Stille-Laut stehen.<br />

• Übergangswahrscheinlichkeiten:<br />

Die Summe der Wahrscheinlichkeiten aller aus einem Zustand ausgehenden<br />

Übergänge muß 1 sein: n<br />

j=1 aij = 1. Dies gilt natürlich nicht für die<br />

eingehenden Übergänge. In der Spracherkennung werden – abgesehen<br />

von gelegentlichen Spezialproblemen – keine Hidden Markov Modelle<br />

verwendet, bei denen es möglich wäre von jedem Zustand in jeden anderen<br />

überzugehen. So gilt meist, daß die meisten Koeffizienten der Matrix A<br />

der Zustandsübergangswahrscheinlichkeiten 0 sind, und lediglich in der<br />

Nähe der Diagonalen Werte ungleich 0 auftreten.<br />

Der Begriff der Hidden Markov Modelle hat sich so auch im Deutschsprachigen<br />

Raum eingebürgert, auch wenn man gelegentlich von ” versteckten“<br />

oder ” verdeckten“ Markov Modellen spricht. Sie heißen so, weil die tatsächliche<br />

Zustandsfolge, die ein stochastischer Prozeß durchläuft, im Verborgenen<br />

bleibt. Es ist für eine gegebene Beobachtung lediglich möglich, eine Aussage<br />

darüber zu treffen, welche Zustandsfolge welche Wahrscheinlichkeit hat, aber<br />

nicht welche ” in Wirklichkeit“ durchlaufen wurde.<br />

12.4 Die drei Probleme der Hidden Markov Modelle<br />

Sicherlich gibt es unzählige Probleme, die mit Hilfe von Hidden Markov<br />

Modellen bearbeitet werden können, ebenso zahlreich sind die Probleme, auf<br />

die man stößt, wenn man Hidden Markov Modelle entwickeln und mit ihnen<br />

arbeitet möchte. In diesem Abschnitt werden die drei als fundamental angesehenen<br />

Probleme, das Evaluierungsprobleme, das Dekodierungsproblem<br />

und das Optimierungs- bzw. Lernproblem behandelt. Alle drei Probleme<br />

gehen von der gleichen Ausgangssituation aus: Es ist ein bereits vorhandenes<br />

HMM und eine Beobachtung gegeben. Das Evaluierungsproblem betrifft<br />

die Berechnung der Wahrscheinlichkeit, mit der das gegebene HMM die<br />

gegebene Beobachtung emittiert. Das Dekodierungsproblem beschreibt, wie<br />

die in der Praxis weder bekannte noch meist überhaupt tatsächlich vorhandene<br />

Zustandsfolge berechnet werden kann, bzw. wie die wahrscheinlichste<br />

unter ihnen gefunden wird. Das Optimierungs- oder Lernproblem versucht

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!