18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

194 12. Hidden Markov Modelle<br />

zt(j + 1)<br />

max t−1 P(Q Q<br />

1<br />

t−1<br />

1 , qt−1 = j + 1 , X t−1<br />

1 |λ)<br />

zt(j)<br />

max t−1 P(Q Q<br />

1<br />

t−1<br />

1 , qt−1 = j , X t−1<br />

1 |λ)<br />

zt(j − 1)<br />

max t−1 P(Q Q<br />

1<br />

t−1<br />

1 , qt−1 = j − 1 , X t−1<br />

1 |λ)<br />

zt(j − 2)<br />

max t−1 P(Q Q<br />

1<br />

t−1<br />

1 , qt−1 = j − 2 , X t−1<br />

1 |λ)<br />

zt+1(j)<br />

max Q t 1 P(Q t 1, qt = j , X t 1|λ)<br />

Abb. 12.6. Der Viterbi-Schritt: zt(j) = bj(xt) maxi aijzt−1(i)<br />

Ähnlich der Forderung beim DTW-Algorithmus, daß der DTW-Pfad<br />

im Zustand, der dem rechten oberen DP-Matrixelement entspricht, enden<br />

soll, verwendet man gerne HMM-Architekturen, die einen ausgezeichneten<br />

Finalzustand qF haben, so daß in Gl. 12.14 q∗ T = qF gesetzt wird.<br />

Abschließend sei noch einmal bemerkt, daß der Viterbi-Algorithmus<br />

nicht berechnet, durch welche Zustände ein als HMM modellierter stochastischer<br />

Prozeß gelaufen sein muß, um eine bestimmte Beobachtungssequenz<br />

zu emittieren, sondern vielmehr die wahrscheinlichste Folge unter vielen<br />

möglichen.<br />

12.4.3 Das Optimierungsproblem<br />

Spracherkenner werden ” trainiert“, auch solche, die sprecherunabhängig<br />

sind. Hidden Markov Modelle sind viel zu kompliziert, als daß es eine<br />

einfache Methode gäbe, für alle Parameter eines Erkenners analytisch<br />

mit Hilfe einer geschlossenen Formel den optimalen Wert zu berechnen.<br />

Daher werden solche Systeme iterativ optimiert. Im Gegensatz zu manchen<br />

mathematischen (stochastischen oder konnektionistischen) Modellen ist es<br />

bei nichttrivialen HMMs nicht einfach möglich, als Optimierungskriterium<br />

die Erkennungsgenauigkeit zu berechnen und diese nach jedem Parameter<br />

abzuleiten, um so diejenige Änderung des Parameters zu bestimmen, die den<br />

besten Effekt auf die Optimierungsfunktion hat.<br />

Iteratives Optimieren bei Hidden Markov Modellen bedeutet, daß wir<br />

zu verschiedenen Zeitpunkten i verschiedene Modelle λi haben, so daß gilt:

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!