18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

196 12. Hidden Markov Modelle<br />

γt(i) = P(qt = i|X, λ) = P(qt = i, X|λ)<br />

P(X|λ)<br />

= αt(i) · βt(i)<br />

<br />

j αt(j) · βt(j)<br />

(12.16)<br />

So erhalten wir mit γt(i) die Wahrscheinlichkeit dafür, daß sich das<br />

System λ zum Zeitpunkt t im Zustand si befindet, wenn es die Beobachtung<br />

X macht (bzw. emittiert). Aus der Sicht des Trainingsalgorithmus, der die<br />

Parameter des Zustands si neu schätzen, also optimieren, muß, genügt es,<br />

alle Beobachtung xt und die dazu gehörigen γt(i) zu kennen. Dann weiß der<br />

Algorithmus, wie stark xt ins Training eingehen soll. Wenn γt(i) sehr klein<br />

ist, kann xt fast ignoriert werden, bei sehr großem γt(i) hat xt einen sehr<br />

großen Einfluß auf die Schätzung der Parameter von si.<br />

Wie genau nun der Trainingsalgorithmus aussieht, hängt natürlich<br />

von der Wahl der Emissionswahrscheinlichkeitenschätzer ab. Bei Gauß-<br />

Mischverteilungen heißt das, daß der EM-Algorithmus wie in Gl. 9.14 bis Gl.<br />

9.16 Anwendung findet. Bei neuronalen Netzen würde der Backpropagation-<br />

Algorithmus oder eine Variante davon angewendet und die γt(i) auf die<br />

Lernrate aufmultipliziert, wenn die Beobachtung xt trainiert wird.<br />

Bleibt noch festzustellen, wie βt(i) sinnvollerweise berechnet wird. Auf<br />

den ersten Blick sehen die β den α sehr ähnlich. Auch sie können rekursiv<br />

berechnet werden:<br />

βT(i) = 1 ∀i (12.17)<br />

n<br />

βt(i) = aij · bj(xt+1) · βt+1(j) (12.18)<br />

j=1<br />

Gl. 12.17 leuchtet ein, wenn man sich klar macht, daß βT(i) die<br />

Wahrscheinlichkeit dafür ist, daß ” nach dem Ende der Beobachtung keine<br />

weitere Beobachtung“ gemacht wird. Das ist natürlich 1.0, unabhängig<br />

davon, welcher Zustand der letzte ist. Die Berechnung der β läuft also<br />

ganz analog zur Berechnung der α nur diesmal rückwärts. Daher heißt der<br />

Algorithmus, der mit Hilfe der Gl. 12.17 und 12.18 alle βt(i) berechnet,<br />

Backward-Algorithmus. Die Durchführung des Forward-Algorithmus und des<br />

Backward-Algorithmus, um damit die γt(i) zu bestimmen heißt Forward-<br />

Backward Algorithmus.<br />

Mit Hilfe der γ können also die Parameter der Emissionswahrscheinlichkeitsmodelle<br />

optimiert werden. Was jetzt noch fehlt, ist die Optimierung der<br />

Übergangswahrscheinlichkeiten.<br />

Um die Wahrscheinlichkeit aij für den Übergang von Zustand si<br />

zum Zustand sj neu zu schätzen benötigen wir die Wahrscheinlichkeit<br />

ξt(i, j) := P(qt = i, qt+1 = j|X, λ). Auch hier können wir die Bayes Regel

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!