18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

204 12. Hidden Markov Modelle<br />

aller αt1(i) mit kt1 = 1 sorgt dann dafür, daß für einige Zeitpunkte nach t1<br />

der Schwellwert nicht mehr unterschritten wird.<br />

Die andere Alternative, das Rechnen im logarithmischen Bereich erfordert<br />

kein Skalieren. Hierbei werden statt der Wahrscheinlichkeiten deren Logarithmen<br />

beziehungsweise negierte Logarithmen verwendet. So wird dann<br />

beim Viterbi-Algorithmus aus Gl. 12.12:<br />

log zt(j) = log bj(xt) + max(log<br />

aij + log zt−1(i)) (12.26)<br />

i<br />

Ein Überlaufen des Wertebereichs von Fließkommazahlen beim logarithmischen<br />

Rechnen kann nach menschlichem Ermessen ausgeschlossen werden.<br />

Ein weiterer Vorteil des Rechnens im Logarithmus besteht in der vereinfachten<br />

Auswertung von Gauß-Mischverteilungen. Die in jeder solchen Verteilung<br />

enthaltene Exponentiation kann entfallen.<br />

Etwas komplizierter sieht es allerdings beim Forward-Backward-<br />

Algorithmus aus. Da wird aus Gl. 12.6:<br />

<br />

N<br />

<br />

log αt(j) = log bj(xt) + log αt−1(i) · aij<br />

(12.27)<br />

i=1<br />

Hier haben wir im Argument des Logarithmus eine Summe, die sich nicht<br />

weiter Auflösen läßt, so daß vor der Anwendung des Logarithmus die bereits<br />

bekannten log αt−1(i) erst exponentiert werden müssen.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!