18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

13.1 Überblick über den HMM-Entwicklungsprozeß 209<br />

auch denkbar auf die ” Expansion“ einzelner αt(i), die unterhalb eines<br />

Schwellwertes liegen, zu verzichten. Jedoch ist dies wesentlich komplizierter<br />

und birgt eine zusätzliche Gefahr in sich, daß nämlich beim Vorwärtsdurchgang<br />

völlig andere Bereiche des Suchraumes beschnitten werden als beim<br />

Rückwärtsdurchgang. So kann dies bei zu starker Beschneidung dazu führen,<br />

daß keine sinnvollen γt(i) berechnet werden können, weil in den meisten<br />

Fällen entweder αt(i) oder βt(i) durch Beschneiden auf 0 gesetzt wurden.<br />

Dies führt dazu, daß in der Praxis ein Forward-Backward um ein Vielfaches<br />

mehr zeitlichen Aufwand hat als ein Viterbi.<br />

Der Vorteil des Forward-Backward besteht darin, daß jedes einzelne<br />

Trainingsmuster auf mehrere Modelle mit unterschiedlicher Wahrscheinlichkeit<br />

verteilt werden kann. Somit erhalten die einzelnen Modelle mehr<br />

Trainingsmuster zum Schätzen ihrer Parameter als bei einer ” harten“ Zuordnung,<br />

wie sie der Viterbi-Algorithmus findet. Je mehr Trainingsdaten zur<br />

Verfügung stehen, umso weniger fallen die Nachteile des Viterbi-Trainings<br />

gegenüber dem Forward-Backward-Trainings ins Gewicht. Bei sehr großen<br />

Trainingsdatenmengen wirkt sich auch das bessere Laufzeitverhalten des<br />

Viterbi-Algorithmus aus.<br />

Noch schneller als das Viterbi-Training ist das Trainieren entlang vorberechneter<br />

Labels. Die Ähnlichkeit der Gl. 13.1 und 13.2 deutet darauf hin,<br />

daß Labels nicht nur zu Initialisierungszwecken verwendet werden können,<br />

sondern auch zum regulären Baum-Welch-Training. Natürlich gilt es hierbei<br />

zu berücksichtigen, daß zum einen schlechte (weil von einem unpassenden<br />

Erkenner erzeugte) Labels auch in schlechten Parameterschätzungen resultieren,<br />

und zum anderen die Konvergenz des Baum-Welch-Verfahrens<br />

nur dann gegeben ist, wenn sich die Zuordnungen von Trainingsmustern<br />

zu Modellen auch ändern können. Daher verwenden viele Forscher beim<br />

Trainieren ihrer Erkenner ein Gemisch von verschiedenen Verfahren. Je<br />

nach Entwicklungsphase wird entlang Labels trainiert, und zwischendurch<br />

werden mit Forward-Backward oder mit Viterbi neue (inzwischen bessere)<br />

Labels berechet. Das ganze wird mehrfach iteriert, bis keine Verbesserung<br />

des Erkenners mehr zu beobachten ist.<br />

Auch beliebt ist die Vorgehensweise, mehrere Erkenner mit aufsteigend<br />

komplexen Parameterräumen zu entwickeln, von denen jeder die Grundlage<br />

(in Form von Berechnen der Labels und Lieferant initialer Parameter)<br />

für den nächsten komplexeren Erkenner ist. Die Komplexitätssteigerungen<br />

gehen einher mit größeren HMM-Zustandsräumen, mehr oder größeren<br />

Gauß-Mischverteilungen und feineren Parameterkopplungsgraden.<br />

Grundsätzlich orientieren sich aber alle Trainingsmethoden am Prinzip<br />

des wiederholten Trainierens und Testens. Nach jeder Trainingsphase wird

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!