18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

18. Effiziente Decodierverfahren<br />

Der größte Unterschied zwischen der Trainings- und der Erkennungsphase<br />

bei Hidden Markov Modellen ist die Art der verwendeten Suche. Für beide<br />

Probleme wird in der Regel der Viterbi-Algorithmus eingesetzt. Während<br />

beim Training die Transkription der Äußerung bekannt ist und so das HMM<br />

selbst mit optionalen Füllwörtern immer noch relativ einfach gestaltet ist,<br />

so enthält das entsprechende HMM für die Erkennung alle Vokabularwörter.<br />

Auch wenn das Erkennungs-HMM nie komplett aufgebaut wird, so bildet<br />

es doch einen riesigen Suchraum, durch den ein Viterbi-Pfad gefunden werden<br />

muß. Beim Entwurf des Viterbi-Algorithmus, ja sogar schon beim einfacheren<br />

DTW-Algorithmus, haben wir Optimierungen zur Zeitersparnis eingeführt.<br />

Möglich wäre es aber trotzdem, mit etwas mehr Zeitaufwand den<br />

Viterbi-Algorithmus ohne Beschneidungen des Suchraums für ein einzelnes<br />

Satz-HMM komplett abzuarbeiten. Bei der Erkennung kontinuierlicher Sprache<br />

mit sehr großen Vokabularen ist das nicht mehr möglich. Dafür ist es mit<br />

heutigen und auf absehbare Zeit verfügbaren Rechnern undenkbar, das komplette<br />

Erkennungs-HMM im Speicher zu halten, und schon gar nicht, dieses<br />

komplett zu durchsuchen. Daher bildet diese Suche in der Spracherkennungsforschung<br />

eine eigene Teildisziplin. Der Teil eines Spracherkenners, in dem<br />

die Suche implementiert ist, wird Decoder genannt.<br />

18.1 Decoderarten<br />

Um am Ende des Erkennungsvorganges eine Wortfolge ausgeben zu können,<br />

muß wie beim DTW die wahrscheinlichste Folge von Zuständen oder etwas<br />

einfacher die wahrscheinlichste Folge von Wörtern ausgegeben werden.<br />

Wenn die exakte Folge der Zustände nicht interessiert, kann der Viterbi-<br />

Algorithmus dahingehend modifiziert werden, daß auf die Berechnung und<br />

Speicherung der Rückwärtszeiger (Gl. 12.13) für Zustände, die nicht letzter<br />

Zustand eines Wortes sind, verzichtet wird.<br />

Wie Abb. 18.1 zeigt, daß es genügt, für jeden Wortendezustand abzuspeichern,<br />

welches Wort das beste Vorgängerwort war. Bei der Expansion eines<br />

Zustands in ein neues Wort kann diese Information erzeugt werden, und bei

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!