18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

13.1 Überblick über den HMM-Entwicklungsprozeß 207<br />

derartig ” dünnen“ Labels spricht mach dann auch eher von ” Transkripten“<br />

oder ” Transkriptionen“. Sie sind das Minimum, das an Wissen nötig ist, um<br />

überhaupt ein HMM zum Trainieren einer Äußerung aufzubauen, und bieten<br />

somit keine zusätzlichen Informationen die speziell für die Initialisierung der<br />

Parameter verwendet werden kann. Daher werden für die meisten Initialisierungen<br />

neuer Erkenner automatisch erzeugte detaillierte Labels verwendet.<br />

Dazu wird ein bereits existierender Erkenner genommen und ein Forward-<br />

Backward oder Viterbi-Algorithmus auf den Trainingsaufnahmen gerechnet.<br />

Dieser existierende Erkenner produziert relativ schlechte Viterbi-Pfade beziehungsweise<br />

relativ schlechte γt(i), weil er entweder für eine andere Sprache,<br />

ein anderes Vokabular, andere Aufnahmebedingungen oder sonstige andere<br />

Unstände gebaut wurde, oder weil er mit sehr wenig Daten trainiert wurde.<br />

Diese Labels haben dann eine geringere Qualität als von <strong>Mensch</strong>en erzeugte,<br />

dafür sind sie für beliebig große Datenmengen quasi kostenlos zu erhalten.<br />

Das Vorhandensein initialer Labels ist die Voraussetzung zur Berechnung<br />

initialer Erkennerparameter. Die HMM-Parameter wie Übergangswahrscheinlichkeiten,<br />

und Anfangswahrscheinlichkeiten lassen sich mit den<br />

Baum-Welch Regeln direkt bestimmen. Problematischer ist dies für die Modellierung<br />

der Emissionswahrscheinlichkeiten. Werden diese mit neuronalen<br />

Netzen berechnet, dann können deren Gewichte in der Tat beliebig zufällig<br />

initialisiert werden. Bei Gauß-Mischverteilungen wäre aber eine zufällige<br />

Initialisierung problematisch. Auch der EM-Algorithmus garantiert nicht,<br />

daß das System am Ende in einem globalen Optimum landet. Tatsächlich<br />

kann man in der Praxis immer wieder beobachten, daß einzelne Vektoren<br />

von Codebücher (d.h. einzelne Gauß-Verteilungen einer Mischverteilung)<br />

quasi ” ungenutzt“ bleiben, weil fast keine Trainingsdaten auf diese Fallen.<br />

Wenn es zu viele solcher Ausreißerfälle gibt, dann wird der zur Verfügung<br />

stehende Parameterraum nur unzureichend genutzt und die Qualität des<br />

Erkenners sinkt. Daher ist es wichtig, schon vor der ersten Aktualisierung<br />

der Gauß-Mischverteilungsparameter für diese sinnvolle Werte zu haben.<br />

Die beliebteste Methode, Codebücher sinnvoll zu initialisieren ist das k<br />

Mitellewerte Verfahren (s. Abs. 9.1.6). Dabei werden die vorhandenen Labels<br />

verwendet, um zu bestimmen welcher Trainingsvektor in welches Codebuch<br />

gehört. Wenn alle Trainingsvektoren ihrem Codebuch zugeordnet worden<br />

sind, könne initiale Codebücher mit dem k-Mittelwerte beziehungsweise<br />

LBG-Verfahren erzeugt werden.<br />

Parametertransfer<br />

Schließlich bleibt noch eine dritte auch häufig angewandte Methode der<br />

Parameterinitialisierung zu erwähnen. Man verwendet dabei einfach die<br />

bereits vorhandenen Parameter eines existierenden Erkenners für einer<br />

andere möglichst ähnliche Aufgabe. Wenn die angestrebte Architektur

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!