18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

13.3 Trainingsparadigmen 217<br />

annehmen. Sehr viele ” grenznahe“ Muster tragen eher dazu bei eine scharfe<br />

Trennlinie robust zu lernen.<br />

Diese konsistenzbewahrende Methode des diskriminativen Trainings<br />

arbeitet ohne Negativbeispiele. Eine explizite Wahrscheinlichkeitsreduktion<br />

für bestimmte Muster kann nicht direkt herbeigeführt werden, sondern<br />

ergibt sich - wenn überhaupt - nur durch die relative Verbesserung der<br />

Wahrscheinlichkeiten für die positiven Muster. Wenn man nicht fordert,<br />

daß die Modellparameter konsistent bleiben, ist es auch denkbar, beim<br />

Aufakkumulieren der Trainingsdaten des EM-Algorithmus, verschiedene<br />

Muster verschieden stark zu gewichten, insbesondere negative Beispiele mit<br />

negativen Gewichtungsfaktoren zu versehen. Die entschuldigende Annahme<br />

dabei ist die, daß es deutlich mehr positive Beispiele als negative geben<br />

sollte, so daß die wenigen negativen Beispiele an der Gesamtmasse der<br />

akkumulierten Information nur wie ein kleines Korrektiv wirken. Daher<br />

auch der in diesem Zusammenhang gern benutzte Begriff des korrektiven<br />

Trainings (s.u.). Dennoch kann man in der Regel nicht ausschließen, daß<br />

die Akkumulatoren inkonsistent werden, und muß Vorkehrungen treffen. Die<br />

einfachste Absicherung ist die Einführung von Minimalwerten (ǫ > 0 )für<br />

die Werte γ(. . .). Sollte ein γ(. . .) unter den Minimalwert fallen, wird es vor<br />

der Aktualisierung der Parameter auf diesen angehoben.<br />

Korrektives Trainieren<br />

Eine bereits recht früh angewandte Technik des diskriminativen Trainierens<br />

war das so genannte korrektive Trainieren (corrective training [?]). Die Idee<br />

hierbei ist, den Spracherkenner im Erkennungsmodus auf allen Trainingsaufnahmen<br />

laufen zu lassen und Erkennerhypothesen zu erzeugen. Nun<br />

kann man annehmen, daß diejenigen Aufnahmen, auf denen der Erkenner<br />

überhaupt keine Fehler macht ausreicheichend gut modelliert werden können<br />

und keinen Bedarf an Korrektur der Erkennerparameter stellen. Dort<br />

allerdings, wo der Erkenner Fehler macht, ist davon auszugehen, daß die<br />

Parameter nicht ausreichend gut trainiert sind. Nun ist es nicht sinnvoll,<br />

den kompletten Beitrag, den die falsch erkannte Aufnahme zum Training<br />

geleistet hat wieder zu entfernen oder gar negativ zu trainieren, sondern am<br />

besten nur diejenigen Bereiche, die fehlerhaft erkannt werden. Man kann<br />

dann, nachdem für jede Trainingsaufnahme sowohl eine korrekte Wortfolge<br />

(Transkription) und einer unter Umständen fehlerhafte Transkription (Hypothese).<br />

Für beide Wortfolgen kann nun ein Viterbi-Pfad berechnet werden.<br />

Dann werden die üblichen Baum-Welch Regeln angewandt, wobei die γt(i)<br />

für die Zustands-Zeit-Paare (t, i), die auf dem korrekten Viterbi-Pfad liegen,<br />

mit einem positiven Wert f > 0 und für diejenigen, die auf dem falschen<br />

Viterbi-Pfad liegen, mit einen negativen Wert g < 0 multipliziert (s. Abb.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!