18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

222 13. Das Trainieren von Spracherkennern<br />

Menge an Information aus den Trainingsdaten zu verwerfen bzw. nur dazu<br />

zu verwenden, die neuen Daten zu etikettieren. Würde man aber die neuen<br />

Daten einfach nur zu den Trainingsdaten hinzufügen und so die Parameter<br />

neu schätzen, würde die Wirkung der neuen Daten auf die Parameter kaum<br />

merkbar ausfallen.<br />

Eine einfache Möglichkeit, dem Problem zu begegnen, ist die unterschiedliche<br />

Gewichtung der großen alten Datenmenge und der kleinen neuen<br />

Datenmenge. Dabei könnten z.B. die neuen Daten mehrfach trainiert werden.<br />

Alternativ kann man in Anlehnung an entsprechende Trainingsverfahren bei<br />

künstlichen neuronalen Netzen mit Hilfe eines Momentums arbeiten.<br />

Bei Verwendung eines Momentums werden die alten Trainingsdaten nicht<br />

mehr benutzt. Die Systemparameter werden aber nicht einfach durch die<br />

Schätzung mit den neuen Daten ersetzt, sondern nur leicht in deren Richtung<br />

verändert. Müßte nach dem EM-Algorithmus oder der Baum-Welch-Regeln<br />

der Parameter c ersetzt werden durch c ′ = d, dann wird statt dessen<br />

c ′ = ǫ · c + (1 − ǫ) · d gewählt. Der Wert von ǫ kann unterschiedlich – je<br />

nach Größe der neuen Trainingsdatenmenge – gewählt werden, ja sogar<br />

unterschiedlich für verschiedene Parameter.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!