18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

210 13. Das Trainieren von Spracherkennern<br />

eine Testphase durchgeführt, in der die mittlerweile erreichte Erkennerleistung<br />

gemessen wird. Trainingsphasen können einfache Wiederholungen<br />

des Baum-Welch-Trainings sein, ohne daß dabei der Parameterraum oder<br />

die Daten verändert werden. Sie können aber auch Komplexitätssprünge<br />

enthalten. Solange sich die Qualität verbessert, wird weiter trainiert. Das<br />

Training wird dann beendet, wenn keine Aussicht auf weitere Verbesserungen<br />

zu erwarten sind.<br />

Die regelmäßige Evaluation der Erkennerleistung dient aber nicht<br />

nur dazu, zu bestimmen, wann ein guter Zeitpunkt zum Beenden des<br />

Trainings erreicht wird. Sie dient auch dazu, Entscheidungen zu treffen,<br />

welche von mehreren Varianten der Fortsetzung des Trainingsprozesses<br />

die bessere ist. So kann entschieden werden, ob sich eine Steigerung der<br />

Parameterraumkomplexität lohnt oder ob die Anwendung eines bestimmten<br />

Trainingsparadigmas erfolgversprechend ist.<br />

13.2 Aufteilung der Sprachaufnahmen<br />

Bei den allermeisten Klassifikationsaufgaben empfiehlt es sich, die Klassifikationsleistung<br />

nicht auf den Daten zu messen, die verwendet wurden,<br />

um die Parameter des Klassifikators zu schätzen. Meistens interessiert nur<br />

die Leistung auf ” ungesehenen Daten“, das heißt die Generalisierungsfähigkeit.<br />

Für viele parametrische Klassifikatoren existieren Algorithmen zum<br />

iterativen Schätzen ihrer Parameter. Die Klassifikationsleistung auf den<br />

für die Schätzung der Parameter verwendeten Trainingsdaten wächst mit<br />

jeder Iteration. Dies gilt jedoch nicht für ungesehene Daten (s. Abb. 13.2).<br />

Der Parameter des Schätzers beschreiben die Trainingsdaten immer besser.<br />

Sie stellen ein immer genaueres Modell der Trainingsmenge dar, bis sie<br />

irgendwann die Trainingsdaten quasi ” auswendig lernen“. Dann paßt das<br />

Modell nicht mehr so gut auf die ungesehenen Daten und die Klassifikationsleistung<br />

auf diesen nimmt ab. Dieser Effekt wird als ” Overfitting“ bezeichnet.<br />

Der gleiche Effekt tritt auch ein bei Klassifikatoren mit variabler Anzahl<br />

Parameter auf. Je größer die Zahl der Parameter, umso genauer kann das<br />

Modell die Trainingsdaten modellieren. Eine einfache Manifestation dieses<br />

Effektes kann man bei der Schätzung eines Polynoms, das von einer gegebenen<br />

Menge von Meßwerten möglichst wenig abweichen soll, beobachten.<br />

Wenn man zur Erfassung der Punkte aus Abb. 13.3 ein Polynom<br />

zweiten (a) Grades verwendet wird die Abweichung noch recht groß bleiben,<br />

ein Polynom dritten Grades (b) paßt schon besser. Und bei Verwendung<br />

eines Polynoms siebten (c) Grades können die sechs Trainingsdatenpunkte

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!