18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

216 13. Das Trainieren von Spracherkennern<br />

die einzige – Möglichkeit. Ähnliches gilt für den EM-Algorithmus in Kap. 9.<br />

So werden in der Spracherkennung nicht nur komplett andere Trainingsparadigmen<br />

verwendet, sondern immer wieder auch leichte Abwandlungen der<br />

mathematisch hergeleiteten Methoden, immer auch mit dem Wissen, daß<br />

die zugrundegelegten Modelle eben nur Modelle sind, und zur ” Annäherung<br />

an die Wirklichkeit“ auch Abweichungen von der Mathematik sinnvoll sein<br />

können. Im folgenden werde einige alternative Trainingsmethoden beleuchtet.<br />

13.3.1 Diskriminatives Trainieren<br />

Der EM-Algorithmus ist durch seine auf Maximum-Likelihood Schätzung<br />

basierte Optimierung aus Prinzip nichtdiskriminativ. Das heißt, jeder<br />

Parameter wird allein mit Hilfe der ihm zugeordneten (positiven) Trainingsmuster<br />

aktualisiert, unabhängig von den Parametern anderer Modelle.<br />

Das Ziel diskriminativen Trainings ist jedoch die Parameter so zu schätzen,<br />

daß nicht nur die Beobachtungswahrscheinlichkeit der positiven Beispielmuster<br />

maximiert wird, sondern auch die Wahrscheinlichkeit der negativen<br />

Beispielmuster minimiert wird. Bei Neuronalen Netzen, die mit der Error<br />

Backpropagation Methode trainiert werden, ist es aus mathematischer<br />

Sicht unproblematisch, das Vorzeichen der einzelnen Trainingsschritte<br />

umzudrehen. Aus der Definition der McCullogh-Pitts Neuronen folgt, daß<br />

jede Parameterbelegung wenn auch nicht unbedingt sinnvoll so aber auf<br />

jeden Fall legal ist. Bei Gauß-Mischverteilungen ist dies nicht der Fall. Die<br />

Mixturgewichte müssen Werte zwischen 0 und 1 annehmen. Kovarianzmatrizen<br />

müssen symmetrisch und nichtsingulär sein. Wenn beim Akkumulieren<br />

der Trainingsinformation für dem EM-Algorithmus einzelne Schritte mit<br />

negativem Vorzeichen versehen werden, kann dies dazu führen, daß z.B.<br />

Mixturgewichte negativ werden. Dennoch wurde immer wieder der Versuch<br />

unternommen, auch den EM-Algorithmus so zu modifizieren, daß er die<br />

diskriminative Fähigkeit der Modelle verbessert. Eine Möglichkeit, dies zu<br />

erreichen und dabei die Konsistenz der Parameter zu gewährleisten, besteht<br />

in der gezielten Auswahl der Trainingsmuster.<br />

Der Trainingsprozeß kann so modifiziert werden, daß Muster, die der<br />

Diskriminativität schaden, aus dem Training herausgenommen werden oder<br />

daß Muster, die der Diskriminativität helfen, dem Trainingsalgorithmus<br />

mehrfach präsentiert werden. Welche Muster der Diskriminativität zuträglich<br />

und welche ihr abträglich sind, hängt vom Einzelfall ab. Dabei ist es durchaus<br />

nicht so, daß diejenigen Muster, die in der Nähe der Klassifikationsgrenzen<br />

liegen und somit schwierig zuzuordnen sind, dazu beitragen, diese Grenzen<br />

zu verwischen und somit der Diskriminativität zu schaden. Ganz im Gegenteil:<br />

Diejenigen Muster, die weit weg von Klassifikationsgrenzen liegen,<br />

bewirken als ” Ausreißer“, daß die zu trainierenden Gewichte extreme Werte

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!