18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

372 22. Künstliche Neuronale Netze<br />

ausgeschnittenen Aufnahmen einzelner Phoneme oder Diphone trainiert<br />

wurden.<br />

Der Einfachheit halber werden wir ab jetzt das Adjektiv ” künstlich“ im<br />

Zusammenhang mit neuronalen Netzen weglassen, weil wir uns nicht für die<br />

Funktionalität biologischer neuronaler Netze interessieren und auch nicht<br />

auf solche Netze eingehen werden. In diesem Kapitel wird die Einführung in<br />

die Arbeitsweise und das Training von neuronalen Netzen nicht ausführlich<br />

behandelt. Der interessierte Leser möge sich aus einem Fachbuch zu diesem<br />

Thema informieren. Wir wollen uns hier auf die Anwendung neuronaler<br />

Netze in der Spracherkennung konzentrieren, und nur soweit in die Theorie<br />

eindringen, wie dies für die hier beschriebenen Netze und Aufgaben sinnvoll<br />

ist.<br />

22.1 Probleme reiner HMM-Erkenner<br />

Die Standardmethode für das Trainieren von Hidden Markov Erkennern<br />

besteht aus den Baum-Welch Optimierungsregeln und dem Expectation Maximization<br />

Algorithmus zur iterativen Optimierung von Mischverteilungen.<br />

Beide Prinzipien basieren auf dem Auswerten von ” positiven Beispielen“.<br />

Dabei wird nur die Zugehörigkeit eines Musters zu einer Klasse aber nicht<br />

die Nichtzugehörigkeit zu anderen Klassen explizit berücksichtigt. Zwar gibt<br />

es auch für das Optimieren von HMM Erkennern diskriminative Verfahren<br />

(z.B. das Korrektive Training, Abs. 13.3.1), aber für neuronale Netze sind<br />

diskriminative Verfahren meist die geeignetste Trainingsmethode.<br />

Die Praxis hat außerdem gezeigt, daß viele Klassifikationsaufgaben mit<br />

Hilfe von neuronalen Netzen mit deutlich weniger Parametern bewältigt<br />

werden können als mit maximum-likelihood-basierten Klassifikatoren. Ein<br />

Maximum-Likelihood Klassifikator muß für jede Klasse C die klassenbedingte<br />

Wahrscheinlichkeit(-sdichte) P(x|C) über dem Merkmalsraum lernen.<br />

Dies geschieht für jede Klasse unabhängig von den anderen Klassen und<br />

unabhängig von der A-Priori-Wahrscheinlichkeit der Klasse. Zu dem Zeitpunkt,<br />

an dem der Maximum-Likelihood Klassifikator seine klassenbedingten<br />

Wahrscheinlichkeitsfunktionen schätzen muß, kann er noch nicht absehen,<br />

welche Details dieser Funktion wichtig sind und welche weniger wichtig sind.<br />

Abbildung 22.1 veranschaulicht den Mehrbedarf an Parametern für einen<br />

Maximum-Likelihood Klassifikator gegenüber einem Maximum-A-Posteriori<br />

Klassifikator. Der letztere berechnet P(C|x) und berücksichtigt dabei den<br />

Zusammenhang aller Klassen. Ein neuronales Netz, das diese a-posteriori<br />

Wahrscheinlichkeiten schätzen soll, muß nur eine einfache Näherung an das

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!