18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

128 9. Klassifikation und Mustererkennung<br />

bekannt sind, deren korrekte Erkennung sofort mit absoluter Sicherheit auf<br />

die dazugehörige Klasse schließen läßt. Die allermeisten Mustererkennungsaufgaben<br />

sind aber so gestaltet, daß derartige Eigenschaften entweder nicht<br />

bekannt sind, nicht ausreichend exakt definiert werden können oder nicht<br />

ausreichend sicher erkannt werden können.<br />

Für die Erkennung von Sprache gelten alle drei Einschränkungen, für<br />

viele Laute können wir weder genau beschreiben, was diese Laute ausmacht,<br />

noch könnten wir diese Eigenschaften in einem Sprachsignal mit hinreichender<br />

Genauigkeit detektieren. Daher werden wir uns hier auch nicht mit<br />

deterministischen Klassifikatoren befassen.<br />

Stochastische Klassifikatoren werden gerne in parametrische und nicht<br />

parametrische Schätzer unterteilt, je nachdem ob eine bestimmte parametrisierbare<br />

Annahme über die Verteilung der Stichprobendaten gemacht<br />

wird oder nicht. Beim Lernen der Schätzer anhand der Trainingsstichprobe<br />

wird außerdem unterschieden zwischen überwachtem und unüberwachtem<br />

Lernen. Im ersteren Fall wird zum Lernen die Klassenzugehörigkeit eines<br />

Stichprobenelements verwendet, im letzteren liegen diese Informationen<br />

nicht vor oder werden nicht benutzt.<br />

9.1.2 Parametrische und nichtparametrische Schätzer<br />

Nichtparametrische Schätzer kommen in der Spracherkennung selten zum<br />

Einsatz. Typische Beispiele für nichtparametrische Schätzer sind diskrete<br />

Wahrscheinlichkeitsfunktionen (meist dargestellt als Histogramme), die für<br />

jedes Ereignis aus einer diskreten Menge von Ereignissen durch Zählen der<br />

Häufigkeiten aller Ereignisse die relative Häufigkeit berechnet und damit<br />

die Wahrscheinlichkeit des Ereignisses schätzen. Für kontinuierliche Merkmalsräume<br />

können auf ähnliche Art Häufigkeiten für bestimmte Intervalle<br />

oder Teilräume berechnet werden. Mit der Parzen-Fenster Methode [?] [?]<br />

geht das sogar für unterschiedlich groß gewählte Teilräume in Abhängigkeit<br />

von der lokalen Belegungsdichte durch die Trainingsdaten.<br />

Bei stochastischen Klassifikatoren gibt es typischerweise eine Trainingsphase,<br />

in der die Parameter des Systems geschätzt werden und eine Testphase<br />

in der zuvor ungesehene Stichproben klassifiziert werden (s. Abb. 9.1).<br />

9.1.3 Überwachtes und unüberwachtes Lernen<br />

Beim Lernen von Klassifikatoren, egal ob parametrisch oder nicht parametrisch,<br />

kann man unterscheiden zwischen überwachtem und unüberwachtem

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!