18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

9.3 Diskriminanzoptimierung 149<br />

im Ursprungsmuster enthalten sind [?]. Allerdings ist auch offensichtlich,<br />

daß nicht alle Information in einem Sprachsignal für die Erkennung von Bedeutung<br />

ist. Und selbst die wichtige kommt meist redundant vor. Bevor ein<br />

Spracherkenner oder ein Klassifikator ein Muster zur Erkennung bekommt,<br />

wird dieses aus dem Ursprungssignal durch verschiedene Informationsreduktionsschritte<br />

gewonnen. Dabei spielen sowohl wissensbasierte als auch<br />

stochastische beziehungsweise datengetriebene Verfahren eine Rolle. So wird<br />

zum Beispiel zuerst basieren auf dem Wissen, daß die Phaseninformation<br />

unbedeutend ist, diese bei der Transformation des Signals vom Zeitbereich<br />

in den Frequenzbereich ignoriert. Später werden die einzelnen Frequenzbereichskoeffizienten<br />

zu wenigen Filterbankkoeffizienten zusammengefaßt. Die<br />

Art der Zusammenfassung ist zumindest teilweise datengetrieben, indem sie<br />

sich an den Definitionen der Mel- oder Bark-Skalen orientiert. In der Erwartung,<br />

daß selbst bei den Filterbankkoeffizienten immer noch redundante<br />

Information steckt, insbesondere dann, wenn mehrere aufeinanderfolgende<br />

Vektoren zusammen betrachtetet werden, und mit dem Wissen, daß ein<br />

kleiner dimensionierter Merkmalsraum die Klassifikationsaufgabe erleichtern<br />

und den Parameterraum verkleinern kann, hat es durchaus Sinn, auch nach<br />

der Filterbankberechnung eine weitere Reduktion des Informationsgehalts<br />

durchzuführen.<br />

Einige Arbeiten versuchen die Dimensionalität des Merkmalsraums<br />

durch Auswahl bestimmter Dimensionen zu reduzieren. Wesentlich mehr<br />

Freiheiten hat man allerdings wenn man eine LDA anwendet. Betrachtet<br />

man die LDA-Transformationsmatrix A, so steht in der i-ten Spalte der<br />

Eigenvektor des der Größe nach i-ten Eigenwertes, also der Eigenvektor des<br />

größten Eigenwertes in der ersten Spalte und derjenige mit dem kleinsten<br />

Eigenwert in der letzten Spalte.<br />

Offensichtlich sind diejenigen Dimensionen des transformierten Merkmalsraumes,<br />

die eine sehr kleinen Eigenwert haben für die Klassifikation<br />

eher unwichtig, so daß statt der Transformation A die dimensionsreduzierte<br />

Transformation A ′ verwendet werden kann, ohne daß dadurch große Nachteile<br />

für die Klassifikation befürchtet werden müssen.<br />

⎛ ⎞<br />

a11 · · · a1n<br />

⎜<br />

A = ⎝<br />

.<br />

. ..<br />

⎟<br />

. ⎠ A ′ ⎛ ⎞<br />

a11 · · · a1d<br />

⎜<br />

= ⎝<br />

.<br />

. ..<br />

⎟<br />

. ⎠ (9.26)<br />

an1 · · · ann<br />

an1 · · · and<br />

Im Falle der nichtlinearen Transformation mit künstlichen neuronalen<br />

Netzen läßt sich die Reduktion der Dimensionalität des Zielmerkmalsraumes<br />

gleichzeitig mit der Berechnung der Transformationsfunktion durchführen,<br />

indem einfach die Zahl der Ausgabeneuronen reduziert wird. Allerdings ist es<br />

dann nicht mehr so einfach möglich, anhand der Eigenwerte zu entscheiden,

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!