18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Dabei wird γtk geschätzt als<br />

γtk = ck · Nk(xt)<br />

<br />

j cjNj(xt)<br />

9.3 Diskriminanzoptimierung 145<br />

(9.17)<br />

Dieser iterative Optimierungsalgorithmus wird Expectation Maximization<br />

Algorithmus (EM-Algorithmus) genannt.<br />

9.3 Diskriminanzoptimierung<br />

Allein schon bei der Betrachtung des unverarbeiteten Zeitsignals wird klar,<br />

daß es sehr viel Information enthält, die für die Unterscheidung verschiedener<br />

Laute nicht von Bedeutung sind. Bei vielen Klassifikationsaufgaben ist es<br />

daher sinnvoll, den verwendeten Merkmalsraum so zu transformieren, daß<br />

diejenigen Eigenschaften der Muster, die zur Diskriminierung verschiedener<br />

Klassen stärker beitragen können, auch stärker berücksichtigt werden. Im<br />

folgenden werden wir zwei Transformationen betrachten, die eine Optimierung<br />

der Diskriminanzeigenschaften des Merkmalsraums zum Ziel haben:<br />

Die einfache Hauptachsentransformation und die etwas aufwendigere lineare<br />

Diskriminanzanalyse (LDA), oft auch als Karhunen/Leuve Transformation<br />

bekannt.<br />

9.3.1 Hauptachsentransformation und Lineare<br />

Diskriminanzanalyse<br />

Die Hauptachsentransformation (HAT) wird oft auch Karhunen-Loeve-<br />

Transformation (KLT) oder im Englischen principal component analysis<br />

(PCA) genannt. Sie hat zum Zweck einen n-dimensionalen Merkmalsraum<br />

so in einen m < n-dimensionalen zu transformieren, daß der entstehende<br />

quadratische Fehler minimal wird. Unter günstigen Umständen (wie in Abb.<br />

9.10 mit n = 2, m = 1) können zwei Klassen nach der Transformation immer<br />

noch problemlos getrennt werden.<br />

Wie gut eine Klassentrennung (Diskriminanz) Diskriminanzanalyse<br />

möglich ist, spielt bei der Hauptachsentransformation keine Rolle. Sie<br />

berücksichtigt weder die Zahl der Klassen, noch deren einzelne Verteilungen.<br />

Die lineare Diskriminanzanalyse (LDA) beruht auf der Idee der Erweiterung<br />

der Hauptachsentransformation auf sehr viele Klassen [?]. Abb. 9.11 zeigt<br />

die (praktisch nicht erreichbare) Idealvorstellung einer LDA. Dabei wird<br />

eine lineare Transformation des Merkmalsraums gesucht, die – wenn auf alle<br />

Mustervektoren angewandt – dazu führt, daß die einzelnen Klassen einer

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!