18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

9.3 Diskriminanzoptimierung 147<br />

wobei TA die Gesamtstreumatrix und WA die gemittelte Klassenstreumatrix<br />

nach Anwenden der Transformation A sind.<br />

Dieses Optimierungsproblem läßt sich mit Hilfe einer simultanen Diagonalisierung<br />

[?] lösen. Die gesuchte Matrix A ergibt sich demnach als die<br />

Matrix der Eigenvektoren von TW −1 , absteigend sortiert nach der Größe der<br />

dazugehörigen Eigenwerte:<br />

A = (φ1φ2 · · · φd) (9.22)<br />

wobei d die Dimensionalität des Merkmalsraums ist und φi der i-te Eigenvektor<br />

von TW −1 .<br />

Abb. 9.11. Idealvorstellung der Wirkung einer LDA-Transformation<br />

Nach dem Erfolg der linearen Diskriminanzanalyse in der Spracherkennung<br />

wurden einige Versuche unternommen, auch nichtlineare Varianten<br />

zu verwenden [?]. Während die analytische Optimierung der Parameter<br />

einer linearen Transformation noch zu bewerkstelligen ist, ist dies für<br />

beliebige Transformation in der Regel nicht möglich. Die naheliegende<br />

Vorgehensweise bei der Suche nach einer guten nichtlinearen Transformation<br />

ist die Verwendung von neuronalen Netzen. Man kann zeigen, daß die<br />

Transformation, die ein Perzeptron mit einer verborgenen Schicht, das<br />

als Klassifikator trainiert wird und eine lineare Übertragungsfunktion<br />

verwendet, genau eine Hauptachsentransformation lernt. Die Gewichte<br />

der verborgenen Schicht – betrachtet als Matrix – sind die Koeffizienten<br />

der HAT-Matrix. Nur das Ersetzen der linearen Übertragungsfunktion<br />

durch eine nichtlineare (z.B. Stufenfunktion oder Sinoid) ändert an der<br />

Qualität der Transformation nur wenig. Es ist aber möglich, die Optimierungsfunktion<br />

an die Diskriminanzfunktion der LDA (|T ·W −1 |) anzunähern.<br />

Das Verfahren der ” moving targets“ beginnt mit einem Neuronalen Netz,<br />

das eine Identitätsabbildung oder eine zufällige Abbildung durchführt. Die

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!