18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

o1 . . . oj . . .<br />

vt1 . . . vti . . . vtd<br />

Abb. 22.3. LVQ-Algorithmus als Neuronales Netz<br />

ok<br />

22.2 Architekturen 377<br />

basierende Erkenner verwendet, bei denen die Emissionswahrscheinlichkeiten<br />

mit Hilfe eines LVQ-Netzes für jedes von drei Segmenten eines Phonems<br />

berechnet wurden. Die sprecherabhängigen Erkennungsraten lagen auf<br />

dem damaligen ” Conference Registration“ Benchmark in vergleichbaren<br />

Regionen wie die von auf Gauß-Mischverteilungen basierenden Erkennern.<br />

Bei sprecherunabhängiger Erkennung waren die Ergebnisse deutlich besser<br />

als mit vergleichbaren auf LPNNs basierenden Erkennern, jedoch konnten sie<br />

nicht an die von kontextabhängigen Gauß-Mischverteilungen heranreichen.<br />

22.2.4 Kohonens selbstorganisierende Karten<br />

Betrachtet man Sprachsignale aber auch andere Mustererkennungsaufgaben,<br />

so stellt man sich bald die Frage, wie man am geeignetsten den oft sehr<br />

hochdimensionalen Merkmalsraum umgestalten kann, ja sogar die Frage, wie<br />

hochdimensional der Merkmalsraum ” in Wirklichkeit“ ist, bzw. auf einen<br />

wie kleindimensionalen Raum man ihn schrumpfen lassen könnte. Nun sind<br />

rohe diskrete Sprachsignale per se eindimensional, allerdings werden einzelne<br />

Abtastwerte daraus nie für die Erkennung direkt verwendet. Kohonens selbst<br />

organisierende Karten (engl. Kohonen maps oder Kononen’s self organizing<br />

maps) sind neuronale Netze, die zum Ziel haben, einen hochdimensionalen<br />

Merkmalsraum so auf einen niedrigdimensionalen abzubilden, daß durch<br />

die Abbildung sowohl eine Klassifikation durchgeführt wird, als auch daß<br />

eine Ähnlichkeits- bzw. Nachbarschaftsbeziehung im Ursprungsraum auf<br />

eine Nachbarschaftsbeziehung im Zielraum abgebildet wird. Das heißt, daß<br />

tendenziell für drei Punkte X1, X2, X3 mit |X1 − X2| < |X1 − X3| nach der<br />

Abbildung f auf den Zielraum gilt |f(X1) − f(X2)| < |f(X1) − f(X3)|. Dies<br />

kann per definitionem nicht grundsätzlich in jedem Fall erreicht werden.<br />

Wenn man aber davon ausgeht, daß der Ursprungsraum nicht gleichförmig<br />

gefüllt ist, sondern die Daten darin eine gewisse Struktur haben, und daß die<br />

Dimensionalität des Zielraumes nicht zu niedrig ist, so kann ein relativ großer<br />

Anteil der Nachbarschaftsbeziehung durch die Abbildung aufrechterhalten<br />

wij

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!