18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

178 12. Hidden Markov Modelle<br />

Wenn es um die Erkennung kontinuierlicher Sprache geht, dann machen<br />

Mustervergleicherkenner zusätzliche Schwierigkeiten. Der Dynamic Programming<br />

Algorithmus kann zwar für kontinuierliche Sprache eingesetzt werden,<br />

aber wir haben schon bei seiner Einführung auf Probleme hinsichtlich der<br />

Effizienz bei großen Vokabularen hingewiesen.<br />

Der schwerwiegendste Nachteil (abgesehen von der Erkennungsqualität)<br />

ist aber die Abhängigkeit vom Vokabular. Wenn für jedes zu erkennende<br />

Wort ein Muster abgespeichert werden muß, bedeutet dies, daß Wörter, für<br />

die keine Muster vorhanden sind, auch nicht erkannt werden können. Dies<br />

ist vor allem für Sprachen mit vielen Flexionsmöglichkeiten wie zum Beispiel<br />

die deutsche Sprache problematisch.<br />

Der innerhalb eines Jahres verwendete Wortschatz einer Tageszeitung<br />

kann leicht in der Größenordnung 10 6 liegen. Es ist im Deutschen völlig<br />

unproblematisch, neue Wörter zu bilden, die die meisten von uns noch<br />

nie gehört haben aber trotzdem auf Anhieb verstehen. Denken Sie zum<br />

Beispiel an diesen Satz: ” Das Kondensmilchdosenloch ist zugemilcht.“ Es<br />

ist wahrscheinlich, daß Sie die Hälfte der Wörter dieses Satzes zum ersten<br />

Mal lesen. Das erste seltene Wort ( ” Kondensmilchdosenloch“) illustriert<br />

die Fähigkeit der deutschen Sprache, einzelne Wörter zu größeren zusammenzukleben.<br />

Und das zweite ( ” zugemilcht“) zeigt, wie durch Flexion ein<br />

Wort aus Partikeln (Morphemen) gebildet werden kann. Die Behandlung<br />

solcher Probleme wird auch weiterhin schwierig sein, aber wenn wir bei der<br />

Erkennung mittels einfachen Mustervergleichen wie bisher kennengelernt<br />

bleiben wollen, werden solche Probleme kaum lösbar sein.<br />

Wir sehen schon, die Problematik läuft auf die Stückelung der Sprache<br />

hinaus. Ganze Wörter scheinen für die Spracherkennung problembehaftet<br />

zu sein. Das Trainieren von einzelnen Silben oder Phonemen, um deren<br />

Muster abzuspeichern, dürfte aber auch nicht erfolgversprechend sein. Die<br />

akustische Evidenz eines Phonems in einem Sprachsignal ist ziemlich klein<br />

(im Schnitt ca. 50 bis 60 ms). Derartig kurze Muster zu vergleichen zieht<br />

sehr hohe Fehlerraten nach sich.<br />

Wie stellen wir uns also den kontinuierlichen Spracherkenner vor? Welche<br />

Eigenschaften sollte er haben?<br />

Kurze Spracheinheiten<br />

Wir wollen nicht mit ganzen Wörtern als Einheiten arbeiten. Kurze Einheiten,<br />

aus denen Wörter ” zusammengebaut“ werden können sind geeigneter,<br />

weil sie öfter in den Trainingsdaten auftreten und so besser trainiert werden<br />

können. Und wir brauchen weniger Trainingsdaten, zumindest nicht mehr so

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!