18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

350 20. Erkennung von Spezialvokabular<br />

Verschiedene Vorgehensweisen wurden untersucht, um nicht nur neue<br />

Wörter zu detektieren, sondern auch um eine sinnvolle Hypothese an ihrer<br />

Stelle auszugeben. In [?] wurde ein generisches Modell Verwendet, das durch<br />

ein großes HMM modelliert wurde, das alle Phoneme und eine gewisse<br />

Phonotaktik in Form bestimmter erlaubter Zustandsübergänge enthielt.<br />

Dieses Neue-Wörter-HMM wurde in der Suche genauso wie alle anderen<br />

Wörter verwendet und konkurrierte mit diesen. In vielen Fällen wurde<br />

das Neue-Wörter-HMM in die Hypothese eingebunden, wenn keines der<br />

Vokabularwörter eine ausreichend hohe Wahrscheinlichkeit hatte. Durch die<br />

relativ Große Freiheit in der Bildung von Phonemfolgen konnte in solchen<br />

Fällen die Wahrscheinlichkeit für irgend eine erlaubte Phonemfolge des<br />

Neue-Wörter-HMMs größer sein als die für jedes Vokabularwort (inklusive<br />

der entsprechenden Sprachmodellwahrscheinlichkeiten). Als Hypothese kann<br />

dann die Folge der Zustände durch das HMM angegeben werden, die dann<br />

zumindest die phonetische Repräsentation des Wortes Enthält, welche von<br />

einem geeigneten Algorithmus (zum Beispiel mittels HMMs [?]) in eine<br />

Textuelle Form gebracht werden kann.<br />

Für Diktiererkenner ist eine Vorgehensweise sinnvoll, wie sie zum Beispiel<br />

in der HDLA-Techik (s. Abs. 16.7.2) verwendet wird. Dort wird das Lexikon<br />

nach der ersten Erkennung verändert. Aus einem riesigen Hintergrundlexikon,<br />

das der Spracherkenner nicht verarbeiten könnte, das aber sehr viele<br />

Wörter und Eigennamen enthält, werden die erfolgversprechendsten Kandidaten<br />

anhand der zunächst fehlerhaften Hypothese ausgewählt und in das<br />

Erkennnervokabular aufgenommen. Ein erneuter zweiter Erkennungsvorgang<br />

hat dann eine größere Wahrscheinlichkeit, die korrekte Ausgabe zu liefern.<br />

Bei spontaner Sprache entsteht ein zusätzliches Problem, das bei<br />

Diktiererkenner weniger wichtig ist, nämlich das häufige Vorkommen von<br />

Wortfragmenten. Man kann nicht wirklich erwarten, daß ein Hintergrundlexikon<br />

nicht nur fast alle sinnvollen Wörter enthält und zusätzlich noch<br />

aller möglicherweise sprechbaren Wortfragmente. Daher wird in [?] ein<br />

Algorithmus vorgestellt, der einen endlichen Automaten aus einer Liste<br />

aller im Deutschen regulären Silben (ca. 11 000 Stück) baut, und dieses als<br />

Neue-Wörter-Modell verwendet.<br />

In [?] wird vor allem die Problematik der unbekannten Eigennamen<br />

behandelt, die sich oft nicht an die übliche Phonotaktik halten. Die dort<br />

verfolgte Idee besteht darin, keine ganzen Wörter durch HMMs mit hohen<br />

Freiheiten bei der Phonemfolgenwahl zu modellieren, sondern nur Teile<br />

davon. Die Anfänge der neuen Wörter müssen statt dessen mit einer<br />

Phonemsequenz aus einer aus den Trainingsdaten gewonnenen Menge<br />

beginnen. Dadurch werden dem Erkenner weniger Freiheiten gegeben und<br />

die Wahrscheinlichkeit für das Auftreten so genannter false alarms für

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!