18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

20.1 Buchstabiererkennung 347<br />

Netze auf. In den letzten Jahren wurden immer wieder Methoden entwickelt,<br />

um Standard Modelle, die klassenabhängige Wahrscheinlichkeiten schätzen,<br />

auf diskriminative Art zu trainieren (Korrectives Training Abs. 13.3.1,<br />

Maximum Mutual Information Estimation - MMIE Abs. 13.3.1 und andere).<br />

Bei einem Buchstabiererkenner gibt es im Grunde zwei Vokabulare. Das<br />

eine besteht aus den ca. 30 Buchstabenbezeichnungen (A bis Z, Umlaute,<br />

Strich, Scharf-S, etc.), das andere aus den Wörtern, die Buchstabiert werden<br />

können. Im Prinzip läßt sich ein Erkenner bauen, dessen Vokabular aus nur<br />

den Buchstaben besteht, der aber ein n-Gramm Sprachmodell verwendet,<br />

wobei ” Gramm“ in diesem Fall nicht für ” Wort“ sondern für “Buchstabe“<br />

steht. Ein solcher Erkenner kann dann beliebige Buchstabensequenzen<br />

erkennen, bevorzugt aber diejenigen, die wahrscheinlicher sind. Ganz ohne<br />

Verwendung eines Buchstabensprachmodells wären alle (gleich langen)<br />

Buchstabenfolgen gleich wahrscheinlich. Der negative Effekt auf die Erkennungsrate<br />

wäre vergleichbar mit dem Effekt auf einen kontinuierlichen<br />

Spracherkenner, der kein Sprachmodell verwendet. Beim Buchstabieren stellt<br />

sich jedoch heraus, daß das zu verwendende Sprachmodell mit wachsendem<br />

Namensverzeichnis eine sehr große Kontextbreite (n-Gramme mit n >> 2)<br />

benötigt. Würden nur Bigramme oder Trigramme verwendet, so wäre<br />

deren Einfluß relativ gering. Eine wesentlich stärkere Einschränkung des<br />

Suchraums durch das Sprachmodell läßt sich durch Bauen eines minimalen<br />

Automaten erreichen [?] (s. Abb. 20.2).<br />

M<br />

01<br />

A I<br />

01<br />

Start<br />

I<br />

Y E<br />

L L<br />

N<br />

S K<br />

R<br />

Y<br />

Ende<br />

Abb. 20.2. Endlicher Mealy-Automat zum Buchstabieren von Maier, Mayer, Miller<br />

und Minsky<br />

Würde man alle zu erkennenden Buchstabiersequenzen als einzelne<br />

Wörter betrachten, könnte ein Isoliertworterkenner gebaut werden. Bei<br />

einem sehr großen Vokabular sollte der Zustandsraum kompaktifiziert<br />

werden, zum Beispiel in Form eines phonetischen Präfix-Baumes oder gleich

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!