18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

266 16. Verwendung von Sprachmodellen<br />

einziges Mal vorkommt, so selten also, daß sinnvolle statistische Aussagen<br />

kaum zu machen sind.<br />

Bevor wir uns überlegen, ob wir nicht besser nach erfolgversprechenderen<br />

Sprachmodellen suchen sollten, betrachten wir zwei Experimente, die uns<br />

bei der Einschätzung der Wirkung von n-Grammen helfen könnten.<br />

Im ersten Experiment wurde aus der Wall Street Journal Datenbasis<br />

derjenige Teil herausgenommen, der nur Wörter aus der Menge der 1000<br />

häufigsten Wörter enthält (das war eine Textmenge von ca. 400 000<br />

Wörtern). 300 000 (Trainingsdaten) davon wurden zum Schätzen von<br />

Trigrammen entsprechend Gl. 16.6 verwendet, und auf den restlichen<br />

100 000 (Testdaten) wurde das Trigramm-Modell gestestet. Wir werden uns<br />

später in diesem Kapitel mit der Qualität von Sprachmodellen beschäftigen<br />

und an dieser Stelle lediglich die Zahl der Worttripel betrachten, die in<br />

den Trainingsdaten und in den Testdaten vorkommen. Diese Zahlen bilden<br />

die Basis für die Schätzung von Trigrammen. Bei der Betrachtung der<br />

Worttripel der Testdaten wurde festgestellt, daß 23% von ihnen in den<br />

Trainingsdaten überhaupt nicht vorkamen. Das würde bedeuten, daß fast<br />

jedes vierte bei der Erkennung der Testdaten zu verwendende Trigramm<br />

eine Wahrscheinlichkeit von null hätte. Sicher könnte man statt 0.0 einen<br />

kleinen Wert ǫ nahe 0.0 wählen, damit diese Worttripel überhaupt eine<br />

Chance haben, erkannt zu werden. Dennoch sollte man erwarten, daß ein<br />

Sprachmodell, das in einem Viertel aller Fälle willkürlich festgelegte Werte<br />

nahe null verwendet nur wenig hilfreich ist. Das erste Experiment ist also für<br />

den Einsatz von n-Grammen eher entmutigend. Für Werte von n > 3 ist der<br />

Anteil der in den Trainingsdaten nicht vorkommenden n-Tupel noch größer.<br />

In einem anderen Experiment, dem sogenannten ” Bag of Words“, wurden<br />

aus der Datenmenge, die aus dem ersten Experiment bekannt ist, Sätze mit<br />

maximal 10 Wörtern genommen. Aus jedem Satz wurde statt einer Wortfolge<br />

eine Wortmenge gebildet, in der die ursprüngliche Reihenfolge der Wörter<br />

nicht mehr bekannt war. Ein Algorithmus suchte dann zu jeder Wortmenge<br />

diejenige Wortfolge, deren Trigramm-Wahrscheinlichkeit am größten ist.<br />

Bei 63% aller Sätze wurde der ursprüngliche Satz exakt rekonstruiert, und<br />

79% aller Sätze wurden immerhin so rekonstruiert, daß wenigstens der Sinn<br />

erhalten blieb.<br />

16.4 Perplexität<br />

Die Messung der Qualität eines Sprachmodells kann so erfolgen, daß ein<br />

Erkenner das Sprachmodell verwendet und die Worterkennungsrate dann als

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!