18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

16.4 Perplexität 269<br />

Gleichverteilung abweichende Verteilung hat eine Perplexität zur Folge, die<br />

kleiner ist als |V |.<br />

Die Perplexität ist eine intrinsische Eigenschaft einer Symbolquelle oder<br />

eines Sprachmodells. Wird sie allerdings gemäß Gl. 16.11 geschätzt, dann<br />

spricht man von der ” Test-Set-Perplexität“, ein Wert, der selbstverständlich<br />

von der endlichen Wortfolge (dem Test-Set) w1, w2, . . .wn abhängt.<br />

Das bedeutet, daß dasselbe Sprachmodelle je nach Test-Set, verschiedene<br />

Test-Set-Perplexitäten hat. Spricht man nur von der Perplexität eines<br />

Sprachmodells, dann meint man damit die Test-Set-Perplexität auf der<br />

Wortfolge, mit der das Modell geschätzt wurde, oder eine Kreuzvalidierungsteilmenge<br />

davon.<br />

Tab. 16.1 gibt die typischen Perplexitäten einiger Erkennungsaufgaben<br />

an. Am Beispiel der Wall Street Journal Daten ist zu erkennen, daß die<br />

Perplexität eines Trigramm-Modells erwartungsgemäß niedriger ist als<br />

die eines Bigramm-Modells. Ein Bigramm-Modell enthält wiederum mehr<br />

Information als ein noch einfacheres Wortpaarmodell (PP=20 ggü. PP=60<br />

für die Resource Management Daten). Ein ganz starker Effekt für die<br />

Test-Set-Perplexität läßt sich an den deutschsprachigen Daten aus der<br />

Süddeutschen Zeitung sehen. Verwendet man als Test-Set ebenso wie für<br />

das Schätzen des Modells Texte aus der gleichen Zeitschrift, so beträgt<br />

die Perplexität ca. 400. Dies ist an sich schon wesentlich höher als für<br />

typische englischsprachige Aufgaben, was im wesentlichen auf die vielen<br />

Flexionsformen im Deutschen, die es im Englischen sehr viel weniger gibt,<br />

zurückzuführen. Einen gewaltigen Sprung in die Höhe macht die Perplexität<br />

allerdings noch, wenn als Test-Set Märchen (in diesem Experiment [?]<br />

” Schneewittchen“) verwendet werden. Die Tatsache, daß Märchentexte von<br />

Nachrichtentexten sehr verschieden sind, führt dazu daß die n-Gramm-<br />

Wahrscheinlichkeiten sehr klein geraten und somit die Perplexität sehr groß<br />

wird. Hier bedeutet dies, daß die Erkennung eines gesprochenen Märchens<br />

mit Hilfe eines Trigramm-Sprachmodells aus der Süddeutschen Zeitung in<br />

etwa so schwierig ist wie die Erkennung mit einem Vokabular der Größe<br />

1000 Wörter ganz ohne Sprachmodell.<br />

Die Perplexität ist geeignet, die Schwierigkeit einer Erkennungsaufgabe<br />

einigermaßen zu beschreiben. In vielen Fällen ist es jedoch so, daß eine<br />

Aufgabe trotz niedrigerer Perplexität schwieriger ist, weil bei der reinen<br />

Perplexität die Verwechslungswahrscheinlichkeit nicht berücksichtigt wird.<br />

In Abb. 16.2 ist die lokale Wahrscheinlichkeitsverteilung der Nachfolger des<br />

Wortes wi auf der linken Seiten wesentlich schärfer (d.h. hat niedrigere<br />

Perplexität) als auf der rechten Seite. Dennoch ist die Erkennungsaufgabe<br />

der rechten Seite einfacher. Zwar hilft hier das nahezu gleichverteilte Sprachmodell<br />

nicht, aber die in Frage kommenden Wörter sind aus akustischer Sicht

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!