18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Syntaktischer Parser Semantischer Parser<br />

Nominalphrase Verbalphrase<br />

Nomen Hilfsverb<br />

PETER WILL<br />

Satz<br />

Nominalphrase<br />

Nomen<br />

PUDDING<br />

Verbalphrase<br />

Verbalphrase<br />

Verb<br />

ESSEN<br />

Essenswunsch<br />

Esser Essen<br />

Abb. 23.2. Verschiedene Arten von Zerteilern (Parsern)<br />

PETER PUDDING<br />

23.3 Parsing 395<br />

WILL ESSEN<br />

als in akzeptabler Zeit von <strong>Mensch</strong>en zusammengetragen werden könnten,<br />

er ist also domänenabhängig.<br />

Eines haben alle grammatischen Parser gemeinsam. Sie verarbeiten Terme<br />

und ersetzen Teile dieser Terme durch andere Terme (Termersetzungssystem).<br />

Die Terme befinden sich stets zwsichen zwei extremen, dem Extrem<br />

der ursrpünglichen Darstellung (d.h. der zu parsenden Wortfolge) und der<br />

Darstellung als Interpretation der Wortfolge. Es ist üblich, die Wörter (oder<br />

Symbole) der Wortfolge als ” Terminale“ und die Symbole der Interpretation<br />

als ” Nichtterminale“ zu bezeichnen. Ziel des Parsers ist es stets, eine Folge<br />

von Regelanwendungen zu finden, die eine Darstellung aus dem einen in das<br />

andere Extrem überführen. Man spricht von<br />

23.3.2 Suchstrategien<br />

Ab einer gewissen Komplexität des grammatikalischen Regelwerkes und<br />

der zu verstehenden Wortfolge ist es nicht mehr möglich, alle erlaubten<br />

Folgen von Regelanwendungen auszutesten. Die kombinatorische Explosion<br />

ist einfach zu groß. Es ist also nötig, den Suchraum geeignet zu beschneiden.<br />

Genauso wie bei der Suche nach wahrscheinlichen Zustandsfolgen im Viterbi-<br />

Algorithmus oder nach wahrscheinlichen Wortfolgen im One-Stage Dynamic<br />

Time Warping so kann man auch beim Zerteilen von Wortfolgen einzelnen<br />

Regeln und auch ganzen Folgen von Regeln Wahrscheinlichkeiten zuordnen,<br />

so daß für jede partielle Zerteilung (Parsebaum) eine Wahrscheinlichkeit<br />

(oder zumindest eine entsprechende Bewertung) berechnet werden kann,<br />

die dann als Basis für die Beschneidung des Suchraums dienen kann. Eine

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!