18.09.2013 Aufrufe

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

Sprachliche Mensch-Maschine-Kommunikation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

138 9. Klassifikation und Mustererkennung<br />

jeder Dimension, sondern nur nach jeder zweiten oder dritten durchführt,<br />

aber ein Zeitgewinn von mehr als etwa 10% bis 20% ist nur selten möglich.<br />

Viel mehr Zeit kann eingespart werden, wenn man die Zahl der in Betracht<br />

zu ziehenden Referenzvektoren deutlich reduziert. Das im allgemeinen<br />

hierfür geeignetste Verfahren ist das Bucket Voronoi Intersection Verfahren,<br />

ursprünglich eingeführt in [?], später für die Spracherkennung eingesetzt in<br />

[?]. Die Idee hierbei ist es, den Merkmalsraum hierarchisch zu unterteilen,<br />

zum Beispiel zu halbieren und so die in Frage kommenden Referenzvektoren<br />

im Idealfall mit n Merkmalsraumunterteilungen auf nur noch O(log n) Stück<br />

zu reduzieren.<br />

Wählt man als Unterteilung des Merkmalsraums eine einfache zu einer<br />

Koordinatenachse xj senkrechte Hyperebene H : xj = t, dann genügt es,<br />

einen einzigen Vergleich (vi < t) zweier reeller Zahlen durchzuführen, um<br />

zu entscheiden, auf welcher Seite der Hyperebene ein zu klassifizierender<br />

Testvektor V = (v1, . . . vd) liegt. Allerdings ist es jetzt nicht korrekt, für<br />

den Rest der Nächste-Nachbar-Suche nur noch diejenigen Referenzvektoren<br />

zu betrachten, die auf der selben Seite der Hyperebene liegen wie der<br />

Testvektor. Statt dessen müssen zusätzlich alle Referenzvektoren, deren<br />

Voronoi-Regionen auch nur zum Teil auf der Seite des Testvektors liegen,<br />

auch betrachtet werden. Glücklicherweise ist das Feststellen, ob die Voronoi-<br />

Region eine Hyperebene schneidet, relativ schnell (in logarithmischer Zeit<br />

bezüglich der Anzahl der Referenzvektoren) machbar.<br />

Der Bucket Voronoi Intersection Algorithmus ist in Abb. 9.8 illustriert.<br />

Im vorliegenden Beispiel wird der Merkmalsraum zuoberst von der Trennhyperebene<br />

A zerteilt, die linke ” Hälfte“ wird durch B und die rechte<br />

durch C abermals unterteilt. Um einen möglichst nahe am Logarithmus<br />

liegenden Unterteilungsfaktor zu erreichen, ist es sinnvoll, im voraus diese<br />

Trennhyperbenen so zu wählen, daß möglichst wenige Voronoi-Regionen<br />

durch sie zerschnitten werden. Auch wenn diese Prüfung etwas Zeit kostet,<br />

so ist dies nicht weiter problematisch, denn es genügt, dies für jede Ebene<br />

ein einziges Mal zu machen. Dies kann ” im voraus“ berechnet werden,<br />

und kostet während der Klassifikation keine Zeit mehr. So entsteht also<br />

eine komplette Baumstruktur. Jeder Baumknoten repräsentiert eine<br />

Trenhyperebene, und die Klassifikation, beziehungsweise das Finden des<br />

nächsten Referenzvektors, besteht aus den Abstieg in diesem Baum, wobei<br />

jeder Abstiegsschritt jeweils nur ein einziger reellwertiger Vergleich ist. Der<br />

Idealfall, daß keine Voronoi-Region durch eine Hyperebene zerschnitten wird<br />

kommt im allgemeinen so gut wie nie vor. In der Praxis ist es sogar so, daß<br />

es bei sehr hochdimensionalen Räumen völlig impraktikabel ist, den Baum<br />

so tief durchzusuchen, bis für jedes Blatt nur noch ein Referenzvektor übrig<br />

bleibt. Daher beendet man die Konstruktion des Baumes nach einer zuvor

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!