29.01.2014 Aufrufe

Belegarbeit (.pdf - 2.3 MB) - Technische Universität Dresden

Belegarbeit (.pdf - 2.3 MB) - Technische Universität Dresden

Belegarbeit (.pdf - 2.3 MB) - Technische Universität Dresden

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

6. TESTS 42<br />

wie hoch die Worterkennungsrate in den einzelnen Menüs ist. Jeder Befehl wurde dazu fünf mal wiederholt.<br />

Außerdem wurden nur ein Teil der möglichen Menüpunkte ausgewählt, die geeignet sind, einen<br />

Überblick zu geben welche Erkennungsraten bei welcher Vokabulargröße zu erwarten sind. Natürlich<br />

Menüpunkt Anzahl richtig nicht verwechselt Worterkennungsrate<br />

der Befehle erkannt erkannt in Prozent<br />

Musik 31 90 24 40 58,06<br />

Anrufe 24 83 10 27 69,17<br />

Spiele 18 62 13 15 68,89<br />

eMail 13 58 3 4 89,23<br />

Hauptmenü 11 43 4 8 78,18<br />

Tabelle 6.1: Worterkennungsrate einiger Menüs der Sphinx-4 Dialog Demo<br />

sind diese Daten mit Vorsicht zu betrachten. Zunächst ist Sphinx für sprecherunabhängiges Erkenner gedacht.<br />

Darum wäre es von Vorteil gewesen noch die Daten von anderen Sprechern zu haben um objektive<br />

Werte zu erhalten. Außerdem versteht dieser Erkenner nur die englische Sprache. Ein Muttersprachler<br />

hätte somit wahrscheinlich noch eine etwas bessere Worterkennungsrate erzielen können. Des weiteren<br />

schient es, als ob der Erkenner besser damit zurecht kommt, wenn man die Pausen zwischen den<br />

einzelnen Wörtern einer Befehlswortgruppe etwas verlängert.<br />

6.1.2 JLab<br />

Im Kapitel 5.3.5 wurden schon einmal Testdaten von JLab gezeigt. Um einen besseren Vergleich mit<br />

Sphinx zu erreichen wurden im einige zusätzliche Vokabulare erstellt. Diese orientieren sich stark an den<br />

Befehlswörterbüchern der Sphinx-4 Dialog Demo. Der Zweck besteht darin, die Befehle in ihrer Länge,<br />

Anzahl und Ähnlichkeit untereinander, denen des Sphinx Tests anzugleichen. So soll trotz der unterschiedlichen<br />

Sprache ein möglichst guter Vergleich zustande kommen. In Tabelle 6.2 werden die Testergebnisse<br />

dargestellt. Auch in diesem Test wurde jeder Befehl fünf mal eingegeben. Der JLab Speech<br />

Server erreicht in fast allen Menügrößen deutlich bessere Erkennungsraten. Diese Werte sind jedoch<br />

nicht vollständig vergleichbar. Die eigenhändig erstellten Vokabulare für JLab sind nicht optimiert. Das<br />

heißt die Rückweisungsschwelle für die einzelnen Befehle ist so gering, das beinahe jede Eingabe am<br />

Ende auch wirklich als ein Befehl erkannt wird. Aus diesem Grund sind auch nur Verwechslungsfehler<br />

in der Tabelle zu finden. Das ist kein Problem wenn man den Erkenner nur einschaltet wenn man auch<br />

wirklich einen Befehl gibt (siehe Abschnitt <strong>2.3</strong>.1.1 Push to Talk). Es erschwert aber den Vergleich mit<br />

Sphinx, da dort versucht wird wirklich nur auf echte Befehle zu reagieren.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!