01.12.2012 Aufrufe

8 Diplom- und Studienarbeiten - IAS - Technische Universität Dresden

8 Diplom- und Studienarbeiten - IAS - Technische Universität Dresden

8 Diplom- und Studienarbeiten - IAS - Technische Universität Dresden

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Technische</strong> <strong>Universität</strong> <strong>Dresden</strong><br />

Fakultät Elektrotechnik <strong>und</strong> Informationstechnik<br />

Institut für Akustik <strong>und</strong> Sprachkommunikation<br />

Professur für Systemtheorie <strong>und</strong> Sprachtechnologie<br />

Jahresbericht 2009<br />

Berichtszeitraum 1.1.2009 bis 31.12.2009


Postanschrift (Briefe):<br />

<strong>Technische</strong> <strong>Universität</strong> <strong>Dresden</strong><br />

Fakultät Elektrotechnik <strong>und</strong> Informationstechnik<br />

Institut für Akustik <strong>und</strong> Sprachkommunikation<br />

Professur für Systemtheorie <strong>und</strong> Sprachtechnologie<br />

01062 <strong>Dresden</strong><br />

Postanschrift (Pakete):<br />

Helmholtzstr. 10<br />

01069 <strong>Dresden</strong><br />

Besucheradresse:<br />

Helmholtzstr. 18<br />

Barkhausen-Bau<br />

Sekretariat: Zi.: S48<br />

Telefon: ++49 – 351 - 463 37656 (Sekretariat)<br />

++49 – 351 - 463 32747<br />

Fax: ++49-351 – 463 – 37781<br />

E-Mail: Ruediger.Hoffmann@tu-dresden.de<br />

Als Manuskript gedruckt<br />

2


Vorwort<br />

Vorwort<br />

Der vorliegende Jahresbericht ist der neunzehnte aus dem Institut für Akustik <strong>und</strong> Sprachkommunikation<br />

der TU <strong>Dresden</strong> <strong>und</strong> umfasst für das Jahr 2009 anteilig die Aktivitäten der Professur für Systemtheorie<br />

<strong>und</strong> Sprachtechnologie <strong>und</strong> der Honorarprofessur für Elektroakustik.<br />

Um mit positiven Nachrichten zu beginnen, sollen einige erfreuliche Personalia in chronologischer<br />

Reihenfolge erwähnt werden:<br />

• Am 24. März 2009 erhielt unser langjähriger ehemaliger Institutsdirektor, Herr Prof. Dr.-Ing.<br />

habil. Peter Költzsch, auf der Konferenz NAG/DAGA in Rotterdam die Helmholtz-Medaille für<br />

seine herausragenden <strong>und</strong> vielfältigen Beiträge zur Strömungsakustik verliehen.<br />

• Zum 1. Juni 2009 bewilligte die Humboldt-Stiftung die Verlängerung des Forschungsaufenthaltes<br />

von Frau Dr. Joan K.-Y. Ma in unserer Arbeitsgruppe für ein Jahr.<br />

• Zum Wintersemester 2009/10 erhielt unsere langjährige Mitarbeiterin, Frau Dr. phil. Hongwei<br />

Ding, eine Professorenstelle für Linguistik an der School of Foreign Languages der Tongji University,<br />

Shanghai.<br />

• Am 26. Oktober 2009 wurde Herrn Dr.-Ing. Rolf Dietzel anlässlich seines 75. Geburtstages die<br />

Ehrenmedaille der TU <strong>Dresden</strong> für seine Verdienste um die Traditionspflege an unserer <strong>Universität</strong><br />

überreicht.<br />

Allen Genannten gilt noch einmal unser herzlicher Glückwunsch.<br />

Im Bereich der Lehre hat uns im Berichtsjahr der Bologna-Prozess sehr stark beschäftigt. Die Fakultät<br />

Elektrotechnik <strong>und</strong> Informationstechnik hat nach reiflicher Überlegung beschlossen, ihre drei Studiengänge<br />

nicht auf konsekutive Abschlüsse (Bachelor / Master) umzustellen, sondern das international<br />

angesehene <strong>Diplom</strong>studium beizubehalten. Gegenwärtig erfolgt die Modularisierung der <strong>Diplom</strong>studiengänge<br />

im Einklang mit den Bologna-Vorschriften.<br />

Im Hinblick auf die Entwicklung der Studentenzahlen gibt es für das Berichtsjahr keine guten Nachrichten.<br />

Die Fakultät immatrikulierte mit 324 Anfängerinnen <strong>und</strong> Anfängern wiederum reichlich 10 %<br />

weniger als im Vorjahr. Wir erklären uns diesen Effekt, der diesmal nicht im gesamtdeutschen Trend<br />

liegt, mit der im Berichtsjahr erfolgten Schließung des <strong>Dresden</strong>er Halbleiter-Herstellers Qimonda.<br />

In der Forschung zur Sprachverarbeitung macht sich im Drittmittelsektor bemerkbar, dass die meisten<br />

Konzerne ihre Forschung auf diesem Gebiet praktisch eingestellt haben. Dank der in den letzen Jahren<br />

erfolgten Verbreiterung unserer fachlichen Basis in Richtung einer allgemeiner verstandenen intelligenten<br />

Signalverarbeitung konnte die Finanzierung des wissenschaftlichen Nachwuchses trotzdem<br />

gesichert werden. Ich danke allen Förderinstitutionen <strong>und</strong> Industriepartnern, die sich gemeinsam mit<br />

uns für die Belange der Anwendung der Signal- <strong>und</strong> Systemtheorie auf sprachliche <strong>und</strong> nichtsprachliche<br />

Signale eingesetzt haben. Mein besonderer Dank gilt wieder Frau Wilhelmine Willkomm für die<br />

fortdauernde, großzügige Unterstützung der Lehre <strong>und</strong> Qualifizierung aus den Mitteln ihrer Stiftung.<br />

Allen Mitgliedern <strong>und</strong> Fre<strong>und</strong>en des Instituts für Akustik <strong>und</strong> Sprachkommunikation wünsche ich für<br />

2010 alles Gute, Ges<strong>und</strong>heit <strong>und</strong> Erfolg.<br />

<strong>Dresden</strong>, im Februar 2010 Rüdiger Hoffmann<br />

3


Inhaltsverzeichnis<br />

4<br />

Inhaltsverzeichnis<br />

Vorwort.................................................................................................................................................... 3<br />

Inhaltsverzeichnis .................................................................................................................................... 4<br />

1 Mitarbeiterinnen <strong>und</strong> Mitarbeiter ..................................................................................................... 6<br />

2 Lehre ................................................................................................................................................ 8<br />

2.1 Vorlesungen, Übungen, Praktika ................................................................................................ 8<br />

2.1.1 Pflichtfächer im Gr<strong>und</strong>- <strong>und</strong> Hauptstudium ....................................................................... 8<br />

2.1.2 Wahlobligatorische Fächer................................................................................................. 8<br />

2.1.3 Lehrveranstaltungen für andere Studiengänge (Nebenfach)............................................. 9<br />

2.1.4 Externe Lehrangebote ....................................................................................................... 9<br />

2.2 <strong>Studienarbeiten</strong> ........................................................................................................................ 10<br />

2.3 <strong>Diplom</strong>arbeiten ......................................................................................................................... 10<br />

2.4 Studienwerbung <strong>und</strong> Führungen.............................................................................................. 10<br />

3 Forschungsbericht.......................................................................................................................... 12<br />

3.1 Verarbeitung <strong>und</strong> Erkennung sprachlicher <strong>und</strong> nicht sprachlicher Signale............................... 12<br />

3.1.1 Theorie der akustischen Mustererkennung..................................................................... 12<br />

3.1.2 Sprachsteuerung für Mess- <strong>und</strong> Prüfgeräte .................................................................... 14<br />

3.2 Sprachsynthese ........................................................................................................................ 18<br />

3.2.1 Sprachsynthesesystem DRESS....................................................................................... 18<br />

3.2.2 Prosodische Analyse <strong>und</strong> Resynthese ............................................................................ 20<br />

3.3 Verarbeitung akustischer Signale (akustisches Frontend)........................................................ 21<br />

3.3.1 Robuste Spracherkennung in Räumen durch Beamforming ........................................... 21<br />

3.3.2 Multimodales, personalisiertes Bedienkonzept für Public Terminals – ..............................<br />

Mobiles Endgerät............................................................................................................. 22<br />

3.3.3 Nichtlineares Übertragungsverhalten von Kondensatormikrofonen................................ 23<br />

3.3.4 Untersuchungen zur Signalseparation für Zweikanalmikrofone ...................................... 24<br />

3.4 Anwendungen von Sprachtechnologie in Interaktionsforschung <strong>und</strong> Didaktik........................ 24<br />

3.4.1 Überblick .......................................................................................................................... 24<br />

3.4.2 Euronounce/ Intelligent Pronunciation Tutoring System ................................................. 25<br />

3.4.3 Prosodic impairment in dysarthria associated with Parkinson’s disease: Analysis-bysynthesis..........................................................................................................................<br />

30<br />

3.4.4 AvatR – Audio visual assistant turns Real........................................................................ 31<br />

3.4.5 Lingubär – Lehrmittel zur Förderung der kindlichen Sprachkompetenz .......................... 32<br />

3.4.6 CALL-Kooperation mit der Beuth Hochschule für Technik, Berlin................................... 33<br />

3.4.7 Multimediale Vorlesungsergänzung zur Systemtheorie <strong>und</strong> Signalverarbeitung ............ 34<br />

3.5 Verarbeitung von Musiksignalen .............................................................................................. 36<br />

3.5.1 Einordnung des Forschungsprojektes ............................................................................. 36<br />

3.5.2 Durchführung................................................................................................................... 37<br />

3.5.3 Vergleich statistischer Klassifikatoren zur Ermittlung musikalischer Aspekte................. 37<br />

3.6 Forschungsaktivitäten der Honorarprofessur Elektroakustik.................................................... 39<br />

3.7 Historische Aktivitäten.............................................................................................................. 39<br />

3.7.1 Bestandserschließung ..................................................................................................... 39<br />

3.7.2 Öffentlichkeitsarbeit ........................................................................................................ 39<br />

3.7.3 Projekte zu historischen phonetischen Geräten .............................................................. 41<br />

3.7.4 Geschichte der mechanischen Sprachsynthese.............................................................. 43<br />

4 Drittmittelprojekte <strong>und</strong> haushaltfinanzierte Forschung .................................................................. 44<br />

4.1 Drittmittelprojekte .................................................................................................................... 44<br />

4.2 Haushaltfinanzierte Forschung ................................................................................................. 45<br />

5 Veröffentlichungen ......................................................................................................................... 46<br />

5.1 Bücher, Buchbeiträge............................................................................................................... 46<br />

5.2 Veröffentlichungen in Zeitschriften .......................................................................................... 46<br />

5.3 TU-Informationen <strong>und</strong> Lehrmaterial ......................................................................................... 47<br />

5.4 Konferenzveröffentlichungen ................................................................................................... 47<br />

5.5 Vorträge (ungedruckt)............................................................................................................... 49


Inhaltsverzeichnis<br />

5.6 Patente ..................................................................................................................................... 51<br />

5.7 Forschungsberichte.................................................................................................................. 51<br />

5.8 Zeitungsbeiträge <strong>und</strong> Kurzmitteilungen.................................................................................... 51<br />

6 Promotionen................................................................................................................................... 52<br />

7 Habilitationen.................................................................................................................................. 52<br />

8 <strong>Diplom</strong>- <strong>und</strong> <strong>Studienarbeiten</strong>.......................................................................................................... 52<br />

8.1 <strong>Diplom</strong>-/Masterarbeiten............................................................................................................ 52<br />

8.2 <strong>Studienarbeiten</strong> ........................................................................................................................ 52<br />

9 Auszeichnungen <strong>und</strong> Ehrungen ..................................................................................................... 53<br />

9.1 Verleihung der Ehrenmedaille der <strong>Technische</strong>n <strong>Universität</strong> <strong>Dresden</strong> an ....................................<br />

Herrn Dr.-Ing. Rolf Dietzel, 26. Oktober 2009 .......................................................................... 53<br />

9.2 Innovationspreis Medizintechnik für ein TU-Projekt, 29. Oktober 2009................................... 55<br />

10 Wissenschaftliche Veranstaltungen ......................................................................................... 57<br />

10.1 Zwanzigste Konferenz Elektronische Sprachsignalverarbeitung, ............................................<br />

<strong>Dresden</strong>, 21. – 24. 9. 2009................................................................................................... 57<br />

10.1.1 Einordnung....................................................................................................................... 57<br />

10.1.2 Fachteil der ESSV, 21. – 23. 9. 2009 ............................................................................... 57<br />

10.1.3 Traditionstag, 23. / 24. 9. 2009 ........................................................................................ 58<br />

10.1.4 Zur Zukunft der ESSV ...................................................................................................... 60<br />

10.2 didacta 2009 – die Bildungsmesse Hannover, 10. – 14. 2. 2009......................................... 60<br />

10.3 Statusseminare des BMBF-Projekts „Sprachsteuerung für Mess- <strong>und</strong> Prüfgeräte“<br />

<strong>Dresden</strong>, 05. 03. <strong>und</strong> 03. 09. 2009 ...................................................................................... 61<br />

10.4 EURONOUNCE-Meetings in Bratislava, Wehlen <strong>und</strong> Poznan ............................................. 62<br />

10.5 Japanisch-deutscher Kooperationsworkshop, <strong>Dresden</strong>, 8./9. Dezember 2009................... 64<br />

10.6 ECESS-Treffen, <strong>Dresden</strong>, 18. - 19. Juni 2009 ...................................................................... 65<br />

10.7 Statusseminare des Projektes "Untersuchung des Einsatzes von Verfahren zur Analyse<br />

zeitlicher Verläufe bei der Extraktion perzeptueller musikalischer Attribute", .......................<br />

<strong>Dresden</strong>, 12. 05. <strong>und</strong> 03. 07. 2009 ...................................................................................... 65<br />

10.8 Tschechisch-deutscher Kooperationsworkshop, <strong>Dresden</strong>, 14. – 21. November 2009........ 66<br />

10.9 Wissenschaftliche Veranstaltungen zur Lautsprecherforschung......................................... 66<br />

10.9.1 Weiterbildungsveranstaltung „Assessment of Signal Distortion in Audio Systems“,<br />

<strong>Dresden</strong>, 5. – 7. 11. 2009 ................................................................................................ 66<br />

10.9.2 Gastvorlesung in Taiwan.................................................................................................. 67<br />

10.9.3 ALMA Symposium auf der Prolight + So<strong>und</strong> .................................................................. 67<br />

10.9.4 Weitere Schulungen, öffentliche Workshops <strong>und</strong> Seminare .......................................... 67<br />

11 Reisen....................................................................................................................................... 68<br />

12 Aktivitäten in der wissenschaftlichen Gemeinschaft ............................................................... 72<br />

12.1 Akademische Selbstverwaltung........................................................................................... 72<br />

12.2 Mitarbeit in Gremien ............................................................................................................ 72<br />

12.3 Mitarbeit in Programmkomitees .......................................................................................... 72<br />

5


6<br />

Mitarbeiterinnen <strong>und</strong> Mitarbeiter<br />

1 Mitarbeiterinnen <strong>und</strong> Mitarbeiter<br />

Hochschullehrer<br />

Telefon<br />

Prof. Dr.-Ing. habil. Rüdiger Hoffmann 32747<br />

Prof. Dr.-Ing. habil. W. Klippel<br />

Prof. Dr.-Ing. habil Dieter Mehnert<br />

Wissenschaftliche Mitarbeiterinnen <strong>und</strong> Mitarbeiter<br />

Honorarprofessor<br />

externer Mitarbeiter<br />

33106<br />

Dr.-Ing. Ute Feldmann bis 30.09.2009<br />

Dipl.-Ing. Oliver Jokisch 32289<br />

PD Dr.-Ing. Ulrich Kordon 32240<br />

Dipl.-Ing. Mathias Kortke 34849<br />

Dr.-Ing. Matthias Wolff 36298<br />

Wissenschaftliche Mitarbeiterinnen <strong>und</strong> Mitarbeiter auf Drittmittelstellen, Doktoranden, WHK<br />

Dr. phil. Hongwei Ding bis 30.08.2009<br />

Dipl.-Ing. Frank Duckhorn BMBF 34839<br />

Dipl.-Ing. Thomas Fehér AiF 32721<br />

MSc. Hamurabi Gamboa Rosales Stipendium/WHK 34839<br />

Dipl.-Ing. Hussein Hussein Stipendium/WHK/Beuth-Hochschule 32289<br />

für Technik Berlin<br />

Dipl.-Ing. Stephan Hübler seit 14.4.2009, mufin GmbH 32799<br />

Dipl.-Slaw. Rainer Jäckel EU 34283<br />

Dipl.-Ing. Dietmar Richter Microtech Gefell GmbH 32275<br />

Dipl.-Ing. Guntram Strecha BMBF 34849<br />

Dipl.-Inf. Constanze Tschöpe FhG 36298<br />

Dipl.-Ing. Sören Wittenberg AiF 32275<br />

Ingenieure<br />

Dipl.-Ing. Steffen Kürbis 33395<br />

Gastwissenschaftlerinnen <strong>und</strong> Gastwissenschaftler<br />

Dr. Joan Ma Humboldt-Stiftung 32799<br />

Dr. Liliya Tsirulnik DAAD (01.09. – 31.10.2009)<br />

Doc. PhDr. Jan Volín, Ph.D.<br />

DAAD-Förderprogramm Ostpartner-<br />

Mgr. Radek Skarnitzl, Ph.D.<br />

schaften – Kooperation mit der<br />

Karlsuniversität Prag<br />

(14.11. – 21.11.2009)


Stipendiaten<br />

Dr.-Ing. Udo Hain<br />

Dipl. Medienwirtin Karina Matthes<br />

Dr.-Ing. Rico Petrick<br />

Mitarbeiterinnen <strong>und</strong> Mitarbeiter<br />

exist-Gründerstipendium seit<br />

01.06.2009<br />

Dipl.-Ing. Katja Krampitz exist-Gründerstipendium 01. 06. -<br />

31.08.2009<br />

Dipl.-Inf. Niels Baumbach<br />

Dipl.-Wirtsch.-Ing. Toni Homuth<br />

Robert Granich<br />

exist-Gründerstipendium bis<br />

30.09.2009<br />

ABM/AGH E (Historische akustisch-phonetische Sammlung)<br />

Dipl.-Ing. Hans-Dieter Keil bis 31.3.2009 ABM<br />

seit 1.7.2009 AGH E<br />

Sekretärin<br />

32449<br />

32721<br />

Barbara Wrann 37656<br />

7


2 Lehre<br />

2.1 Vorlesungen, Übungen, Praktika<br />

8<br />

Lehre<br />

Im Sommersemester 2009 <strong>und</strong> im Wintersemester 2009/2010 wurden die folgenden Lehrveranstaltungen<br />

durchgeführt:<br />

2.1.1 Pflichtfächer im Gr<strong>und</strong>- <strong>und</strong> Hauptstudium<br />

Vorlesung Systemtheorie I (Prof. Hoffmann)<br />

2 SWS Vorlesung, 1 SWS Übung<br />

Studiengänge Elektrotechnik, Informationssystemtechnik, Mechatronik u. Nebenfach<br />

WS 09/10<br />

3. Semester<br />

300 Hörer<br />

Vorlesung Systemtheorie II (Prof. Hoffmann) SS 09<br />

2 SWS Vorlesung, 2 SWS Übung 4. Semester<br />

Studiengänge Elektrotechnik, Informationssystemtechnik, Mechatronik <strong>und</strong> Nebenfach<br />

336 Hörer<br />

Vorlesung Systemtheorie III (Stochastische Signale <strong>und</strong> Systeme)<br />

(Prof. Hoffmann)<br />

2 SWS Vorlesung, 2 SWS Übung<br />

Studienrichtung Informationstechnik, Wahlfach für Studiengänge Informationssystemtechnik<br />

<strong>und</strong> Mechatronik<br />

Vorlesung Signalverarbeitung (Prof. Hoffmann)<br />

2 SWS Vorlesung, 1 SWS Übung<br />

Studienrichtung Informationstechnik, Studiengang Informationssystemtechnik <strong>und</strong><br />

Nebenfach<br />

Praktikum Mikrorechentechnik II (Mitwirkung)<br />

Versuch „Akustischer Schalter“ (PD Dr. Kordon <strong>und</strong> Mitarbeiter)<br />

Studiengang Elektrotechnik<br />

Übung Gr<strong>und</strong>lagen der Elektrotechnik (Mitwirkung)<br />

(PD Dr. Kordon, Dipl.-Ing. Kortke)<br />

2.1.2 Wahlobligatorische Fächer<br />

Doktorandenseminar Systemtheorie <strong>und</strong> Sprachtechnologie<br />

2 SWS Seminar<br />

Vorlesung Signalanalyse <strong>und</strong> –erkennung (Prof. Hoffmann)<br />

2 SWS Vorlesung, 1 SWS Übung<br />

Vorlesung <strong>Technische</strong> Sprachkommunikation (PD Dr. Kordon)<br />

2 SWS Vorlesung<br />

WS 09/10<br />

5. Semester<br />

40 Hörer<br />

WS 09/10<br />

5. Semester<br />

60 Hörer<br />

SS 09<br />

4. Semester<br />

40 Teilnehmer<br />

WS 09/10<br />

1. Semester<br />

24 Teilnehmer<br />

SS 09 <strong>und</strong><br />

WS 09/10<br />

10 Teilnehmer<br />

SS 09<br />

6. Semester<br />

20 Hörer<br />

SS 09<br />

6. Semester<br />

21 Hörer


Lehre<br />

Praktikum Akustik<br />

(gemeinsam mit der Professur Kommunikationsakustik)<br />

3 SWS Praktikum<br />

Hauptseminar Systemtheorie-Sprachtechnologie-Kommunikationsakustik<br />

(gemeinsam mit der Professur Kommunikationsakustik,<br />

Koordinator: Dipl.-Ing. Jokisch)<br />

1 SWS Seminar<br />

Akustische Mustererkennung (Dr. Wolff)<br />

2 SWS Vorlesung<br />

Vorlesung Sprachsynthese (PD Dr. Kordon)<br />

1 SWS Vorlesung<br />

Audiosignalverarbeitung<br />

(PD Dr.-Ing. Kordon/Dipl.-Ing. Kürbis)<br />

2 SWS Vorlesung, 1 SWS Praktikum<br />

Praktikum <strong>Technische</strong> Sprachkommunikation (PD Dr. Kordon)<br />

3 SWS Praktikum<br />

Vorlesung Aktive Steuerung von Schall <strong>und</strong> Schwingungen (Prof. Klippel)<br />

2 SWS Vorlesung<br />

Bewertung von Signalverzerrungen in Audiosystemen (Prof. Klippel)<br />

Blockveranstaltung<br />

2.1.3 Lehrveranstaltungen für andere Studiengänge (Nebenfach)<br />

Vorlesung Einführung in die Systemtheorie (PD Dr. Kordon)<br />

2 SWS Vorlesung, 1 SWS Übung<br />

2.1.4 Externe Lehrangebote<br />

Konzipieren, Generieren <strong>und</strong> Explorieren akustisch-phonetischer Korpora<br />

(Dipl.-Slaw. Jäckel)<br />

Vortrag im Hauptseminar Angewandte Phonetik (Institut für Germanistik)<br />

Sprachverarbeitung (PD Dr. Kordon)<br />

Lehrauftrag BTU Cottbus<br />

WS 09/10<br />

7. Semester<br />

2 Teilnehmer<br />

WS 09/10<br />

7. Semester<br />

3 Hörer<br />

WS 09/10<br />

7. Semester<br />

4 Hörer<br />

WS 09/10<br />

7. Semester<br />

5 Hörer<br />

WS 09/10<br />

7. Semester<br />

11 Teilnehmer<br />

WS 09/10<br />

7. Semester<br />

SS 09<br />

3 Hörer<br />

WS 09/10<br />

ca. 80 Hörer<br />

WS 09/10<br />

3. Semester<br />

36 Hörer<br />

27.05.09<br />

ca. 60 Hörer<br />

WS 09/10<br />

ca. 30 Hörer<br />

9


2.2 <strong>Studienarbeiten</strong><br />

10<br />

Lehre<br />

Im Berichtszeitraum wurden am Institut für Akustik <strong>und</strong> Sprachkommunikation 3 <strong>Studienarbeiten</strong><br />

angefertigt. Die Themen, die Bearbeiter <strong>und</strong> die Betreuer der Arbeiten sind im Abschnitt 8.2 aufgeführt.<br />

2.3 <strong>Diplom</strong>arbeiten<br />

Im Berichtszeitraum wurden am Institut für Akustik <strong>und</strong> Sprachkommunikation 5 <strong>Diplom</strong>arbeiten angefertigt.<br />

Die Themen, die Bearbeiter <strong>und</strong> die Betreuer der Arbeiten sind im Abschnitt 8.1 aufgeführt.<br />

2.4 Studienwerbung <strong>und</strong> Führungen<br />

Schnupperstudium am 8. Januar 2009<br />

Vorlesungen:<br />

• Einführung in die Systemtheorie (Vorlesung 3. Semester) PD Dr. Kordon<br />

• Systemtheorie I (Vorlesung 3. Semester) Prof. Hoffmann<br />

• Spracherkennung I (Vorlesung 7. Semester) Dr. Wolff<br />

Laborbesichtigung mit Experimenten<br />

• Labor für Spracherkennung <strong>und</strong> Sprachsynthese PD Dr. Kordon<br />

Betreuung von Schülerpraktika<br />

Zwei Schüler absolvierten an der Professur jeweils ein zweiwöchiges Betriebspraktikum. Dabei wurden<br />

die Aufbereitung <strong>und</strong> Digitalisierung historischer Sprach- <strong>und</strong> Musikaufnahmen der historischen<br />

akustisch-phonetischen Sammlung weiter fortgeführt.<br />

Sommeruniversität<br />

Im Rahmen der Sommeruniversität fanden im Juni <strong>und</strong> Juli 2009 (25.06., 02.07., 09.07., 16.07.) vier<br />

Veranstaltungen statt an denen insgesamt 52 Schülerinnen <strong>und</strong> Schüler teilnahmen). Diese Veranstaltungen<br />

wurden in Zusammenarbeit mit dem Lehrstuhl für Kommunikationsakustik durchgeführt.<br />

Von der Professur für Systemtheorie <strong>und</strong> Sprachtechnologie erfolgte eine Einführung in die Sprachanalyse<br />

<strong>und</strong> Sprachsynthese durch PD Dr. Kordon <strong>und</strong> Dipl.-Ing. Wittenberg.<br />

Es wurde das Labor für Spracherkennung <strong>und</strong> Sprachsynthese besichtigt.<br />

Lange Nacht der Wissenschaften<br />

Am 19. Juli 2009 beteiligte sich die Professur zum wiederholten Male mit<br />

• der Präsentation von Experimenten im Spracherkennungs- <strong>und</strong> Sprachsyntheselabor <strong>und</strong><br />

• der Vorstellung der historischen akustisch-phonetischen Sammlung unter dem Titel „Forschen<br />

wie Professor Higgins“<br />

• Demonstration der adaptiven Lautsprechersteuerung (Prof. Klippel)<br />

an der Langen Nacht der Wissenschaften.<br />

Es konnten wieder mehrere h<strong>und</strong>ert Besucher an diesem Abend begrüßt werden.


Lehre<br />

Besuch einer Schülergruppe des HOGA-Gymnasiums<br />

an der Fakultät Elektrotechnik <strong>und</strong> Informationstechnik<br />

am 5.2.2009<br />

Anteil der Professur Systemtheorie <strong>und</strong> Sprachtechnologie:<br />

Fachvortrag „Denken in Systemen“<br />

Herr Prof. R. Hoffmann (Inst. für Akustik <strong>und</strong> Sprachkommunikation) demonstriert am Beispiel seines<br />

Fachgebietes, der Mensch-Maschine-Kommunikation mittels natürlicher Sprache, unsere prinzipielle<br />

Vorgehensweise bei der Beschreibung von Systemen sowie zur Lösung ingenieurtechnischer Aufgaben<br />

Stammtisch der VDE-Hochschulgruppe<br />

am 16.06.2009<br />

„Sprachsynthese – wie baue ich mir eine Stimme?“<br />

Vortrag <strong>und</strong> Diskussion PD Dr.-Ing. U. Kordon<br />

Es konnten ca. 15 Teilnehmer begrüßt werden.<br />

Besuch einer Gruppe von Schülern des Goethe-Insituts<br />

an der Fakultät Elektrotechnik <strong>und</strong> Informationstechnik<br />

am 27.08.2009<br />

60 Schüler <strong>und</strong> 10 Betreuer des Goethe-Instituts<br />

Anteil der Professur Systemtheorie <strong>und</strong> Sprachtechnologie:<br />

Vortrag: Dipl.-Ing. Wittenberg<br />

Demonstration des Spracherkenners: Dipl.-Ing. Duckhorn<br />

Exkursion von Studenten der HTW <strong>Dresden</strong><br />

am 10.09.2009<br />

Vorstellung des Arbeitsgebietes Sprachtechnologie<br />

Ausstellung SprachSignale in den <strong>Technische</strong>n Sammlungen der Stadt <strong>Dresden</strong><br />

Führung durch die Ausstellung<br />

am 2.10.2009<br />

führte Dipl.-Ing. Fehér 35 Schüler des Schiller-Gymnasiums Pirna durch die Ausstellung SprachSignale<br />

Vortrag im Rahmen des Turmfestes<br />

am 8.11.2009<br />

Professor Hoffmann<br />

Von legendären sprechenden Köpfen zu elektronischen „talking heads“<br />

Vortrag<br />

am 6.12.2009<br />

PD Dr.-Ing. Kordon<br />

Wie „hört“ <strong>und</strong> „spricht“ ein Computer“?<br />

11


3 Forschungsbericht<br />

12<br />

Forschungsbericht<br />

3.1 Verarbeitung <strong>und</strong> Erkennung sprachlicher <strong>und</strong> nicht<br />

sprachlicher Signale<br />

In diesem Abschnitt berichten wir über die verschiedenen Arbeiten, die im Rahmen der Weiterentwicklung<br />

<strong>und</strong> Anwendung unserer Plattform UASR (Unified Approach to Signal Synthesis and<br />

Recognition) durchgeführt wurden.<br />

Zunächst wird auf die Weiterentwicklung der theoretischen Basis eingegangen. Diese Ergebnisse<br />

sind im Zusammenhang mit den Anwendungen auf nicht sprachliche Signale entstanden. Wie aus<br />

den vorhergehenden Jahresberichten bekannt ist, hat sich dieser Anwendungsbereich stark ausgedehnt.<br />

Danach erfolgt die Beschreibung der Arbeiten, die im Berichtszeitraum im Rahmen des vom BMBF<br />

geförderten Projekts „Sprachsteuerung für Mess- <strong>und</strong> Prüfgeräte (SSMG)“ durchgeführt wurden <strong>und</strong><br />

die Umsetzung des UASR in Hardware zum Ziel haben. Diese Arbeiten stehen in engem Zusammenhang<br />

mit den Projekten zu nicht sprachlichen Signalen.<br />

3.1.1 Theorie der akustischen Mustererkennung<br />

Auf dem Gebiet der akustischen Mustererkennung wurde im Berichtszeitraum die theoretische<br />

Gr<strong>und</strong>lage weiterentwickelt. Dies betrifft speziell eine verbesserte mathematische Formulierung von<br />

Hidden-Markov-Modellen, welche die Lücke zur Theorie der Finite-State-Transducers (endliche Transduktoren)<br />

schließt.<br />

Eigenschaften von Prüfobjekten äußern sich als typische Ausprägungen <strong>und</strong> zeitliche Abfolgen von<br />

Signalereignissen. Mit Hilfe von Verfahren der Signalanalyse, Merkmalextraktion, -kompression <strong>und</strong><br />

statistischen Mustererkennung werden automatisch Modelle der Messsignale erstellt. Diese Modelle<br />

können zur Beurteilung unbekannter Prüfobjekte benutzt werden. Es werden Hidden-Markov-Modelle<br />

(HMM) <strong>und</strong> Support Vector Machines (SVM) oder in einfachen Fällen Gaussian Mixture Models<br />

(GMM) eingesetzt. Da diese Verfahren lernfähig <strong>und</strong> problemunabhängig sind, eignen sie sich im Prinzip<br />

für jede akustische Diagnose. Sie benötigen wenig oder gar kein a-priori-Wissen, sind skalierbar<br />

<strong>und</strong> echtzeitfähig. Fallen Daten mehrerer Sensoren an, können diese kombiniert werden, um eine<br />

Gesamtaussage zu treffen.<br />

Anhand einer speziellen Prüfaufgabe, der Erkennung eines bevorstehenden Ausfalls von Magnetventilen,<br />

soll die Verfahrensweise genauer erläutert werden. Das Schaltgeräusch eines Ventils beim Öffnen<br />

<strong>und</strong> Schließen ist in Abbildung 3.1 dargestellt. In dessen Signalstruktur ist das Auftreten von Ereignissen<br />

besonders deutlich erkennbar (Abbildung 3.1, oben: mit den vier Ereignissen E0 – „geschlossen“,<br />

E1 – „öffnen“, E2 – „offen“, E3 – „schließen“). Bei der Merkmalextraktion werden aus<br />

dem Signal in gleichmäßigen Abständen einzelne Merkmalvektoren <strong>und</strong> somit insgesamt eine Merkmalvektorfolge<br />

gebildet(Abbildung 3.1, Mitte). Die interessierenden Eigenschaften liegen nicht nur in<br />

einem Spektrum (räumliche Eigenschaften), sondern auch in der Folge von Spektren (zeitliche Struktur).<br />

Eine kurze Folge von Merkmalvektoren beschreibt ein akustisches Ereignis (z. B. E1: öffnen).<br />

Diese Ereignisse werden bei HMMs in Form von Verteilungsdichtefunktionen beschrieben.<br />

Die Modellierung von Folgen solcher Ereignisse, also der Signalstruktur, erfolgt als Markov-Kette erster<br />

Ordnung (typisch für Folgenklassifikatoren). Jeder mögliche Zustandsübergang tritt mit einer bestimmten<br />

Wahrscheinlichkeit auf (Abbildung 3.1 unten). Die Zustandsfolge in diesem Beispiel ist offensichtlich,<br />

sie muss jedoch nicht bekannt sein, da das System in der Lage ist, diese selbst zu lernen.<br />

Im Ablauf der Arbeiten konnte die HMM-Theorie weiter entwickelt werden. Dies führte zu einer einheitlichen<br />

Darstellung zur Bestimmung der Ausgabewahrscheinlichkeit <strong>und</strong> der EM-Schätzformeln in<br />

den Wahrscheinlichkeits-, Max/Mal-, logarithmischen <strong>und</strong> tropischen Halbringen (Forward/Backward-<br />

vs. Viterbi-Algoritmus, Baum-Welch- vs. Viterbi-Training, Abbildung 3.2).


Forschungsbericht<br />

Abbildung 3.1: Ablauf der Signalklassifikation mit Unterteilung des Signals in Ereignisse (oben), Darstellung<br />

der Merkmalvektorfolge nach Kurzzeit-FFT (Mitte) <strong>und</strong> statistischer Modellierung (unten).<br />

13


14<br />

Forschungsbericht<br />

Abbildung 3.2: Vereinheitlichte Darstellung von Forward/Backward- <strong>und</strong> Viterbi-Algorithmus,<br />

Details siehe [1].<br />

Die Formeln zur HMM-Parameterschätzung können dadurch folgendermaßen dargestellt werden:<br />

mit<br />

In Abhängigkeit von dem gewählten Gewichtshalbring stellen diese Formeln gleichzeitig das Baum-<br />

Welch- <strong>und</strong> das Viterbi-Training dar. Eine genauere Erläuterung findet man in [1].<br />

[1] C. Tschöpe, M. Wolff: Statistical Classifiers for Structural Health Monitoring. IEEE Sensors<br />

Journal 9 (2009) 11, pp. 1567 - 1576.<br />

3.1.2 Sprachsteuerung für Mess- <strong>und</strong> Prüfgeräte<br />

Fortführung der DSP-Portierung des Spracherkenners<br />

Im Berichtsjahr 2009 wurde der C++ Spracherkenner, welcher 2008 auf den Digitalen Signalprozesser<br />

TMS320C6727 von Texas Instruments portiert wurde, optimiert <strong>und</strong> an die FPGA-Impementierung<br />

der Merkmalanalyse durch das Fraunhofer Institut für zerstörungsfreie Prüfung (IZfP) angepasst. Hierzu<br />

wurden folgende Schritte durchgeführt:<br />

1. Der Ablaufplan des Spracherkenners, wie er im Jahresbericht 2009 abgedruckt war, musste<br />

an die Implementierung der Merkmalextraktion auf dem FPGA sowie den neuen Entwurf der<br />

akustischen Nutzerschnittstelle angepasst werden.<br />

2. In Abbildung 3.3 ist der veränderte Ablaufplan dargestellt. Zum Einen wurde in den Pfad der<br />

Merkmale für die Voice activity detection (VAD) ein Block mit Normalisierung <strong>und</strong> Hauptkomponentenanalyse<br />

(PCA) eingefügt. Hierdurch kann die Dimenstion der Merkmale von 30 auf<br />

10 reduziert werden. Somit wird Speicherplatz <strong>und</strong> Rechenzeit für die Berechnung der Mahalanobisdistanzen<br />

der VAD gespart. Zum Anderen wurde die Entscheidung ob der Merkmals-


Forschungsbericht<br />

vektor verwendet wird oder nicht ans Ende der Merkmalextraktion verschoben (also nach den<br />

Block GMM – gewichtete Summe). Dadurch konnte der VAD Puffer 1 eingespart werden <strong>und</strong><br />

dessen Aufgabe (die Vektoren um die Verzögerungszeit der VAD zu puffern) wurde vollständig<br />

vom SFA Puffer übernommen. So reduziert sich die gesamte Verzögerung um die Verzögerung<br />

der Delta-Berechnung. Außerdem wird die Merkmalextraktion im FPGA nicht mehr<br />

durch die VAD beeinflusst werden.<br />

3. Die DSP-Software wurde in das FPGA Demonstrationsprogramm des IzfP integriert. Hierfür<br />

wurden die berechneten Mahalanobisdistanzen aus dem FPGA übernommen <strong>und</strong> in den Ablauf<br />

der Suche eingefügt. Im Weiteren wurde die Synchronisation mit der akustischen Nutzerschnittstelle<br />

realisiert <strong>und</strong> die Übertragung von Erkennungsergebnissen sowie Debug-<br />

Information zum Steuerprogramm auf dem PC über USB ermöglicht.<br />

4. Die Spracherkennung wurde um die Verwendung von kontextfreien Grammatiken erweitert.<br />

Dadurch kann in Grammatiken der Form „Größe Zahl Einheit“ eine Beziehung zwischen Größe<br />

<strong>und</strong> Einheit abgebildet werden (was in regulären Grammatiken nicht möglich ist). Die Suche<br />

verarbeitet diese Grammatiken mit einem integrierten Kellerautomaten.<br />

5. Ein kleiner Speichermanager im DSP für temporäre Daten beschleunigt den Speicherzugriff.<br />

Alle Daten, die für die Suche benötigt werden passen nicht in den internen Speicher des<br />

DSPs. Da dieser aber deutlich geringere Zugriffszeiten als der externe Speicher hat wurde ein<br />

Speichermanager implementiert, der Restkapazitäten im internen Speicher für die Suche<br />

nutzt. Dadurch konnte der Echtzeitfaktor für die Suche von 50 - 70% auf 15 - 40% reduziert<br />

werden.<br />

Voice activity detection (VAD) für den DSP-Spracherkenner<br />

Der DSP-Spracherkenner wurde um eine Voice Activity Detection (VAD) erweitert. Diese verwendet<br />

die primären Merkmale des Spracherkenners. Dadurch wird eine zweite Merkmalextraktion für die<br />

VAD nicht benötigt. Die Verarbeitung der Merkmalvektoren ist analog zu Verarbeitung in dem Spracherkennungszweig<br />

aufgebaut (Hauptkomponentenanalyse, Mahalanobisdistanz, GMM). So wurde der<br />

Implementierungsaufwand deutlich reduziert. Die Entscheidung ob ein Vektor als Sprache oder Pause<br />

detektiert wird fällt auf das GMM mit der größten Wahrscheinlichkeit. Anschließend wird diese Entscheidung<br />

noch durch einen Zustandsautomaten über mehrere Vektoren geglättet. Dabei fügt dieser<br />

bestimmte Restriktionen (minimale Sprach- <strong>und</strong> Pausenlänge, Vor- <strong>und</strong> Nachlauf) in die Folge der<br />

Entscheidungen ein. Wenn der Signalpegel innerhalb eines Sprachabschnitts einen bestimmten<br />

Schwellwert überschreitet, wird dieser Abschnitt endgültig als Sprache markiert <strong>und</strong> der Spracherkennung<br />

zugeführt.<br />

DSP-Portierung von Algorithmen zur HMM-basierten Sprachsynthese<br />

Für das BMBF-Projekt „Sprachsteuerung für Mess- <strong>und</strong> Prüfgeräte“ wurde bereits im vorangegangenen<br />

Berichtszeitraum eine HMM-basierte Sprachsynthese entwickelt. Um den Speicherverbrauch zu<br />

minimieren, verwendet das Synthesesystem die Datenbasen (speziell: die Hidden-Markov-Modelle)<br />

des Erkennungssystems. Aufgr<strong>und</strong> der Verwendung dieser sprecherunabhängigen Modelle ist eine<br />

Konvertierung zum Zielsprecher notwendig. Um den Rechenaufwand zu Minimieren erfolgt die Konvertierung<br />

an den vom HMM emittierten Merkmalvektoren durch eine lineare Transformation in Form<br />

einer Multiplikation mit einer sprecherabhängigen Konvertierungsmatrix.<br />

15


16<br />

Forschungsbericht<br />

Abbildung 3.3: Blockschaltbild der Erkenner-Hardware


Forschungsbericht<br />

Im aktuellen Berichtszeitraum wurden die Algorithmen des Synthesesystems auf die Zielplattform<br />

portiert. Der verwendete DSP besitzt eine 32-bit Fließkommaeinheit, sodass die im Experimentiersystem<br />

vorliegenden Algorithmen doppelter Genauigkeit (64-bit) auf einfache Genauigkeit (32-bit) reduziert<br />

wurden. Folgende Algorithmen wurden portiert:<br />

1 Periodenmarkenfolge aus der Gr<strong>und</strong>frequenzkontur erzeugen,<br />

2 Merkmalvektorfolge anhand der Zustandsfolge aus den HMMs generieren,<br />

3 inverse Hauptkomponentenanalyse (PCA).<br />

4 Sprecheradaption: Transformation der Merkmalvektorfolge in eine Folge von mel-line cepstral<br />

quefrencies (M-LCQ).<br />

5 Synchronisieren der M-LCQ- <strong>und</strong> Periodenmarkenfolge.<br />

6 Glättung der M-LCQ-Vektorfolge.<br />

7 Synthesefilter:<br />

a) Denormalisierung.<br />

b) M-LCQ zu Mel-Cepstrum Transformation<br />

c) Mel-Cepstrum-Synthesefilter.<br />

Die Rechengenauigkeit einiger Algorithmen nach der Reduktion der Bitbreite auf 32 bit war so gering<br />

(besonders 7b), dass diese Algorithmen inhaltlich umgestellt werden mussten. Die portierten Algorithmen<br />

wurden auf der Zielplattform getestet. Die Rechengenauigkeit der gesamten Verarbeitungskette<br />

ergibt sich aus der Differenz (siehe Abbildung 3.4, schwarzes Signal mit rechter Ordinate) zwischen<br />

den Synthesesignalen erzeugt mit den Experimentiersystem (siehe Abbildung 3.4, graues Signal<br />

mit linker Ordinate) <strong>und</strong> der portierten Synthese.<br />

Abbildung 3.4: Beispiel für Signalfehler bei der HMM-Sprachsynthese durch Verwendung von 32 Bit<br />

anstelle von 64 Bit Gleitkomma-Arithmetik (grau: Originalsignal, schwarz: Fehlersignal)<br />

17


3.2 Sprachsynthese<br />

3.2.1 Sprachsynthesesystem DRESS<br />

18<br />

Forschungsbericht<br />

Die Entwicklungsarbeiten am <strong>Dresden</strong>er Sprachsynthesesystem DRESS konzentrierten sich im Berichtsjahr<br />

auf die Einbeziehung der Korpussynthese, die im Rahmen des Promotionsvorhabens von<br />

Herrn Gamboa bearbeitet wird. Dabei wurde eine Maximum-Likelihood-Bausteinauswahl entwickelt,<br />

die auf einer Mappinganalyse der Verkettungssubkosten (VK), der BAYES-Klassifikation (BK) <strong>und</strong><br />

der Maximum-Likelihood (ML)-Methode basiert. Der Hauptvorteil dieses neuen Bausteinauswahlverfahrens<br />

ist, dass kein langwieriges Training mehr notwendig ist, um die gewichteten Koeffizienten für<br />

die VK zu bestimmen.<br />

Mappinganalyse: Das Mapping erfolgt über eine Berechnung (offline) der VK zwischen den Bausteinen<br />

in der Datenbank, die keine oder die ungewünschten Verzerrungen aufweisen, wenn sie verkettet<br />

werden. Die VK werden durch die Abstandsberechnung zwischen den Eigenschaften der Bausteine<br />

wie Multiple-Centroid-Analyse (MCAs), Linear Spectral Frequencies (LSF) <strong>und</strong> MFCC an der linken<br />

<strong>und</strong> rechten Grenze abgeschätzt. Bei der Anwendung einer Datenbank wird das Mapping der VK, die<br />

keine Verzerrungen bei der Verkettung zeigen, durch die Abstandsberechnungen zwischen den Bausteinen<br />

durchgeführt, die in einem Wort oder Satz der Datenbank aufeinander folgen. Das Mapping<br />

der VK der ungewünschten Verzerrungen erfolgt über einen festgelegten Satz an Bausteinen. Diese<br />

Bausteine entstammen aus verschiedenen Wörtern <strong>und</strong> Sätzen der Datenbank <strong>und</strong> somit aus verschiedenen<br />

phonetischen Kontexten. Daher sind sie mehrheitlich nicht richtig verkettet.<br />

BAYES-Klassifikation: Nach dem Mapping der VK müssen die glatten <strong>und</strong> verzerrten Verkettungsflächen<br />

festgelegt werden. Dazu kommt die Unterscheidungsfunktion eines BAYES-Klassifikators mit<br />

normalverteilten Merkmalvektoren zur Anwendung. Die Abbildung 3.5 zeigt eine zweidimensionale<br />

Mappinganalyse, wobei beide Verkettungsflächen durch die Trennfunktion d12( x r ) abgegrenzt werden.<br />

Abbildung 3.5: Trennfunktion.<br />

Bausteinauswahlprozess: Der Vorgang der Bausteinauswahl besteht aus verschiedenen Stufen, die<br />

in Abbildung 3.6 zu sehen sind. Zunächst werden die Bausteinkandidaten in der großen Datenbank<br />

durch den Backward-Oracle-Matching-Algorithmus gesucht. Dieser wählt alle Bausteinfolgen aus, die<br />

der linguistisch-phonetischen Umsetzung des zu synthetisierenden Textes entsprechen. Danach werden<br />

die MCAs, LSF <strong>und</strong> MFCC der gef<strong>und</strong>enen Bausteine an den Grenzen zum vorhergehenden (linke<br />

Grenze) <strong>und</strong> nachfolgenden Baustein (rechte Grenze) berechnet <strong>und</strong> in einem Vektor abgebildet.<br />

Im Anschluss wird der Abstand zwischen dem Vorgänger <strong>und</strong> dem Kandidatenbaustein des gewünschten<br />

zu synthetisierten Sprachsignals berechnet.


Forschungsbericht<br />

Abbildung 3.6: Ablauf der Maximum-Likelihood-Bausteinauswahl.<br />

Der berechnete VK-Abstandsvektor der Bausteine wird von dem BK verarbeitet. Der BK klassifiziert<br />

die Verkettung zwischen den Bausteinen in glatte <strong>und</strong> verzerrte Verkettungstypen mit Hilfe der entsprechenden<br />

Trennfunktion. Die Übergänge aus der Netzmatrix, von deren Bausteinen festgestellt<br />

wurde, dass sie nicht verzerrungsfrei verketten <strong>und</strong> dessen VK laut Trennfunktion nicht in der glatten<br />

Verkettungsfläche liegen, werden entfernt (Abbildung 3.6). Dies bedeutet, dass sie nicht mehr für den<br />

Bausteinauswahlprozess berücksichtigt werden. Durch den Ausschluss der verzerrt verkettenden<br />

Bausteine verringert sich der Zeit- <strong>und</strong> Rechenaufwand der Bausteinauswahl. Danach werden die<br />

noch vorhandenen Bausteine durch die entsprechende vorher erhaltene Verteilung des glatten Verkettungstyps<br />

aus der Mappinganalyse mit Hilfe der ML-Methode verarbeitet. Dabei wird die Wahrscheinlichkeit<br />

einer glatten Verkettung zwischen den Bausteinen berechnet. Die erhaltenen Wahrscheinlichkeiten<br />

der glatt verkettenden Bausteine werden als einzige dglatt( x r ) Verkettungkosten in der Netzmatrix<br />

beibehalten (Abbildung 3.7).<br />

Abbildung 3.7 zeigt die Entfernung der Übergänge zwischen den Bausteinen mit verzerrtem Verkettungstyp.<br />

Schließlich wird nach der Anwendung der ML-Bausteinauswahl im nächsten Schritt genau<br />

die Bausteinfolge durch die Anwendung des Viterbi-Algorithmus ausgesucht, die in der Netzmatrix<br />

minimale Ziel- <strong>und</strong> Verkettungskosten aufweist, um das erwünschte Sprachsignal mit möglichst geringen<br />

Verzerrungen über die konkatenative Sprachsynthese zu erhalten.<br />

Abbildung 3.7: Entfernung der Übergänge zwischen den Bausteinen mit verzerrtem Verkettungstyp<br />

<strong>und</strong> Einführung von Wahrscheinlichkeit der glatten Verkettungen als Verkettungskosten.<br />

19


20<br />

Forschungsbericht<br />

3.2.2 Prosodische Analyse <strong>und</strong> Resynthese<br />

Die Natürlichkeit der synthetisierten Sprache hängt von der automatischen Extraktion der prosodischen<br />

Eigenschaften <strong>und</strong> der prosodischen Modellierung ab. Ziel der im Rahmen des Promotionsvorhabens<br />

von Herrn Hussein durchgeführten Untersuchungen ist die Übertragung einer Zielprosodie im<br />

Rahmen einer Resynthese.<br />

Abbildung 3.8: Resynthese der extrahierten Akzente <strong>und</strong> Phrasen mit Hilfe eines Cepstrum-Vocoders.<br />

Die Akzent <strong>und</strong> Phrasen wurden durch die Analyse der F0-Kontur mit Hilfe des Fujisaki-Models markiert.<br />

Die Periodenmarken (PM) dienen als prosodische Merkmale für den Cepstrum-Vocoder. Um das<br />

Konzept der „Analyse durch Resynthese“ zu implementieren, wurden die Periodenmarken von verschiedenen<br />

Positionen des Akzent- <strong>und</strong> Phrasenmarkierungsalgorithmus (siehe Abbildung 3.8) berechnet.<br />

Diese Positionen sind: A - originale PM; B - PM der berechneten F0-Kontur; C - Konversion<br />

der Fujisaki-Parameter zu PM; D - Konversion der modifizierten Fujisaki-Parameter zu PM.<br />

Ein Hörtest (Preference test) wurde zur Prüfung der Qualität der resynthetisierten Sprachsignale<br />

durchgeführt. 20 Personen haben an diesem Hörtest teilgenommen; jede Person hat 60 Paare von<br />

Sprachsignalen verglichen. Die Ergebnisse des Hörtestes sind in Abbildung 3.9 für jedes Paar <strong>und</strong> für<br />

alle resynthetisierten Sprachsignale dargestellt.<br />

Abbildung 3.9: Ergebnisse des Hörtests


Forschungsbericht<br />

3.3 Verarbeitung akustischer Signale (akustisches Frontend)<br />

3.3.1 Robuste Spracherkennung in Räumen durch Beamforming<br />

Spracherkennung in realen Räumen ist bis heute ein großes Problem. Erkennungsraten von ungestörten<br />

Signalen im Bereich von 90 % <strong>und</strong> mehr verschlechtern sich in realen Räumen, je nach Sprecher-<br />

Mikrofon-Abstand (SMA) <strong>und</strong> Nachhallzeit des Raumes, auf bis zu unter 30 %, wie in Abbildung 3.11.<br />

(„einkanalig“) deutlich zu sehen ist. Gr<strong>und</strong> dafür ist der Nachhall des Raumes, wodurch ein „Verwaschen“<br />

des Zeitsignals <strong>und</strong> auch des Spektrums zu beobachten ist.<br />

Eine bekannte Methode zur Verringerung der als Störschall arbeitenden Reflexionen ist das Beamforming.<br />

Dabei werden mehrere Mikrofonsignale zu einem einzelnen Signal verrechnet <strong>und</strong> dadurch<br />

eine Richtwirkung erzielt. Diese Richtwirkung bewirkt, dass seitlich eintreffender Schall (Raumreflexionen)<br />

gedämpft wird, während frontal einfallender Schall (das gewünschte Sprachsignal) ungedämpft<br />

passieren kann. An dieses Gr<strong>und</strong>prinzip anknüpfend, gibt es eine Vielzahl von Beamformingalgorithmen.<br />

In Abbildung 3.11 sind aktuelle Messungen in realen Räumen gezeigt, deren Ergebnisse einem Spracherkenner<br />

zugeführt wurden. Gemessen wurde die Erkennungsrate eines Kommandoworterkenners.<br />

Getestet wurden 2 Beamformingalgorithmen. Der Delay and Sum Beamformer (DSB), eine relativ<br />

einfache Variante des Beamformings, sowie der Minimum Variance Distortionless Response<br />

Beamformer (MVDRB).<br />

Abbildung 3.10: Schematische Darstellung des MVDRB.<br />

Der MVDRB arbeitet im Frequenzbereich (schematische Darstellung siehe Abbildung 3.10) <strong>und</strong> kann<br />

über die frequenzabhängigen Wichtungsfaktoren ( ) an das Störschallfeld angepasst werden.<br />

Des Weiteren kann die Ausrichtung des Beamformers geändert werden. Dadurch ist es möglich auf<br />

Quellen zu fokussieren, die sich nicht direkt vor der Mikrofonanordnung befinden. Letzteres ist ebenfalls<br />

mit dem DSB möglich, allerdings bietet der DSB keine Möglichkeit der Anpassung an das Schallfeld.<br />

ω j<br />

Wi<br />

e<br />

Das Ergebnis der Messungen ist in Abbildung 3.11 zu sehen. Sowie eine zunehmende Nachhallzeit,<br />

als auch ein zunehmender SMA verschlechtern die Erkennungsergebnisse deutlich. Durch die Nutzung<br />

der Beamformer bleibt dieser Trend zwar erhalten, aber die absoluten Ergebnisse liegen deutlich<br />

über denen der einkanalig aufgenommenen Signale. Vor allem im mittleren Bereich der Nachhallzeit<br />

(0,45 s, Abbildung 3.11 oben rechts) erreicht der MVDRB eine Verbesserung um ca. 20%. Diese<br />

Nachhallzeit entspricht einem durchschnittlichen Wohnzimmer.<br />

Weitere Verbesserungen können im Anschluss mit Hilfe von einkanaligen Algorithmen, sowie Algorithmen<br />

auf Feature- <strong>und</strong> Modellebene erreicht werden.<br />

21


22<br />

Forschungsbericht<br />

Abbildung 3.11 : Erkennungsraten des DSB <strong>und</strong> des MVDRB im Vergleich mit einkanaligen Aufnahmen<br />

bei verschiedenen Abständen <strong>und</strong> in verschiedenen Räumen. Nachhallzeiten:<br />

links oben: 0,25 s; rechts oben: 0,45 s; links unten: 0,7 s; rechts unten: 0,95 s.<br />

In Zusammenarbeit mit Industriepartnern <strong>und</strong> weiteren Forschungseinrichtungen der TU <strong>Dresden</strong><br />

wird an einem Prototypen für ein Sprachgesteuertes „Public Terminal“ (Informationsterminal) gearbeitet.<br />

Dieses Terminal wird einen MVDR-Beamformer wie oben beschrieben nutzen um den Störschall<br />

zu filtern, den Sprecher vor dem Terminal zu orten <strong>und</strong> dann akustisch auf ihn zu fokussieren.<br />

Weitere Aspekte dieses Projektes werden im Folgenden erläutert.<br />

3.3.2 Multimodales, personalisiertes Bedienkonzept für<br />

Public Terminals – Mobiles Endgerät<br />

Infolge zunehmender Akzeptanz von elektronischen "Info-Punkten" <strong>und</strong> anderen öffentlichen Automaten<br />

(Public Terminals) steigt deren Nutzung, was zu Wartezeiten an diesen Automaten führen kann.<br />

Durch die Verbesserung des Bedienprozesses kann eine schnelle Bereitstellung der gesuchten Informationen<br />

erreicht <strong>und</strong> die Wartezeit anderer Benutzer gesenkt werden. Im Rahmen des Kooperationsprojekts<br />

"Multimodales, personalisiertes Bedienkonzept für Public Terminals" 1 mit der voice INTER<br />

connect GmbH <strong>und</strong> dem Institut für Angewandte Informatik der TU <strong>Dresden</strong> wird an der Verbesserung<br />

des Bedienprozesses durch die Integration einer Sprachein- <strong>und</strong> ausgabe geforscht. Dieses multimodale<br />

Bedienkonzept soll zusätzlich auf in der Nähe befindliche mobile Endgeräte übertragen werden<br />

<strong>und</strong> so die gleichzeitig Bearbeitung mehrer Benutzer erlauben. Durch das ohnehin ständige Mit-<br />

1 Förderung durch die Arbeitsgemeinschaft industrieller Forschungsvereinigungen (AiF) „Otto von Guericke“ e.V.<br />

im Rahmen des Förderprogramms PRO INNO II - Förderung der Entwicklung innovativer Produkte <strong>und</strong> Verfahren“;<br />

Fördernummer: ProInno KF 0033704LF8


Forschungsbericht<br />

führen von mobilen Endgeräten (z.B. Mobiltelefon) erlaubt dies die intuitive Abfrage standortbezogener<br />

Informationen mit dem eigenen, vertrauten Endgerät ohne Zusatzkosten. Da dieser Service nur in<br />

der Nähe des Automaten bereitgestellt wird, kann von einem Location Based Service (standortbezogener<br />

Dienst) gesprochen werden. Zur drahtlosen Kommunikation ist Bluetooth angedacht, da so<br />

keine Funknetzinfrastruktur vorausgesetzt werden muss.<br />

Infolge der Vielfalt an mobilen Endgeräten ist das<br />

angestrebt Ziel nur mit standardisierten Techniken<br />

möglich. Eine von vielen Herstellern implementierte<br />

Technik ist J2ME (Java Plattform 2, Micro Edition)<br />

von Sun Microsystems. Speziell definierte Konfigurationen<br />

wie zum Beispiel CLDC (Connected Limited<br />

Device Configuration) beschreiben dabei die minimale<br />

notwendige Konfiguration für die Laufzeitumgebung<br />

(z.B. notwendiger Speicher). Ergänzt werden<br />

die Konfigurationen durch Profile, wie z.B. das Mobile<br />

Information Device Profile (MIDP). Diese definieren<br />

die minimale Hardwareausstattung (Bildschirmgröße,<br />

Eingabemöglichkeiten usw.) der Endgeräte.<br />

Neben diesen definierten Minimalausstattungen<br />

können Java Specification Requests (JSR), also Anforderungen<br />

auf eine neue Spezifikation bzw. Änderung<br />

oder Erweiterung einer bestehenden Spezifikation<br />

eingereicht werden, die dann im Rahmen des<br />

Java Community Process (JCP) zu Spezifikationen<br />

führen die z.B. den Zugriff auf die Bluetooth- (JSR-<br />

082) oder der Audioschnittstelle (JSR-135) regeln.<br />

Abbildung 3.12: Keine Wartezeit bei der parallelen<br />

Benutzung eines mobilen Endgerätes am<br />

öffentlichen Automaten.<br />

Im Berichtsjahr konnten folgende Funktionalitäten im mobilen Endgeräte realisiert <strong>und</strong> getestet werden:<br />

- visuelle Inhalte des Automaten drahtlos empfangen <strong>und</strong> darstellen<br />

- Aufnahme <strong>und</strong> Wiedergabe akustischer Informationen<br />

- digitale Signalverarbeitung<br />

- Übertragung von Sprachdaten an den Spracherkenner im Automaten<br />

- Empfang der Automatenreaktion in visueller <strong>und</strong> akustischer Repräsentation<br />

3.3.3 Nichtlineares Übertragungsverhalten von<br />

Kondensatormikrofonen<br />

Mikrofone mit Röhrenverstärkern erfreuen sich nach wie vor großer Beliebtheit. Ihr Klang wird als<br />

warm <strong>und</strong> druckvoll beschrieben. Viele Toningenieure ziehen oft Mikrofone in dieser traditionellen<br />

Technologie modernen Transistormikrofonen vor, obwohl Röhrenmikrofone aus messtechnischer<br />

Sicht ein höheres Eigenrauschen <strong>und</strong> ein schlechteres Großsignalverhalten besitzen.<br />

In der Studienarbeit von Herrn Peter Vanselow wurde untersucht, ob die subjektiv empf<strong>und</strong>enen Qualitätsunterschiede<br />

zwischen Röhren- <strong>und</strong> Transistormikrofon allein durch die unterschiedlichen nichtlinearen<br />

Übertragungseigenschaften erklärt werden können.<br />

Dazu wurden mit der Software MATLAB Audiosignale, die mit Messmikrofonen aufgenommenen<br />

wurden, mit den nichtlinearen Kennlinien von Elektronenröhren <strong>und</strong> Ausgangstransformatoren „verzerrt“<br />

<strong>und</strong> durch Hörversuche subjektiv beurteilt.<br />

Die Ergebnisse zeigen, dass Unterschiede von den Versuchspersonen erst bei sehr hohen Schalldruckpegeln<br />

festgestellt werden konnten. In einigen Fällen wirkten sich die nichtlinearen Kennlinien<br />

als Qualität steigernd aus. Besonders der quadratische Anteil der Röhrenkennlinie führte in einigen<br />

Fällen zu einer höheren Audioqualität. Dagegen führten die kubischen Signalanteile, die besonders<br />

durch den Ausgangstransformator erzeugt wurden, immer zu einer Verschlechterung der Audioqualität.<br />

23


24<br />

Forschungsbericht<br />

3.3.4 Untersuchungen zur Signalseparation für Zweikanalmikrofone<br />

Die Separation von Signalen aus einem Signalgemisch ist ein Gr<strong>und</strong>problem der gesamten Audiotechnik.<br />

Die Spracherkennung fordert für eine gute Erkennungsrate ein möglichst reines Sprachsignal<br />

ohne Störgeräusche oder gar andere Stimmen, welche sich mit dem zu erkennendem Signal überlagern.<br />

In der Studienarbeit von Herrn Kevin Gebhardt wurden verschiedene Algorithmen zur Signaltrennung<br />

unter Verwendung von zweikanaligen TWIN- Mikrofonen getestet. Die Signaltrennung erfolgte stets<br />

im Frequenzbereich. Mittels zweikanaliger FFT <strong>und</strong> Overlapp-Add wurden einzelne Signalabschnitte in<br />

ihre spektralen Komponenten zerlegt <strong>und</strong> entsprechend der Richtungsinformationen, die aus den<br />

Unterschieden beider Signale gewonnen wurden, bewertet.<br />

Durch gezielte Generierung von Nullstellen in der Richtcharakteristik des Summensignals beider Mikrofone<br />

konnten die Signale einzelner diskreter Störsignalquellen fast vollständig eliminiert werden.<br />

Bei Existenz von vielen gleichzeitigen Störsignalquellen im seitlichen <strong>und</strong> hinteren Schalleinfallsbereich<br />

des Mikrofons brachte eine spektrale Trennung der Schallanteile gute Erfolge. Besonders gute<br />

Ergebnisse konnten dann erzielt werden, wenn sich die Spektren von Nutz- <strong>und</strong> Störsignal deutlich<br />

unterschieden.<br />

3.4 Anwendungen von Sprachtechnologie in<br />

Interaktionsforschung <strong>und</strong> Didaktik<br />

3.4.1 Überblick<br />

Sprachtechnologiekomponenten der TU <strong>Dresden</strong> werden zunehmend bei Problemstellungen der<br />

Mensch-Mensch- bzw. Mensch-Technik-Interaktion erprobt, wobei eine interdisziplinäre Kooperation<br />

mit Kollegen aus nichttechnischen Wissenschaftsgebieten zum Tragen kommt.<br />

Die vorgestellten Forschungsarbeiten folgen internationalen Ansätzen aus den 1990er Jahren <strong>und</strong><br />

einem aktuellen Trend, der sich u. a. in neu kreierten sowie hochrangig besetzten Veranstaltungsreihen,<br />

wie z. B. ISCA Workshops on Speech and Language Technology in Education (SLaTE 2007 <strong>und</strong><br />

2009) oder ICMI Workshops on Child, Computer and Interaction (WOCCI 2008 <strong>und</strong> 2009) manifestiert,<br />

bei denen das <strong>IAS</strong> mit Beiträgen präsent war. Wie in den Vorjahren wirkte das <strong>IAS</strong> außerdem an<br />

der europäischen COST-Aktion 2102 (Cross-Modal Analysis of Verbal and Non-verbal Communication)<br />

einschließlich der Workshops mit.<br />

Der Berichtszeitraum 2009 umfasste folgende Aktivitäten, die in den Unterabschnitten 3.4.2 –3.4.7<br />

dargestellt werden:<br />

• Fortführung der Forschungs- <strong>und</strong> Entwicklungsarbeiten für den Aussprachetrainer („Automat<br />

zur Akzentreduktion“, Akronym AzAR). Das AzAR-Projekt markierte 2004 den Auftakt für unser<br />

neues Arbeitsfeld, wobei die im Berichtszeitraum laufende, dritte Projektphase im Rahmen<br />

des EU-Projekts EURONOUNCE (2007-2009) gefördert wurde <strong>und</strong> auf slawische sowie<br />

deutsche Sprachressourcen fokussiert war.<br />

• Erweiterung der Aussprachetrainertechnologie auf die Zielgruppe Vorschulkinder <strong>und</strong> Fertigstellung<br />

des 2008 begonnenen LiSA-Prototyps. Start des EXIST-Projekts „Innovative Produkte<br />

zur Förderung der kindlichen Sprachkompetenz“ (BMWT). Im Rahmen des neuen Projekts<br />

werden u. a. die Robustheit des Sprachinterfaces, das Nutzerverhalten sowie Markteintrittsbarrieren<br />

untersucht.<br />

• Fortsetzung der Kooperationsbeziehungen zum Sprachtrainingsprojekt der Beuth-Hochschule<br />

Berlin (Prof. Mixdorff). Unter der Bezeichnung CALL (Computer-Aided Language Learning)<br />

wird Sprachtechnologie im Kontext des Fremdsprachenerwerbs von Mandarin-Chinesisch untersucht.<br />

Ein weiteres Teilprojekt betrifft eine sprachübergreifende Prosodiemodellierung in<br />

Zusammenarbeit mit japanischen <strong>Universität</strong>en (Quantitative Cross-Language Prosody Modeling).<br />

• Fortführung des Projekts zur Untersuchung prosodischer Beeinträchtigungen bei Dysarthrien,<br />

die durch das Parkinson-Syndrom hervorgerufen werden. Dieses Projekt wird seit 2008 durch<br />

Frau Dr. Ma im Rahmen ihres Humboldt-Stipendiums betreut <strong>und</strong> erfolgt in Kooperation mit<br />

der Klinik <strong>und</strong> Poliklinik für Neurologie des <strong>Universität</strong>sklinikums <strong>Dresden</strong> (Prof. Storch).


Forschungsbericht<br />

3.4.2 Euronounce/ Intelligent Pronunciation Tutoring System<br />

Gefördert von der Europäischen Kommission, Agentur für Kultur, Bildung <strong>und</strong> audiovisuelle Medien<br />

(EACEA) im Rahmen des Programms Lebenslanges Lernen<br />

Projektnummer: 135379-LLP-1-2007-1-DE-KA2-KA2MP<br />

Subprogramm: KA2, Languages<br />

Förderzeitraum: 01.11.2007 – 31.12.2009<br />

Partner: TU <strong>Dresden</strong>, Institut für Akustik <strong>und</strong> Sprachkommunikation (Projektkoordinator)<br />

Adam-Mickiewicz-<strong>Universität</strong> Poznan, Institut für Linguistik<br />

Slowakische Akademie der Wissenschaften in Bratislava, Institut für Informatik<br />

REZO Computer Service GmbH & Co. KG<br />

Schenck Workshops Mülheim/ Ruhr (für Goethe-Institut <strong>Dresden</strong>/ Weimar)<br />

Verband der Sächsischen Bildungsinstitute (VSBI)<br />

Private Fachoberschule <strong>und</strong> Berufsfachschule Roudnice nad Labem, CZ<br />

Nachauftragnehmer:<br />

VoiceInterConnect GmbH <strong>Dresden</strong><br />

Institut für Informatik <strong>und</strong> Automatisierung der Russischen Akademie der Wissenschaften<br />

St. Petersburg (SPIIRAS)<br />

Arbeitsschwerpunkte im Jahr 2009<br />

1. Fertigstellung der multilingualen Datenbasen<br />

Wichtigstes Projektziel ist die Entwicklung eines datenbasierten multilingualen Aussprachetrainers,<br />

der für die Sprachenpaare Deutsch-Russisch, Deutsch-Polnisch, Deutsch-Slowakisch <strong>und</strong> Deutsch-<br />

Tschechisch Curricula <strong>und</strong> Feedbacktechnologie zur Bewertung der Aussprachequalität bereitstellen<br />

soll.<br />

Datenbasen sind insbesondere die Entwicklungs- <strong>und</strong> Trainingsdaten, Testdaten <strong>und</strong> Curriculardaten.<br />

Pro Sprachenpaar wurden jeweils 18 Sprecherinnen/ Sprecher mit nach Niveaustufen (A1 – B1, B2 –<br />

C2 des Europäischen Referenzrahmens) variierendem Testmaterial aufgenommen. Z. B. wurden für<br />

die Zielsprache Deutsch zur Erzeugung der Analyse-, Trainings- <strong>und</strong> Testdaten folgende Subkorpora<br />

aufgezeichnet: Veith-Test (140 Sätze <strong>und</strong> Wortgruppen), PhonDat - Lesetest (293 phonetisch ausgewogene<br />

Sätze <strong>und</strong> zwei Textpassagen), Akzenttest (175 phonetisch reiche Sätze), Prosodietest (119<br />

Sätze), Lesetext: H. Chr. Andersen, „Das Feuerzeug“ (ca. 1800 Dz.), Teststimuli zur Erzeugung spontaner<br />

Äußerungen (freies Interpretieren idiomatischer Redewendungen) sowie ein Interview zur Lernbiografie<br />

der Sprecherin. Zusätzlich wurden Referenzaufnahmen mit Muttersprachlern zur Entwicklung<br />

der HMM-basierten Aligner-Technologie sowie für die Integration der Curriculardaten in die Lernanwendung<br />

realisiert.<br />

2. Annotierung der Sprachaufzeichnungen, automatisches Alignieren der Phonem- <strong>und</strong> Wortlabel<br />

2.1 Inventare<br />

Die applikative Ausrichtung des Projektes erfordert die Erzeugung akustisch-phonetischer Korpora, die<br />

geeignet sind, interlinguale Effekte systematisch zu erfassen, die im Prozess der Aneignung einer<br />

Fremdsprache mit hoher interpersoneller Konstanz auftreten. Unter dem speziellen Aspekt der Abbildung<br />

systembedingter Interferenzen wurden zunächst Annotierungsstandards erarbeitet, die die Vergleichbarkeit<br />

der Ergebnisse für die betrachteten Sprachenpaare (Source /L1/, Target /L2/) garantieren<br />

sollen. Für jedes Sprachenpaar wurde ein gemischtes X-SAMPA – Inventar erstellt, das eine wechselseitige<br />

Zuordnung der Phoneme auf der Basis kategorialer Merkmale ermöglicht. Bereits aus der Kontrastierung<br />

der Phoneminventare sind Kandidaten für Segmentsubstitutionen erkennbar.<br />

25


26<br />

Forschungsbericht<br />

Abbildung 3. 13: Auszug aus dem gemischten Lautinventar für das Sprachenpaar Tschechisch –<br />

Deutsch. Die tschechischen silbischen Sonoranten /=l/, /=m/ <strong>und</strong> /=r/, das labio-dentale /F/ (Allophon<br />

von /m/) <strong>und</strong> der palatale Nasal /J/ haben im Deutschen Inventar keine Entsprechungen.<br />

2.2 Symbolische Repräsentation segmenteller Aussprachefehler<br />

Ein Teil der regelmäßig auftretenden Abweichungen von der zielsprachlichen Aussprache-norm kann<br />

in die Segmentebene (Phoneme, Allophone) projiziert werden. Es handelt sich dabei einerseits um<br />

Substitutionen <strong>und</strong> Indels (Einfügungen oder Löschungen von Segmenten), andererseits um Verletzungen<br />

der Distributions- <strong>und</strong> Verkettungsregeln über bestimmte Segmente, die in der Oberflächenform<br />

als segmentelle Abweichungen auffallen. Für die Zwecke der Annotierung L1 – bedingter Abweichungen<br />

von der Standardlautung wurde die von Bonaventura, Howarth <strong>und</strong> Menzerath (Bonaventura,<br />

Howarth & Menzel: 2000 1 , 2000 2 ) vorgeschlagene Prozedur modifiziert. In einem ersten Schritt<br />

wurden die Aufzeichnungen (Teilkorpora Veith-Sätze, Veith-Wortgruppen <strong>und</strong> Akzenttest) automatisch<br />

segmentiert. Die Phonemlabel wurden entsprechend der für die Zielsprache vereinbarten kanonischen<br />

Transkription mithilfe des vicAligners zugeordnet <strong>und</strong> anschließend in der Datenbank-<br />

Entwicklungsumgebung WiGE manuell angepasst. In einem weiteren Schritt wurden die auffälligen<br />

Segmente markiert. Dabei kommen folgende Fallentscheidungen in Betracht: (1) das auffällige Segment<br />

entspricht einer Einheit des muttersprachlichen Inventars, (2) das auffällige Segment repräsentiert<br />

einen Übergangszustand, ist aber einem zielsprachlichen Segment hinreichend ähnlich. Im ersten<br />

Fall wird das entsprechende Phonemsymbol aus dem L1-Inventar verwendet. Im Fall der Übereinstimmung<br />

der SAMPA-Symbole erhält das Label ein Suffix. Da zu beobachtende Interferenzen häufig<br />

in einem breiten Spektrum variieren (wie z. B. die Ersetzungen der Frikative /x-C/, /h/ <strong>und</strong> der vorderen<br />

labialen Vokale /y:/, Y/, /2:/, /9/ bei Sprechern mit russischem Akzent), musste eine pragmatische Lösung<br />

gef<strong>und</strong>en werden. Alle auftretenden Varianten werden aufgr<strong>und</strong> des Höreindrucks entweder<br />

einem muttersprachlichen oder einem zielsprachlichen Phonem zugeordnet.


Forschungsbericht<br />

Neben den Substitutionen treten Einfügungen (z. B. /j/ nach hohen vorderen Vokalen) <strong>und</strong> Löschungen<br />

von Segmenten sowie segmentübergreifende Fehler auf (Kontaktassimilation, Kontrahierung<br />

benachbarter Segmente bzw. Vereinfachung von Konsonantenclustern, die i. d. R. L1-spezifischen<br />

Mustern folgen).<br />

Model Inventory for the notation of mispronunciation-hypotheses<br />

• target language phonemes:<br />

standard-notation as given in the target language model set (phoneme-set)<br />

• source language phonemes:<br />

notation as given in the source language model set (phoneme-set) but expanded by the suffix<br />

„<strong>und</strong>erscore one“ '_1'<br />

e.g. 'r_1', 'd^z'_1'<br />

• sample for the notation of mispronunciation-hypotheses<br />

text: der Aal das All<br />

transcription: d e 6 {a: l; a:-a l} d a s {a l; a-a_1 l-l_1; a-a: l; a l -@}<br />

Abbildung 3. 14: Konventionen zur Fehlernotation (VoiceInterConnect, 07/28/2009)<br />

Wenn ein Sprecher ein Segment eingefügt hat, z. B. wenn das Wort sehen als „sej*en“ ausgesprochen<br />

wurde, ist die Transkription /z|e:-E:|-j| @-e_5|n/.<br />

Wurde dagegen ein Phonem, das in der Standardtranskription enthalten ist, vom Sprecher nicht realisiert<br />

(Elision), z. B. Kunstgewerbe als „Kuns*gewerbe“, wurde /k |u_5| n |s-z |–t |g |@-i_5|v|E|6-r_5|b|@/<br />

annotiert.<br />

Abbildung 3. 15: Fehlernotation in Wafesurfer-Labelspur (Sequenz „gewusst haben willst“, Index 5<br />

entspricht L1 RU)<br />

Ein Teil der Aufnahmen wurde im Praat-TextGrid-Format annotiert. Dabei erfolgte die Markierung der<br />

abweichenden Segmente in einer Kopie der kanonischen Labelspur durch Einsetzen der L1spezifischen<br />

Label.<br />

27


28<br />

Forschungsbericht<br />

Abbildung 3. 16: Fehlernotation in Praat-TextGrid (Substitution von /N/ durch /N/ + /g/ in der Wortform<br />

„klingelte“)<br />

Die annotierten Korpora wurden einer kontrastiven Untersuchung unterzogen. Für jede Richtung innerhalb<br />

eines Sprachenpaares wurden die im Laufe der Aneignung der Zielsprache regulär auftretenden<br />

Fehlermuster in den Datenkorpora identifiziert, phonologisch beschrieben <strong>und</strong> klassifiziert.<br />

Die Trainingsdaten für die Entwicklung akustischer Modelle wurden entsprechend den Spezifikationen<br />

in Form kanonisch annotierter Aufnahmen im Format 16 kHz/ 44.1 kHz, 16 bit, PCM, little endian,<br />

bereitgestellt.<br />

3. Implementierung, Entwicklung der Feedback-Funktionen<br />

Mit dem Erkennertraining wurden die Partner VoiceInterConnect GmbH <strong>und</strong> SPIIRAS (Institut für beauftragt.<br />

Der HMM – basierte Phonemerkenner wurde an muttersprachlichen Daten trainiert. Das<br />

Nutzerfeedback wird aus den Konfidenzmaßen des Aligners generiert. Der Aligner segementiert das<br />

akustische Eingangssignal <strong>und</strong> labelt die Segmente in Übereinstimmung mit der erwarteten bzw. –<br />

bei Vorliegen von Alternativen – der wahrscheinlichsten Phonemfolge. Das akustische Feedbacksystem<br />

wertet sowohl den Output des Aligners als auch gr<strong>und</strong>legende Parameter des Eingangssignals<br />

aus. Die Erzeugung des korrektiven Feedbacks in der Lernapplikation basiert neben dem automatisch<br />

erzeugten akustischen Feedback auf phonetisch-phonologischem bzw. didaktischem Wissen. Das<br />

Feedbacksystem ist in der Lage, Aussprachealternativen zu unterscheiden, die im Sprachmodell hinterlegt<br />

sind. Für die innerhalb der einbezogenen Sprachenpaare (L1-L2) systematisch auftretenden<br />

Aussprachefehler wurden akustische Modelle trainiert <strong>und</strong> Transkriptionen nach einem im Rahmen<br />

des Projekts EURONOUNCE entwickelten Notationssystem codiert.<br />

Weitere Feedback-Funktionen der im Projekt EURONOUNCE verwendeten Testplattform Azar3.0 sind<br />

eine interaktive Formant-Target-Chart,<br />

4. Datenbankeditor, Datenbank-Infrastruktur<br />

Der von dem Partner REZO Computer Service entwickelte Datenbankeditor ermöglicht den Remote -<br />

Zugriff auf Curriculardaten, Tutorials <strong>und</strong> visuelle Inhalte, insbesondere das Eingeben, Editieren <strong>und</strong><br />

Verwalten aller Inhaltskomponenten. Die Autoren der Inhaltskomponenten legen Navigationsstrukturen<br />

an, ordnen den Themenbereichen Übungen zu <strong>und</strong> transferieren die Inhaltsdaten auf den Projektserver.<br />

Im Datenbankeditor werden mithilfe eines Wörterbuchs die kanonischen SAMPA - Transkriptionen<br />

ausgegeben <strong>und</strong> ggf. vom Autor editiert. Aus der Datenbank können Leselisten erstellt werden,


Forschungsbericht<br />

die in der Entwicklungsumgebung WiGE (VoiceInterConnect) weiter verarbeitet werden. Dabei bleiben<br />

die in der Datenbank angelegten Satznummern bzw. Indizes erhalten. Die in WiGE-rec erhaltenen<br />

Referenzaufnahmen im wav-Format <strong>und</strong> die in WiGE-align automatisch erzeugten (<strong>und</strong> ggf. manuell<br />

korrigierten) Labeldateien im Lab-Format werden zur Datenbank transferiert. Aus den Daten wird ein<br />

codierter Datenstream generiert, der in die Lernanwendung eingelesen wird.<br />

Abbildung 3. 17: Navigationsstruktur (1. <strong>und</strong> 2. Ebene) des Curriculums „Speech training L1 PL - L2<br />

DE“ in der Editoransicht.<br />

5. Contententwicklung, Curricula, Tutorials<br />

Für jede Sprachversion wurde ein Beispielcurriculum bereitgestellt, das eine systematische Einführung<br />

in das Lautsystem der Zielsprache, einen Übungsteil zu den Bereichen Lautsystem, Silben- <strong>und</strong><br />

Wortprosodie (Silbenstrukturen, prosodische Wortformen <strong>und</strong> Betonungsregeln), Sprechrhythmus<br />

<strong>und</strong> Satzintonation beinhaltet. Ausgehend von den im Ergebnis der Analyse repräsentativer Teile der<br />

Sprachkorpora ermittelten Interferenzen wurden spezifische Aufgaben für Lernende mit den Muttersprachen<br />

Tschechsisch, Plnisch, Slowakisch <strong>und</strong> Russisch aufgenommen. Für die Zielsprache<br />

Deutsch wurde zusätzlich ein kommunikativ orientiertes Curriculum mit dem Titel „Phonetik-Theater“<br />

(Schenck Workshops) integriert. Zu dem gesamten Übungsmaterial sind in der Lernanwendung annotierte<br />

Referenzaudios verfügbar. Annotiert wurde die vom Referenzsprecher benutzte realisationsphonetische<br />

Variante. In der Lernanwendung stehen den potenziellen Anwendern – Lehrern <strong>und</strong> Lernenden<br />

– zusätzliche reich illustrierte Materialien zu einer breiten Auswahl phonetischer Themen sowie<br />

zur Interpretation der im Übungsteil verwendeten Darstellungen des akustischen Sprachsignals<br />

zur Verfügung.<br />

29


30<br />

Forschungsbericht<br />

Abbildung 3. 18: Lernanwendung Azar3, Template für Kontrastpaarübungen<br />

3.4.3 Prosodic impairment in dysarthria associated with Parkinson’s<br />

disease: Analysis-by-synthesis<br />

Project Backgro<strong>und</strong><br />

This project, sponsored by Alexander von Humboldt Fo<strong>und</strong>ation, aims at (i) providing a cross-linguistic<br />

comparison of prosodic impairments in German and Cantonese dysarthric speakers associated with<br />

Parkinson’s Disease and (ii) developing an alternative approach in the perceptual evaluation of prosodic<br />

impairment (see annual report 2008). Dysarthria, a motor speech disorders due to damage in<br />

the central or peripheral nervous system, is characterized by deficits in prosody, articulation, resonance,<br />

phonation and respiration. At least 89% of individuals with Parkinson’s disease have dysarthria<br />

(Logemann, 1978). Prosodic impairment is one of the most common characteristics in<br />

speakers with hypokinetic dysarthria associated with Parkinson’s disease. Impairment in prosody<br />

may result in severely reduced speech intelligibility and communication efficiency, and may result in<br />

listeners’ negative personality association with the speaker. An accurate description of the nature of<br />

prosodic impairment is imperative for the implementation of an efficient speech treatment regime.<br />

Project Partner and Progress<br />

This project involved collaboration with a self-help organization in Hong Kong, Hong Kong Parkinson’s<br />

Disease Fo<strong>und</strong>ation, for the recruitment of Cantonese subjects, and Department of Neurology, University<br />

Hospital Carl Gustav Carus of TU <strong>Dresden</strong> for recruitment of German subjects.<br />

We have collected speech data from about 30-40 speakers in each language. Perceptual evaluation<br />

was conducted on these speech materials by native experts (experienced speech and language


Forschungsbericht<br />

therapists) and the severity of speech and prosodic impairments was evaluated. The speech samples<br />

collected represented speakers of different severity in both languages. Acoustic analyses are being<br />

currently conducted to compare the similarities and differences across languages.<br />

Expected Outcomes<br />

1. Characterization of the prosodic features in dysarthria associated with Parkinson’s disease in<br />

German and Cantonese speakers.<br />

2. Development of an alternative approach in assessing the prosodic impairment in dysarthria associated<br />

with Parkinson’s disease, which (a) allows different prosodic dimensions to be systematically<br />

manipulated simultaneously, and (b) improves the reliability of the measures by allowing direct<br />

comparison between the target signal and the synthesized signal.<br />

3. Development of a synthesis tool for modeling the prosodic features of dysarthria associated with<br />

Parkinson’s disease.<br />

Practical Implications<br />

1. There is a general lack of <strong>und</strong>erstanding on overall prosodic impairment. This study will contribute<br />

to the knowledge of how different prosodic features interact and their relations to overall perception.<br />

2. The cross-linguistic comparison of the prosodic impairment enables further <strong>und</strong>erstanding to the<br />

nature of dysarthria, as the observed prosodic impairment as a result of the manifestation of the<br />

neurological impairment may be accentuated by the linguistic characteristics of a language.<br />

3. The alternative approach of prosodic assessment can have clinical applications, as speech therapists<br />

require reliable measurement for identifying the treatment targets and documentation of<br />

treatment progress.<br />

4. The tool for synthesizing prosodic features can be used as a training tool for speech therapy students<br />

in the perception of pathological speech, as speech samples of different degrees prosodic<br />

impairment can be synthesized with the tool developed.<br />

3.4.4 AvatR – Audio visual assistant turns Real<br />

Im Rahmen des Förderprogrammes „Existenzgründungen aus der Wissenschaft” wurde von Absolventen<br />

der HTW <strong>und</strong> der TU <strong>Dresden</strong> ein Gründerstipendium eingeworben, das 2008/09 zur Förderung<br />

des in der Überschrift genannten Projektes diente. Die Projektziele sind im Jahresbericht 2008<br />

ausführlich beschrieben worden. Darüber hinaus erfolgte zur ESSV 2009 in einem Beitrag eine ausführliche<br />

Vorstellung der Ergebnisse.<br />

Die Ergebnisse des Berichtsjahres werden durch die Gründer wie folgt zusammengefasst:<br />

In 2009 stand die Entwicklung der Software „AvatR“ im Zentrum des Projektes. Es konnte ein weit<br />

reichendes Netzwerk in Wirtschaft <strong>und</strong> Wissenschaft aufgebaut werden. Diese Entwicklungen sollen<br />

den Gr<strong>und</strong>stein für die im Jahr 2010 gesteckten Ziele sein. Die Veröffentlichung der Software Kaimbo<br />

als Proof of Concept <strong>und</strong> die geplanten Ausweitungen im B2B-Geschäft haben oberste Priorität für die<br />

AvatR GbR. Technologisch steht die Weiterentwicklung der Software Kaimbo sowie die Entwicklung<br />

eines, dem Thema „Crowd-Sourcing“ angelehnten, Hilfesystems im Fokus des Unternehmens. Desweiteren<br />

wird die Web-Sprachsynthese Teil des Produktportfolios bleiben.<br />

Zum aktuellen Stand der Entwicklung des Unternehmens wird auf die Webseite http://www.avatr.net/<br />

verwiesen, der auch die Abbildung 3. 19 entnommen ist.<br />

31


32<br />

Forschungsbericht<br />

Abbildung 3. 19: Funktionskonzept von AvatR<br />

3.4.5 Lingubär – Lehrmittel zur Förderung der kindlichen<br />

Sprachkompetenz<br />

Im Rahmen des Förderprogramms „Existenzgründungen aus der Wissenschaft“ wurde die Förderung<br />

des Projektes „Lingubär“ beantragt <strong>und</strong> bewilligt. Das Ziel ist die Entwicklung eines Lehrmittels zur<br />

Förderung der kindlichen Sprachkompetenz. Für das Kind erscheint das Lehrmittel in der kindgerechten<br />

Form eines Plüschtieres oder einer Puppe. Der Lingubär besitzt eine verborgene Elektronik mit<br />

einem embedded Prozessor, der die notwendigen Signalverarbeitungsaufgaben abarbeitet. Als solche<br />

sind die beiden Hauptkomponenten, die Spracheingabe <strong>und</strong> Sprachausgabe, zu nennen, die einen<br />

Dialog mit dem Kind herstellen.<br />

Um die Idee umzusetzen wird derzeit auf verschiedenen Wissenschaftsgebieten gearbeitet. Diese<br />

sind insbesondere:<br />

Spracherkennung: Für Spracheingabe ist es nötig, einen Spracherkenner zu implementieren. Neben<br />

den bekannten Problemen in der Spracherkennung kommen bei der Lingubär-Anwendung noch besondere<br />

Herausforderungen hinzu. Dies sind zum einen die Erkennung von Kindersprache, bei der<br />

verstärkt mit nicht kooperativen Sprechern zu rechnen ist. Weiterhin unterscheidet sich die Erkennung<br />

von Kindersprache dadurch, dass die Artikulatoren, die die Merkmale der Sprache formen, noch<br />

im Wachstum begriffen <strong>und</strong> dadurch deutlich kleiner als bei Erwachsenen sind. Die entstehenden<br />

Merkmale für die Spracherkennung unterscheiden sich damit von Merkmalen von Erwachsenensprache,<br />

was darin resultiert, dass ein Spracherkenner mit Kindersprache zu trainieren ist. Jedoch existieren<br />

dafür kaum entsprechende Datenbasen. Es wird derzeit nach Möglichkeiten gesucht, um dieses<br />

Problem zu lösen. Eine weitere Herausforderung stellt die Robustheit gegen Störeinflüsse wie Umgebungsgeräusche<br />

<strong>und</strong> Raumhall dar. In der Anwendung des Lingubären ist mit einem ungünstigen<br />

Sprecher-Mikrofon-Abstand sowie verschiedenen instationären Störern, wie weiteren spielenden<br />

Kindern etc., zu rechnen. Die dritte Herausforderung besteht darin, die Spracherkennung auf einer<br />

embedded Plattform unterzubringen, was erfahrungsgemäß ein längerfristige ingenieurtechnische<br />

Aufgabe darstellt.<br />

Sprachausgabe: Die Sprachausgabe kann relativ einfach in Form von abspielbaren Audioaufnahmen<br />

realisiert werden. Jedoch ist in Anbetracht von geringen Speicherressourcen auf der Zielplattform<br />

eventuell über ein anderes Verfahren nachzudenken. Es stehen hierfür eine Wortsynthese oder Vollsynthese<br />

zur Disposition. Um die Stimme der Srachausgabe an die Anwendung bzw. an die Bedürfnisse<br />

des Kindes anpassen zu können, wird ein Verfahren zur Voice Conversion implementiert.


Forschungsbericht<br />

Pädagogik: Eine besondere Herausforderung stellt die Mensch-Maschine-Schnittstelle bei der Lingubär-Anwendung<br />

dar. Hier wird in Kooperation mit Erziehungswissenschaftlern eine Konzeption entwickelt,<br />

die sprachliche Lehrinhalte in kindgerechter Form aufbereiten <strong>und</strong> im Lingubär umsetzen soll.<br />

Dabei entsteht ein Dialogmodul. Das Design des Dialogs unterscheidet sich dabei von Geräten für<br />

Erwachsene, da wieder auf die Spezifik von kindlichen Verhaltensweisen eingegangen werden muss.<br />

Weiterhin muss die äußere Form der Puppe kindgerecht gestaltet sein (Kindchenschema), um zu<br />

gewährleisten, dass sie das Kind als Gesprächspartner akzeptiert.<br />

3.4.6 CALL-Kooperation mit der Beuth Hochschule für Technik, Berlin<br />

(Arbeitsgruppe von Prof. Hansjörg Mixdorff)<br />

Ähnlich zu den Dresdner Projekten, laufen an der Beuth Hochschule seit etwa zwei Jahren Forschungsarbeiten<br />

zur Verwendung von Sprachtechnologie beim Aussprachentraining. Im Gegensatz<br />

zum Fokus auf die spezifischen Gegebenheiten beim Deutschunterricht slawischer Muttersprachler in<br />

<strong>Dresden</strong>, werden in Berlin chinesische bzw. taiwanesische Muttersprachler sowie deutsche Sprachschüler<br />

beim Mandarin-Unterricht untersucht <strong>und</strong> verschiedene Technologien evaluiert.<br />

Im Dresdner EURONOUNCE-Projekt wurden u. a. slawische <strong>und</strong> deutsche Referenz-Sprachdaten<br />

gesammelt <strong>und</strong> der Softwareprototyp AzAR 2.0 mit der zugr<strong>und</strong>e liegenden Spracherkennungstechnik<br />

entwickelt. Außerdem laufen in Berlin Vorbereitungen für eine Projekterweiterung in Richtung japanischer<br />

Muttersprachler <strong>und</strong> für eine stärkere prosodische Gewichtung sprachübergreifender CALL-<br />

Studien (computer-aided language learning).<br />

Um das gemeinsame Know-how beider Institutionen zu bündeln, wurde eine entsprechende Kooperation<br />

vereinbart. Dazu gehören u. a. der Austausch von Software <strong>und</strong> Sprachdaten, die gemeinsame<br />

Analyse nach phonologisch-prosodischen Kriterien sowie ein teilweise gemeinsamer Auftritt bei externen<br />

Partnern, Anwendern oder Fördermittelgebern.<br />

An der Zusammenarbeit waren mehrere Mitarbeiter bzw. Doktoranden des Dresdner Instituts beteiligt:<br />

Hussein Hussein, Oliver Jokisch, Hongwei Ding <strong>und</strong> Rainer Jäckel.<br />

Abbildung 3.20: Projektmeeting mit der Arbeitsgruppe von Prof. Li Aijun , CASS Beijing, 25.09.2009<br />

Herr Jokisch unternahm zwei Forschungsreisen nach China <strong>und</strong> Japan. Anlässlich dieser Aufenthalte<br />

hielt er Vorträge zur CALL-Thematik an folgenden Einrichtungen: Chinese Academy of Social Sciences<br />

(Beijing), Tongji-<strong>Universität</strong> (Shanghai), University of Science and Technology of China (Hefei), University<br />

of Tokyo, Kobe University <strong>und</strong> Advanced Institute of Science and Technology (Kanazawa). Dabei<br />

wurden auch die Verfügbarkeit von Sprachdatenressourcen <strong>und</strong> Sprechern bzw. die Laborbedingungen<br />

vor Ort analysiert.<br />

33


34<br />

Forschungsbericht<br />

3.4.7 Multimediale Vorlesungsergänzung zur Systemtheorie <strong>und</strong><br />

Signalverarbeitung<br />

Aus dem Multimediafonds der TU <strong>Dresden</strong> wurde im Jahre 2009 das Projekt ”Multimediale Vorlesungsergänzung<br />

zur Systemtheorie <strong>und</strong> Signalverarbeitung“ gefördert.<br />

Im Mittelpunkt dieses Projektes stand die Erstellung von Lernmodulen zu den Vorlesungen Systemtheorie<br />

I, II <strong>und</strong> III <strong>und</strong> Signalverarbeitung <strong>und</strong> deren Integration auf der Lernplattform OPAL des Bildungsportals<br />

Sachsen sowie die Entwicklung von interaktiven Demonstratoren als Vorlesungsergänzung<br />

zum Selbststudium.<br />

Abbildung 3. 21: HTML-Seite zum Vorlesungsskript Systemtheorie III<br />

Die Erstellung der Vorlesungsskripte wurde von der leitenden Idee getragen, für die verschiedenen<br />

Präsentationsmöglichkeiten der Vorlesungen nur eine einzige Datenbasis zu nutzen <strong>und</strong> pflegen zu<br />

müssen. Bei den Präsentationen der Vorlesung handelt es sich um das vom Vorlesenden genutzte<br />

Vorlesungsskript, Folien zur Vorlesung sowie die HTML-Seiten auf der Lernplattform.<br />

Das Konzept, für diese einheitliche Datenbasis das Satzsystem LaTeX zu nutzen, hat sich sehr bewährt.<br />

Problematisch dabei ist lediglich die mehrfache Nutzung von Abbildungen, strukturierten Texten<br />

<strong>und</strong> mathematischen Formeln in den verschiedenen Präsentationen. Hierbei wurde die jeweilige<br />

Anpassung mittels Compiler-Direktiven direkt in den LaTeX-Quellen vorgenommen.<br />

Nach einer initialen Überarbeitung der Rohfassungen der Vorlesungsskripte Systemtheorie I, II <strong>und</strong> III<br />

in den Zeiträumen Dezember 2008 bis Februar 2009, begannen die Arbeiten zu einer automatischen<br />

Erstellung der HTML-Seiten aus den LaTeX-Quellen. Hierbei konnte auf Erfahrung mit den Werkzeug<br />

make, pdflatex <strong>und</strong> latex2html zurückgegriffen werden. Zur gemeinsamen Bearbeitung der Quellen<br />

wird Subversion (svn) als Versionsverwaltungssystem genutzt. Eine weitere Überarbeitung der Vorlesungsskripte<br />

erfolgte parallel zur Erstellung der HTML-Seiten bis zum Projektende im Dezember<br />

2009.


Forschungsbericht<br />

Bei der Erstellung der HTML-Seiten ergaben sich im Vergleich zu einem gedruckten Vorlesungsskript<br />

einige Besonderheiten. Diese betreffen besonders die Erzeugung von Tabellen, die Umsetzung von<br />

einigen Formelzeichen <strong>und</strong> die Wahl der Gliederungstiefe. Beim letzteren gilt es, stets die Balance<br />

zwischen Überblick <strong>und</strong> Länge der Informationen auf einer HTML-Seite zu wahren <strong>und</strong> mittels Unterinhaltsverzeichnissen<br />

Übersichtlichkeit einzuführen.<br />

In Ergänzung zu den Vorlesungen Systemtheorie II <strong>und</strong> Signalverarbeitung wurden zwei interaktive<br />

Demonstratoren geschaffen <strong>und</strong> in die entsprechenden Lernmodule der Lernplattform OPAL eingeb<strong>und</strong>en.<br />

Es wurde ein Java-Applet ”Lineares zeitinvariantes System“ erstellt, das die Funktionsweise<br />

eines kanonischen linearen zeitinvarianten Systems (Digitalfilter) anhand von wählbaren Eingangssignalen<br />

<strong>und</strong> Systemparametern demonstriert. Die Ausgangssignale dieses Systems können grafisch<br />

angezeigt <strong>und</strong> akustisch wiedergegeben werden.<br />

Abbildung 3. 22: Demonstrator: "Lineares zeitinvariantes System -- LTIS"<br />

Das Ziel des zweiten Demonstrators ”SignalANalyse <strong>und</strong> -SYnthese – SANSY“ ist es, die verschiedenen<br />

Analyse-, Transformations- <strong>und</strong> Synthesealgorithmen der Sprachverarbeitung zu testen <strong>und</strong> den<br />

Einfluss der Variation der Parameter auf die jeweiligen Merkmale anhand des synthetisierten Sprachsignals<br />

hörbar zu machen.<br />

Abbildung 3. 23: Demonstrator: "SignalANalyse <strong>und</strong> -SYnthese -- SANSY"<br />

35


3.5 Verarbeitung von Musiksignalen<br />

36<br />

Forschungsbericht<br />

In Kooperation mit der mufin GmbH wurde das Projekt "`Untersuchung des Einsatzes von Verfahren<br />

zur Analyse zeitlicher Verläufe bei der Extraktion perzeptueller musikalischer Attribute"' ins Leben<br />

gerufen.<br />

3.5.1 Einordnung des Forschungsprojektes<br />

Die Verbreitung von Musik wurde durch das Internet <strong>und</strong> den mp3-Standard revolutioniert. Jeder Musiker<br />

<strong>und</strong> Künstler bekommt die Möglichkeit seine Kunst selbst anzubieten, was zu einem nahezu<br />

unüberschaubaren Angebot an Musik führt. Neue Technologien wie die Navigation durch Musiksammlungen,<br />

deren Visualisierung, Annotation, Musikempfehlungssysteme, semantische Suche <strong>und</strong><br />

das Bilden von Kaufempfehlungen sind nötig. In diesem spannenden Umfeld bewegt sich das vorliegende<br />

Forschungsprojekt der Klassifikation musikalischer Aspekte.<br />

Menschen beschreiben Musik mit einfachen, signalfernen, bedeutungsvollen Aspekten. Deren automatische<br />

Gewinnung aus dem Musiksignal bildet die Gr<strong>und</strong>lage für eine Annotation von Musiktiteln<br />

<strong>und</strong> dient damit allen oben genannten Aufgabenfeldern. Gegenstand der Untersuchungen sind unter<br />

anderem Aspekte wie Genre, Klangfarbe, Tempo, Rhythmus <strong>und</strong> Songstrukturen. Aus Sicht der Mustererkennung<br />

werden Merkmalvektoren, hinter denen sich Ausprägungen eines Aspektes verbergen,<br />

beobachtet. Da Musiksignale Informationen in ihrer zeitlichen Struktur tragen, wird insbesondere der<br />

zeitliche Verlauf von Musik mittels Segmentierung in die Untersuchung einbezogen.<br />

Abbildung 3.24: Visualisierung zur Einordnung des Forschungsprojekts.


3.5.2 Durchführung<br />

Forschungsbericht<br />

Zu Beginn standen gr<strong>und</strong>sätzliche Betrachtungen bezüglich der Eignung von Verfahren der Mustererkennung<br />

für die Ermittlung musikalischer Aspekte [3]. Abschnitt 3.5.3 enthält weitere Ausführungen<br />

zu den Ergebnissen. Aufbauend auf dieser Studie wurde in der nächsten Phase der Aspekt Genre<br />

näher untersucht [1]. Dabei wurde die vorliegende Methodik der Firma mufin in einen internationalen<br />

Kontext gesetzt, sowie verschiedene Schritte der Aspektgewinnung näher beleuchtet <strong>und</strong> verbessert.<br />

Die weiterführenden Schritte werden sich mit dem Rhythmus in Musik auseinandersetzen. Fokus<br />

wird dort zunächst die Erkennung von Tanzmusik auf der Gr<strong>und</strong>lage von Rhythmus sein.<br />

3.5.3 Vergleich statistischer Klassifikatoren zur Ermittlung<br />

musikalischer Aspekte<br />

Die am Anfang des Projektes stehende Studie untersuchte die sechs Aspekte Instrument Density,<br />

Music Color, Percussiveness, Tempo, Sing Detect <strong>und</strong> Style. Ausgangspunkt für die Gewinnung dieser<br />

Aspekte war ein Pool von Musiksignalen mit der dazugehörigen Beschriftung der Aspektausprägungen.<br />

Anschließend wurden Merkmale aus dem Signal extrahiert <strong>und</strong> eine sek<strong>und</strong>äre Merkmalanalyse<br />

durchgeführt. Die Unterscheidungsfunktion ordnet jedem Merkmalvektor eine Aspektausprägung<br />

zu auf deren Gr<strong>und</strong>lage die Entscheidungsfunktion eine Ausprägung für den gesamten Song bildet.<br />

Die Aspektgewinnung ist in Abbildung 3.25 dargestellt.<br />

Abbildung 3.25: Übersichtsdarstellung der Aspektgewinnung - Gegenstand der Untersuchungen war<br />

der grau hinterlegte Klassifikator<br />

Als Klassifikatoren wurden Gaussian-Mixture-Models <strong>und</strong> Hidden-Markov-Modelle verwendet. Letzte<br />

hatten zunächst eine feste Links-Rechts-Struktur, wo 3 bzw. 10 Zustände als vorgebene Struktur<br />

dienten. Das führte dazu, dass im Testmaterial mindestens 3 bzw. 10 aufeinanderfolgende Merkmalvektoren<br />

einer Klasse zugeordnet wurden. Im letzten Experiment, dem Topologietraining, erhielten<br />

die Hidden-Markov-Modell vollkommene Freiheit, die zeitliche Struktur einer Aspektausprägung über<br />

den ganzen Song abzubilden. Besonders der zuletzt genannte Ansatz ist bemerkenswert, ermöglicht<br />

er doch komplexere zeitliche Verläufe einer Aspektausprägung wiederzugeben (Abbildung 3.26).<br />

Es hat sich kein Klassifikationsansatz für alle sechs Aspekte als alleiniger Gewinner durchgesetzt.<br />

Betrachtet man die verschiedenen Aspekte, so bewegen sich die jeweils besten Erkennungsraten<br />

zwischen 62,4±3,4 für den Tempoaspekt <strong>und</strong> 95,8±2,2 für Percussiveness. Das automatische Topologietraining<br />

setzte sich nicht für alle Aspekte mit der besten Erkennungsrate durch, konnte aber in<br />

den meisten Fällen die Anzahl der Modellparameter stark reduzieren. Es bleibt festzuhalten, dass die<br />

Mustererkennung in Musikstücken mittels der hier verwendeten Markov-Modelle prinzipiell möglich<br />

ist.<br />

37


38<br />

Forschungsbericht<br />

Abbildung 3.26: Darstellung des HMM nach dem Topologietraining für den Aspekt Instrument Density.<br />

Die Kanten sind mit Eingabesymbol (Nummer der Normalverteilung), Ausgabesymbol <strong>und</strong> Übergangswahrscheinlichkeit<br />

beschriftet.<br />

Literatur: [2]<br />

Literatur<br />

[1] Huebler, S.: Untersuchung des Einsatzes von Verfahren zur Analyse zeitlicher Verläufe<br />

bei der Extraktion perzeptueller musikalischer Attribute. Zwischenbericht 1, mufin GmbH,<br />

Okt 2009. Untersuchung des Genreaspektes der Firma mufin mit Literaturstudium, internationalem<br />

Vergleich <strong>und</strong> Experimenten bezüglich sek<strong>und</strong>ärere Merkmalanalyse, SVM <strong>und</strong> Entscheidungsfunktion.<br />

[2] Huebler, S., M. Wolff <strong>und</strong> M. Eichner: Vergleich statistischer Klassifikatoren zur<br />

Ermittlung musikalischer Aspekte. In: Hoffmann, R. (Hrsg.): Elektronische Sprachsignalverarbeitung.<br />

Tagungsband der 20. Konferenz, <strong>Dresden</strong>, 21. - 23. 9., Bd. 53 d. Reihe Studientexte zur Sprachkommunikation,<br />

S. 338–345, Sep 2009.<br />

[3] Wolff, M., S. Huebler <strong>und</strong> S. Wittenberg: Untersuchung des Einsatzes von Verfahren<br />

zur Analyse zeitlicher Verläufe bei der Extraktion perzeptuelle musikalischer Attribute.<br />

Forschungsbericht, mufin GmbH, Sep 2009.


Forschungsbericht<br />

3.6 Forschungsaktivitäten der Honorarprofessur Elektroakustik<br />

In der Verbindung von klassischer Elektroakustik <strong>und</strong> moderner Signalverarbeitung ergeben sich viele<br />

interessante Forschungsaufgaben, deren Bearbeitung <strong>und</strong> Lösung für die Entwicklung von moderner<br />

Audiotechnik notwendig ist. Ein erster Schwerpunkt ist die verbesserte Modellierung von Lautsprechern<br />

<strong>und</strong> anderen Wandlern im Klein- <strong>und</strong> Großsignalbereich sowie die Bestimmung der entsprechenden<br />

freien Modellparameter mit Hilfe der Systemidentifikation. Die optimale Schätzung der effektiv<br />

abstrahlenden Fläche Sd mit Hilfe von Laserscanndaten wurde in einer <strong>Diplom</strong>arbeit bearbeitet <strong>und</strong><br />

eine interessante Lösung entwickelt. Ein weiterer Schwerpunkt ist die schnelle Erkennung <strong>und</strong> Lokalisierung<br />

von irregulären Lautsprecherdefekten, wie zum Beispiel eine reibende Schwingspule,<br />

Fremdkörper, schwingende Teile <strong>und</strong> Lecks in Lautsprechergehäusen. In einer <strong>Diplom</strong>arbeit wurde<br />

ein Demodulationsverfahren entwickelt, das aus der Hüllkurve des Messsignals eindeutige Merkmale<br />

für modulierte turbulente Strömungsgeräusche gewinnt. Dieses Verfahren soll auch auf mehrere Mikrofone<br />

erweitert <strong>und</strong> zur Lokalisierung der Leckstelle verwendet werden. Weitere Analyseverfahren<br />

werden für zufällige <strong>und</strong> deterministische Verzerrungen von anderen Lautsprecherdefekten entwickelt.<br />

Das Ziel dieser Forschung ist die Entwicklung eines Expertensystems, das mit Hilfe der Fuzzylogik<br />

diese Merkmale verknüpft <strong>und</strong> die wahrscheinlichste Fehlerursache erkennt.<br />

3.7 Historische Aktivitäten<br />

3.7.1 Bestandserschließung<br />

Auch im Jahr 2009 wurde an der Erschließung der Bestände der historischen akustisch-phonetischen<br />

Sammlung (HAPS) weiter gearbeitet. Die sehr aufwendigen Arbeiten zur Beschreibung <strong>und</strong> fotografischen<br />

Dokumentation der durch die 2005 übernommenen historischen Gerätesammlung des Phonetischen<br />

Instituts der <strong>Universität</strong> Hamburg konnten im Wesentlichen abgeschlossen werden. Damit<br />

steht das Material für eine Erweiterung der bestehenden Internetseite bereit, die bei Verfügbarkeit<br />

der Bearbeitungskapazität erfolgen wird. Den Herren Prof. Dr. Dieter Mehnert <strong>und</strong> Dr. Rolf Dietzel ist<br />

wieder für ihren unermüdlichen Einsatz zu danken. Nach Fertigstellung der Fotodokumentation konzentrieren<br />

sich jetzt die Arbeiten auf die Vorbereitung eines gedruckten Kataloges.<br />

Für die formale Inventarisierung nach den Vorschriften der Kustodie der TU <strong>Dresden</strong> konnte 2008 ein<br />

Mitarbeiter auf ABM-Basis für ein Jahr eingestellt werden. Erfreulicherweise ließ sich diese Unterstützungsmaßnahme<br />

im Berichtsjahr noch einmal verlängern, so dass die Erarbeitung der Datenbank<br />

weitergeführt werden konnte.<br />

3.7.2 Öffentlichkeitsarbeit<br />

Auch 2009 wurden große Anstrengungen unternommen, die HAPS <strong>und</strong> unsere historischen Arbeiten<br />

der interessierten Öffentlichkeit durch Führungen, Vorträge <strong>und</strong> Publikationen vorzustellen, wie die<br />

folgende Liste zeigt:<br />

• Mehrfach Führung von kleineren Besuchergruppen<br />

• 20. / 21. 3. 2009 Arbeitstreffen am Phonetischen Institut der <strong>Universität</strong> Amsterdam zur Geschichte<br />

der Sprachsynthese unter Beteiligung von Prof. Tjeerd de Graaf (Leeuwarden)<br />

• 24. 3. 2009: Beteiligung an der strukturierten Sitzung „History of Acoustics“ der NAG / DAGA<br />

2009 (Organisation der Sitzung: R. Hoffmann <strong>und</strong> R. M. Aarts) mit einem Beitrag über Resonatoren<br />

nach Schäfer<br />

• 19. 6. 2009: Lange Nacht der Wissenschaften <strong>Dresden</strong>. Besichtigung der Sammlungsräume; Vortrag<br />

"Forschen wie Professor Higgins'"<br />

• 16. 7. 2009: Vortrag über Wolfgang von Kempelen als Erfinder für die Arbeitsgruppe Geschichte<br />

der Otologie / Literarischer Arbeitskreis Borkum<br />

39


40<br />

Forschungsbericht<br />

• 13. 9. 2009: 80. Geburtstag von Prof. Dr. Wolf (Frankfurt), Beteiligung an der Festschrift mit je<br />

einem Beitrag über Valentin Merbitz <strong>und</strong> über die Auswertung von Phonographenwalzen mit dem<br />

Boekeschen Gestell<br />

• 11. 11. 2009: Führung für die Elektroakustik-Absolventen des Jahres 1969 der Fakultät Elektrotechnik<br />

• 23. / 24. 9. 2009: Durchführung des Traditionstages als Ergänzung der 20. Konferenz "Elektronische<br />

Sprachsignalverarbeitung", <strong>Dresden</strong>. Beteiligung mit mehreren historischen Beiträgen (siehe<br />

den Abschnitt „Konferenzen“ in diesem Jahresbericht)<br />

• 23. 9. 2009: Eröffnung der Sonderausstellung „SprachSignale“ in den <strong>Technische</strong>n Sammlungen<br />

<strong>Dresden</strong> mit Beständen der HAPS; Veröffentlichung eines Flyers <strong>und</strong> eines Ausstellungsführers<br />

(siehe Abbildung 3. 27 <strong>und</strong> Abbildung 3. 28). Die Ausstellung war bis zum 10. Januar 2010 geplant<br />

<strong>und</strong> wurde wegen der guten Resonanz bis zum 21. März 2010 verlängert.<br />

• 8. 11. 2009 <strong>und</strong> 6. 12. 2009: Öffentliche Vorträge in den <strong>Technische</strong>n Sammlungen <strong>Dresden</strong> als<br />

Begleitprogramm der Ausstellung „SprachSignale“<br />

• 17. 11. 2009: Vortrag über die HAPS im Rahmen der Ringvorlesung (Studium generale) der Fakultät<br />

ET / IT<br />

Abbildung 3. 27: Ausstellung SprachSignale in den <strong>Technische</strong>n Sammlungen <strong>Dresden</strong>.


Forschungsbericht<br />

Abbildung 3. 28: Erste Führung durch die Ausstellung durch Prof. Dr. D. Mehnert.<br />

3.7.3 Projekte zu historischen phonetischen Geräten<br />

Übertragungsverhalten Mareyscher Kapseln<br />

Im Jahresbericht 2008 wurde dieses Projekt, das anteilig durch die DEGA gefördert wurde, bereits<br />

vorgestellt. Aufgr<strong>und</strong> ihrer großen Bedeutung für die historische phonetische Messtechnik ist es von<br />

großem Interesse, das Übertragungsverhalten der verschiedenen Formen der Mareyschen Kapseln<br />

beurteilen zu können. In den Teilen des Projektes, über die bereits berichtet wurde, erfolgte die Vermessung<br />

der verbreiteten Standardform mit einem Laservibrometer vorgenommen.<br />

Im Berichtsjahr wurden die Untersuchungen ausgeweitet. Zunächst war zu berücksichtigen, dass eine<br />

Vielzahl von Sonderformen existiert, deren Verwendung <strong>und</strong> deren Übertragungsverhalten aufzuklären<br />

sind. Dazu erfolgte im Berichtsjahr eine zweite Messkampagne mit fre<strong>und</strong>licher Unterstützung durch<br />

die Professur für Maschinendynamik <strong>und</strong> Schwingungslehre, deren Laservibrometer genutz werden<br />

konnte.<br />

Weiterhin wurde der Frage nach dem Ursprung der Mareyschen Kapseln nachgegangen. Vereinfacht<br />

dargestellt, ergibt sich die folgende Entwicklungslinie: Im Umfeld des Begründers des experimentellen<br />

Medizin, Claude Bernard (1813 – 1878), entstand die Forderung nach Aufzeichnungsmöglichkeiten<br />

für physiologische Vorgänge. Étienne-Jules Marey (1830 - 1904) entwickelte um 1860 ein erstes Gerät<br />

zur Aufzeichnung des Pulses (Sphygmograph) <strong>und</strong> verschiedene andere Aufzeichnungsgeräte, an<br />

denen sich Frühformen der Wandlerkapseln nachweisen lassen (Abbildung 3. 29). Die Anwendung in<br />

der Phonetik ist dem Vater der Experimentalphonetik, Abbé Jean Rousselot (1846 – 1924), zu verdanken.<br />

Einer seiner Doktoranden war Giulio Panconcelli-Calzia, der das Phonetische Laboratorium in<br />

Hamburg aufgebaut hat, dessen historische Geräte sich jetzt in <strong>Dresden</strong> befinden <strong>und</strong> der die experimentalphonetische<br />

Entwicklung in Deutschland wesentlich geprägt hat.<br />

41


42<br />

Forschungsbericht<br />

Abbildung 3. 29: Pulsaufnehmer mit<br />

Arm-Manschette. Beaune, Musée<br />

E.-J. Marey. Foto: R. Dietzel.<br />

Um diese Entwicklungslinie besser dokumentieren zu können, wurden Kontakte zu französischen<br />

wissenschaftsgeschichtlichen Einrichtungen aufgenommen. Als ergiebig erwiesen sich die städtischen<br />

Museen in Beaune, der Geburtsstadt Mareys. Dort existiert ein sehr gut gepflegtes Musée<br />

Marey, das leider nicht mehr öffentlich zugänglich ist, aber dank der fre<strong>und</strong>lichen Unterstützung durch<br />

die zuständige Kustodin, Frau Marion Leuba, am 7. 10. 2009 besucht werden konnte. Erwähnenswert<br />

sind auch die Bestände des Musée Claude Bernard in Saint Julien en Beaujolais im Sinne einer Ergänzung<br />

der Bestände in Beaune. Es ist beabsichtigt, die Kontakte weiterzuführen <strong>und</strong> über die bisherigen<br />

Ergebnisse zur historischen Sitzung der DAGA 2010 zu berichten.<br />

Übertragungsverhalten mechanischer Resonatoren<br />

Betrachtet man die historische phonetische Messtechnik, ist ein weiteres wichtiges Teilgebiet die<br />

Messung von Frequenzen bzw. Tonhöhen mit Hilfe von mechanischen Resonatoren. Insofern ist es<br />

auch für diese Gerätegruppe interessant, die Übertragungsfunktionen zu messen <strong>und</strong> insbesondere<br />

festzustellen, wie genau die erzielten Messergebnisse sind. Deshalb wurden im Berichtsjahr zwei<br />

Messkampagnen im großen reflexionsarmen Raum des Instituts für Akustik <strong>und</strong> Sprachkommunikation<br />

durchgeführt.<br />

Abbildung 3. 30: Serie von Rohrresonatoren<br />

nach Schaefer.<br />

Aus dem Bestand der HAPS. Foto:<br />

R. Dietzel.


Forschungsbericht<br />

Die erste Serie von Messungen betraf die in Abbildung 3. 30 dargestellten Rohrresonatoren; über die<br />

Ergebnisse wurde zur NAG/DAGA in Rotterdam berichtet. Die zweite Serie bezog sich auf die historischen<br />

Helmholtz-Resonatoren; ihre Ergebnisse flossen in einen Beitrag zum <strong>Dresden</strong>er Traditionstag<br />

ein.<br />

3.7.4 Geschichte der mechanischen Sprachsynthese<br />

Angeregt durch die eigentümlichen Stimm-Mechaniken aus der HAPS, deren Abbildung im Berichtsjahr<br />

alle gedruckten Dokumente der Ausstellung SprachSignale zierte, bemühen wir uns seit längerer<br />

Zeit um eine Vertiefung der Kenntnisse über die Geschichte der mechanischen Sprachsynthese. Im<br />

Berichtsjahr wurden intensive Recherchen zu Johann Valentin Merbitz (1650 – 1704) durchgeführt.<br />

Der Hintergr<strong>und</strong> ist, dass Merbitz, der an der <strong>Dresden</strong>er Kreuzschule als Konrektor wirkte, die Erfindung<br />

eines sprechenden Kopfes zugeschrieben wird. Wir haben diese Geschichte in unserem Jahresbericht<br />

von 2007 als „Letzte Seite“ schon einmal als Kuriosität beschrieben. Nun bestand die Aufgabe,<br />

der Überlieferung ernsthaft nachzugehen.<br />

Die Recherche war insofern aufwendig, als es praktisch keine Vorarbeiten z. B. in Form einer Biografie<br />

gibt. Im Ergebnis liegt inzwischen eine vermutlich fast lückenlose Dokumentation allen Materials<br />

vor, das jemals über oder von Merbitz gedruckt worden ist. Eine Zusammenfassung wurde als Beitrag<br />

in Band 52 unserer Studientexte gedruckt <strong>und</strong> zusätzlich in Kurzform zum Traditionstag präsentiert.<br />

Aus der Sicht der Geschichte der Sprachsynthese ist die wichtigste Aussage, dass es über den angeblichen<br />

sprechenden Kopf nur eine einzige Quelle (eine Leipziger Disputation aus dem Jahre 1705)<br />

gibt, die sich lediglich auf glaubwürdige Zeugen beruft. Die Frage, ob es den Kopf in irgendeiner Form<br />

wirklich gegeben hat, bleibt damit in der Schwebe.<br />

Klar ist, dass die gründliche Literaturrecherche nur ein erster Schritt gewesen sein kann. Soweit es<br />

realisierbar ist, sollen sich Archivstudien anschließen.<br />

43


44<br />

Drittmittelprojekte <strong>und</strong> haushaltfinanzierte Forschung<br />

4 Drittmittelprojekte <strong>und</strong> haushaltfinanzierte Forschung<br />

4.1 Drittmittelprojekte<br />

Verarbeitung von Mikrofonsignalen<br />

2006 - 2010<br />

Microtech Gefell GmbH<br />

Projektleiter: Prof. Hoffmann<br />

Bearbeiter: Dipl.-Ing. Richter<br />

Intelligent Language Tutoring System with Multimodal Feedback Functions<br />

2007 - 2009<br />

EU im Rahmen des Lifelong-Learning-Programms<br />

Projektleiter: Prof. Hoffmann<br />

Bearbeiter: Dipl.-Slaw. Jäckel, Dipl.-Ing. Jokisch<br />

Sprachsteuerung für Mess- <strong>und</strong> Prüfgeräte<br />

2008 – 2010<br />

BMBF<br />

Projektleiter: Prof. Hoffmann<br />

Bearbeiter: Dipl.-Ing. Duckhorn, Dipl.-Ing. Strecha<br />

Akustische Auslegung, mobiles <strong>und</strong> akustisches Frontend<br />

2008 – 2010<br />

AiF<br />

Kooperation mit der Professur für <strong>Technische</strong> Informationssysteme (Prof. Kabitzsch)<br />

Projektleiter: Prof. Kabitzsch<br />

Bearbeiter: Dipl.-Ing. Fehér<br />

EXIST-Gründerstipendium: Virtueller Assistent – AvatR<br />

2008 – 2009<br />

BMBF<br />

Projektleiter: Prof. Hoffmann<br />

EXIST-Gründerstipendium: LinguBär<br />

2009 – 2010<br />

BMBF<br />

Projektleiter: Prof. Hoffmann<br />

Untersuchung des Einsatzes von Verfahren zu Analyse zeitlicher Abläufe bei der Extraktion<br />

perzeptueller musikalischer Attribute<br />

2009 – 2012<br />

mufin GmbH<br />

Projektleiter: Prof. Hoffmann<br />

Bearbeiter: Dipl.-Ing. Hübler<br />

Industrielle Anwendungen der technischen Sprachkommunikation<br />

2009<br />

GWT-TUD GmbH (Transfereinrichtung der TU <strong>Dresden</strong>)<br />

Servicebereich „Signalverarbeitung <strong>und</strong> Mustererkennung“<br />

Projektleiter: Prof. Hoffmann, PD Dr. Kordon, Dipl.-Ing. Jokisch


Drittmittelprojekte <strong>und</strong> haushaltfinanzierte Forschung<br />

4.2 Haushaltfinanzierte Forschung<br />

Dresdner Sprachsynthesesystem DRESS/microDRESS/<br />

Mitwirkung im European Center of Excellence in Speech Synthesis (ECESS)<br />

2009<br />

Dipl.-Ing. O. Jokisch, Dr. H. Ding, MSc. H. Gamboa Rosales, Dipl.-Ing. H. Hussein, PD Dr. U. Kordon,<br />

Dipl.-Ing. G. Strecha u.a.<br />

Unified Approach for Speech Synthesis and Recognition (UASR)<br />

2009<br />

Dr.-Ing. M. Wolff, Dipl.-Ing. F. Duckhorn, Dr.-Ing. M. Eichner, PD Dr. U. Kordon, Dipl.-Ing. G. Strecha,<br />

Dipl.-Inf. C. Tschöpe, Dipl.-Ing. S. Wittenberg<br />

Akustisches Frontend<br />

2009<br />

Dipl.-Ing. T. Fehér, Dipl.-Ing. R. Petrick, Dipl.-Ing. D. Richter<br />

Cross-modal analysis of verbal and non-verbal communication<br />

COST-Aktion 2102<br />

2006 – 2010<br />

Projektleitung: Prof. Dr. A. Esposito (Italien)<br />

Prof. Dr.-Ing. habil. R. Hoffmann (Management Committee Member)<br />

Sprachtechnologische Aspekte der multimodalen Interaktion<br />

2009<br />

Projektaquisition in Kooperation mit der Fakultät Erziehungswissenschaften<br />

Prof. Dr.-Ing. habil. R. Hoffmann, Dipl.-Ing. O. Jokisch, Dipl.-Ing. H. Hussein<br />

Kooperationspartner Fakultät Erziehungswissenschaften: Prof. Dr. L. Alisch<br />

Hochwertiges Diphoninventar für die deutsche Sprachsynthese<br />

seit 2002<br />

Prof. Dr.-Ing. habil. R. Hoffmann, Dipl.-Ing. O. Jokisch, Dr. H. Ding<br />

Kooperation mit der MLU Halle/Saale, Frau Prof. Dr. U. Hirschfeld<br />

Historische phonetische Geräte<br />

seit 2002<br />

Prof. Dr.-Ing. habil. R. Mehnert, Dr.-Ing. R. Dietzel<br />

45


5 Veröffentlichungen<br />

5.1 Bücher, Buchbeiträge<br />

46<br />

Veröffentlichungen<br />

[1] GERLACH, G.; HOFFMANN, R. (Hrsg.): Neue Entwicklungen in der Elektroakustik <strong>und</strong> elektromechanischen<br />

Messtechnik. Prof. Dr.-Ing. habil. Günther Pfeifer zum 65. Geburtstag. <strong>Dresden</strong>:<br />

TUDpress 2009 (Dresdner Beiträge zur Sensorik, Bd. 40). ISBN 978-3-941298-55-2.<br />

[2] HOFFMANN, R.: Johann Valentin Merbitz <strong>und</strong> sein sprechender Kopf. Ein Beitrag zur Frühgeschichte<br />

der multimedialen Kommunikation. In: LACROIX, A. (Hrsg.): Beiträge zur Signaltheorie,<br />

Signalverarbeitung, Sprachakustik <strong>und</strong> Elektroakustik. Dietrich Wolf zum 80. Geburtstag. <strong>Dresden</strong>:<br />

TUDpress 2009 (Studientexte zur Sprachkommunikation, Bd. 52), S. 154 – 169. ISBN 978-<br />

3-941298-30-9.<br />

[3] HOFFMANN, R. (Hrsg.): Elektronische Sprachsignalverarbeitung 2009, Band 1. Tagungsband<br />

der 20. Konferenz, <strong>Dresden</strong>, 21. – 23. September 2009. <strong>Dresden</strong>: TUDpress 2009 (Studientexte<br />

zur Sprachkommunikation, Bd. 53). ISBN 978-3-941298-31-6.<br />

[4] HOFFMANN, R. (Red.): SprachSignale – Analyse <strong>und</strong> Synthese der menschlichen Sprache.<br />

Ausstellungsführer, <strong>Technische</strong> Sammlungen <strong>Dresden</strong> 2009. ISBN 978-3-86780-134-8.<br />

[5] HOFFMANN, R.: Denken in Systemen – Reflexionen über das Motto einer Fakultät. In:<br />

GERLACH, G.; HOFFMANN, R. (Hrsg.): Neue Entwicklungen in der Elektroakustik <strong>und</strong> elektromechanischen<br />

Messtechnik. <strong>Dresden</strong>: TUDpress 2009 (Dresdner Beiträge zur Sensorik, Bd.<br />

40), S. 13 - 23. ISBN 978-3-941298-55-2.<br />

[6] KORDON, U.; WOLFF, M.; TSCHÖPE, C.: Mustererkennung für Sensorsignale. GERLACH, G.;<br />

HOFFMANN, R. (Hrsg.): Neue Entwicklungen in der Elektroakustik <strong>und</strong> elektromechanischen<br />

Messtechnik. <strong>Dresden</strong>: TUDpress 2009 (Dresdner Beiträge zur Sensorik, Bd. 40), S. 69 - 78.<br />

ISBN 978-3-941298-55-2.<br />

[7] MEHNERT, D.; DIETZEL, R.: Von Glyphen zu Tonhöhen <strong>und</strong> Intensitäten – Das Boekesche Gestell,<br />

ein historisches Auswertegerät. In: LACROIX, A. (Hrsg.): Beiträge zur Signaltheorie, Signalverarbeitung,<br />

Sprachakustik <strong>und</strong> Elektroakustik. Dietrich Wolf zum 80. Geburtstag. <strong>Dresden</strong>:<br />

TUDpress 2009 (Studientexte zur Sprachkommunikation, Bd. 52), S. 198 - 208. ISBN 978-3-<br />

941298-30-9.<br />

[8] PETRICK, R.: Robuste Spracherkennung unter raumakustischen Umgebungsbedingungen.<br />

<strong>Dresden</strong>: TUDpress 2009 (Studientexte zur Sprachkommunikation, Bd. 49). ISBN 978-3-941298-<br />

47-4.<br />

5.2 Veröffentlichungen in Zeitschriften<br />

[9] KLIPPEL, W., et al.: Distributed Mechanical Parameters of Loudspeakers Part 1: Measurement.<br />

J. of Audio Eng. Soc. 57, No. 9 (2009 Sept.), pp. 500-511.<br />

[10] KLIPPEL, W., et al.: Distributed Mechanical Parameters of Loudspeakers Part 2: Diagnostics. J.<br />

of Audio Eng. Soc. 57, No. 9 (2009 Sept.), pp. 696 - 708.<br />

[11] MA J. K-Y; WHITEHILL, T.L.; CHEUNG, K. S-K. (In print): Effect of stimulus type on dysprosody<br />

in Cantonese speakers associated with Parkinson’s disease. Manuscript accepted by International<br />

Journal of Language and Communication Disorders.<br />

[12] MA, J. K-Y; WHITEHILL, T. L.; SO, S. Y-S. (Accepted): Intonation contrast in Cantonese speakers<br />

with hypokinetic dysarthria associated with Parkinson’s disease. Manuscript accepted by<br />

Journal of Speech, Language and Hearing Research.<br />

[13] PUSCH, T.; CHERIF, C.; FAROOQ, A.; WITTENBERG, S.; WOLFF, M.; HOFFMANN, R.;<br />

TSCHÖPE, C.: Fehlerfrüherkennung an Textilmaschinen mit Hilfe der Körperschallanalyse. Melliand<br />

Textilberichte 3/2009, S. 113 - 115.


Veröffentlichungen<br />

[14] PUSCH, T.; CHERIF, C.; FAROOQ, A.; WITTENBERG, S.; HOFFMANN, R.; TSCHÖPE, C.: Early<br />

fault detection at textile machines with the help of structure-borne so<strong>und</strong> analysis [chines.].<br />

Melliand China (2009) 6, pp. 54 - 56.<br />

[15] TSCHÖPE, C.; WOLFF, M.; HOFFMANN, R.: Akustische Mustererkennung für die ZfP. MP<br />

Materials Testing 10/2009, S. 701 - 704, Carl Hanser Verlag, 2009.<br />

[16] TSCHÖPE, C.; WOLFF, M.: Statistical Classifiers for Structural Health Monitoring. IEEE Sensors<br />

Journal, Volume 9, No. 11, Nov. 2009, pp. 1567 - 1576.<br />

5.3 TU-Informationen <strong>und</strong> Lehrmaterial<br />

[17] JÄCKEL; R.: Curriculardaten für das Lernsystem „AzAR3.0“, Teil „Speech Training“ (Zielsprache<br />

Deutsch). Übungen zu den Themen Vokalsystem, Konsonantensystem, Phonotaktische<br />

Regeln, Suprasegmentalia (50 Seiten, mit Audiodaten).<br />

[18] KLIPPEL, W.: Assessment of Signal Distortion in Audio Systems. Lehrmaterial, 5. - 7. 11. 2009,<br />

TU <strong>Dresden</strong>, ca. 400 S.<br />

5.4 Konferenzveröffentlichungen<br />

[19] BEILIG, M.; HIRSCHFELD, D.; JOKISCH, O.; KOLOSKA, U.: Training of HMMs for pronunciation<br />

error detection – crosslingual bootstrapping vs. flatstart training. In: HOFFMANN, R. (Hrsg.): Elektronische<br />

Sprachsignalverarbeitung 2009, Band 1. Tagungsband der 20. Konferenz, <strong>Dresden</strong>,<br />

21. – 23. September 2009. <strong>Dresden</strong>: TUDpress 2009 (Studientexte zur Sprachkommunikation,<br />

Bd. 53), S. 372 - 379.<br />

[20] COELHO, L.; HAIN, H.-U.; JOKISCH, O.; BRAGA, D.: Towards an Objective Voice Preference<br />

Definition for the Portuguese Language. I Iberian SLTech - I Joint SIG-IL/Microsoft Workshop on<br />

Speech and Language Technologies for Iberian Languages. Porto Salvo, Portugal. 3. – 4. September<br />

2009, S. 67 - 70.<br />

[21] DEMENKO, G.; WAGNER, A.; CYLWIK, N.; JOKISCH, O.; KOLOSKA, U.; HIRSCHFELD, D.:<br />

Audiovisual Feedback for Foreign Language Learning, Proc. 13th <strong>IAS</strong>TED Conf. on Internet and<br />

Multimedia Systems and Applications (IMSA), Honolulu (Hawaii, USA), August 17 - 19, 2009,<br />

CD.<br />

[22] DEMENKO, G.; WAGNER, A.; CYLWIK, N.; JOKISCH, O.: An audiovisual feedback system for<br />

acquiring L2 pronunciation and L2 prosody. Proc. 2 nd ISCA Workshop on Speech and Language<br />

Technology in Education (SLaTE), Wroxall Abbey Estate (UK), September 3 - 5, 2009.<br />

[23] DING, H.; JOKISCH, O.: An investigation of the pronunciation of English words in German SMS<br />

texts. In: HOFFMANN, R. (Hrsg.): Elektronische Sprachsignalverarbeitung 2009, Band 1. Tagungsband<br />

der 20. Konferenz, <strong>Dresden</strong>, 21. – 23. September 2009. <strong>Dresden</strong>: TUDpress 2009<br />

(Studientexte zur Sprachkommunikation, Bd. 53), S. 396 - 402.<br />

[24] DUCKHORN, F.; STRECHA, G.; WOLFF, M.; HOFFMANN, R.: Ein Sprachdialogsystem mit begrenzten<br />

Hardwareressourcen. In: HOFFMANN, R. (Hrsg.): Elektronische Sprachsignalverarbeitung<br />

2009, Band 1. Tagungsband der 20. Konferenz, <strong>Dresden</strong>, 21. – 23. September 2009. <strong>Dresden</strong>:<br />

TUDpress 2009 (Studientexte zur Sprachkommunikation, Bd. 53), S. 88 - 93.<br />

[25] FEHÉR, T.; PETRICK, R.; HOFFMANN, R.: Mehrkanaliges akustisches Front-End für Spracherkennungssysteme.<br />

In: HOFFMANN, R. (Hrsg.): Elektronische Sprachsignalverarbeitung 2009,<br />

Band 1. Tagungsband der 20. Konferenz, <strong>Dresden</strong>, 21. – 23. September 2009. <strong>Dresden</strong>:<br />

TUDpress 2009 (Studientexte zur Sprachkommunikation, Bd. 53), S. 135 - 141.<br />

[26] GAMBOA ROSALES, A.; GAMBOA ROSALES, H.; HOFFMANN, R.: Maximum Likelihood Unit<br />

Selection for Corpus-based Speech Synthesis. In: Proceedings Interspeech 2009, 10 th Annual<br />

Conference of the ISCA, September 6 – 10, 2009, Brighton, U.K., pp. 748 – 751.<br />

47


48<br />

Veröffentlichungen<br />

[27] HAIN, H.-U.; JOKISCH, O.; COELHO, L.: Multilingual Voice Analysis: Towards Prosodic Correlates<br />

of Voice Preference. In: HOFFMANN, R. (Hrsg.): Elektronische Sprachsignalverarbeitung<br />

2009, Band 1. Tagungsband der 20. Konferenz, <strong>Dresden</strong>, 21. – 23. September 2009. <strong>Dresden</strong>:<br />

TUDpress 2009 (Studientexte zur Sprachkommunikation, Bd. 53), S. 215 - 221.<br />

[28] HOFFMANN, R.; MEHNERT, D.; DIETZEL, R.; FUDER, G.: Measuring frequencies with historic<br />

resonators from Schaefer. Proc. NAD/DAGA 2009, International Conference on Acoustics, Rotterdam,<br />

23 – 26 March 2009, pp. 258 – 261.<br />

[29] HOFFMANN, R.; KORDON, U.; WOLFF, M.: Pattern recognition, classification, and speech<br />

processing for non-speech signals. Proc. 19th Czech-German Workshop on Speech Processing,<br />

Prague, September 29 – October 1, 2009, CD-ROM.<br />

[30] HOFFMANN, R.; FELLBAUM, K.: 20 Jahre Sprachsignalverarbeitung im Spiegel einer Konferenz.<br />

In: HOFFMANN, R. (Hrsg.): Elektronische Sprachsignalverarbeitung 2009, Band 1. Tagungsband<br />

der 20. Konferenz, <strong>Dresden</strong>, 21. – 23. September 2009. <strong>Dresden</strong>: TUDpress 2009<br />

(Studientexte zur Sprachkommunikation, Bd. 53), S. 15 - 24.<br />

[31] HÜBLER, S.; WOLFF, M; EICHNER, M.: Vergleich statistischer Klassifikatoren zur Ermittlung<br />

musikalischer Aspekte. In: HOFFMANN, R. (Hrsg.): Elektronische Sprachsignalverarbeitung<br />

2009, Band 1. Tagungsband der 20. Konferenz, <strong>Dresden</strong>, 21. – 23. September 2009. <strong>Dresden</strong>:<br />

TUDpress 2009 (Studientexte zur Sprachkommunikation, Bd. 53), S. 338 -- 345.<br />

[32] JÄCKEL, R., HUSSEIN, H.: Kontrastive Untersuchung zur Realisierung der Fokusakzente in gelesenen<br />

Äußerungen (Am Beispiel der Sprachenpaarung L1 Russisch – L2 Deutsch). In:<br />

HOFFMANN, R. (Hrsg.): Elektronische Sprachsignalverarbeitung 2009, Band 1. Tagungsband<br />

der 20. Konferenz, <strong>Dresden</strong>, 21. – 23. September 2009. <strong>Dresden</strong>: TUDpress 2009 (Studientexte<br />

zur Sprachkommunikation, Bd. 53), 380 – 387.<br />

[33] JOKISCH, O.; WAGNER, A.; SABO, R.; JÄCKEL, R.; CYLWIK, N.; RUSKO, M.; RONZHIN, A.,<br />

HOFFMANN; R.: Multilingual Speech Data Collection for the Assessment of Pronunciation and<br />

Prosody in a Language Learning System. In: Proceedings of the 13 th International Conference<br />

Speech and Computer, 21 - 25 June 2009, St. Petersburg, pp. 515 – 520.<br />

[34] JOKISCH, O.; GRÜNBAUM, W.; HOFFMANN, R.: Personalized speech synthesis: Age, gender<br />

and emotional features. Proc. 13th International Conf. Speech and Computer (SPECOM), St.<br />

Petersburg, June 22 - 24, 2009, pp. 186 - 189.<br />

[35] JOKISCH, O.; WAGNER, A.; SABO, R.; JÄCKEL, R.; CYLWIK, N.; RUSKO, M.; RONZHIN A.;<br />

HOFFMANN, R.: Multilingual speech data collection for the assessment of pronunciation and<br />

prosody in a language learning system. Proc. 13th International Conf. Speech and Computer<br />

(SPECOM), St. Petersburg, June 22 - 24, 2009, pp. 515 - 520.<br />

[36] JOKISCH, O.; HAIN, H.-U.; PETRICK, R.; HOFFMANN, R.: Robustness Optimization of a<br />

Speech Interface for Child-Directed Embedded Language Tutoring. The 2nd Workshop on Child,<br />

Computer and Interaction (WOCCI). November 5, 2009, Cambridge, MA (Bestandteil der Konferenz-CD<br />

der ICMI-MLMI 2009, Cambridge, MA, November 2 – 6, 2009).<br />

[37] KLIPPEL, W.: Fast measurement of motor and suspension nonlinearities in loudspeaker manufacturing.<br />

Proceedings of International Symposium of Electroacoustic Technology ISEAT,<br />

Shenzhen, China, 11 - 12 November 2009, pp. 148 - 162.<br />

[38] KLIPPEL, W.: Distributed mechanical parameters describing vibration and so<strong>und</strong> radiation of<br />

loudspeaker drive units. Proceedings of International Symposium of Electroacoustic Technology<br />

ISEAT, Shenzhen, China, 11 - 12 November 2009, pp. 87 - 96.<br />

[39] MA, J. K-Y.: Lexical tone production by Cantonese speakers with Parkinson’s disease. In: Proceedings<br />

Interspeech 2009, 10 th Annual Conference of the ISCA, September 6 – 10, 2009,<br />

Brighton, U.K., pp. 1691 – 1694.


Veröffentlichungen<br />

[40] MIXDORFF, H.; KÜLLS, D.; HUSSEIN, H.; GONG SHU, HU GUOPING, WEI SI: Towards a<br />

Computer-aided Pronunciation Training System for German Learners of Mandarin. Proc. 2 nd<br />

ISCA Workshop on Speech and Language Technology in Education (SLaTE), Wroxall Abbey Estate<br />

(UK), September 3 - 5, 2009.<br />

[41] PETRICK, R.: A Comparison of Methods for Robust Speech Recognition in Reverberant Environments.<br />

Proc. 19th Czech-German Workshop on Speech Processing, Prague, September 29 –<br />

October 1, 2009, CD-ROM.<br />

[42] PETRICK, R.; RUECKERT, C.; HOFFMANN, R.: Room Acoustic Conditions and Limits in Home<br />

and Office Environments. In Proc. 13th International Conf. Speech and Computer (SPECOM),<br />

St. Petersburg, June 22 - 24, 2009, pp. 232 -- 237.<br />

[43] SCHLECHTER, J.; KLIPPEL, W.: Distributed Mechanical Loudspeaker Parameters. National<br />

Conference of the Audio Eng. Soc. of Japan, Tokio 2007, Preprint.<br />

[44] SCHLECHTER, J.; KLIPPEL, W.: Fast Measurement of Motor and Suspension Nonlinearities in<br />

Loudspeaker Manufacturing. National Conference of the Audio Eng. Society of Japan, Tokio,<br />

24 - 27 July 2009, Preprint.<br />

[45] STRECHA, G; WOLFF, M.; DUCKHORN, F.; WITTENBERG, S.; TSCHÖPE, C: The HMM Synthesis<br />

Algorithm of an Embedded Unified Speech Recognizer and Synthesizer. In: Proceedings<br />

Interspeech 2009, 10 th Annual Conference of the ISCA, September 6 – 10, 2009, Brighton,<br />

U.K., pp. 1763 - 1766.<br />

[46] TSCHÖPE, C.; WOLFF, M.; HOFFMANN, R.: Automatische Klassifikationsverfahren in der Zustandsüberwachung.,<br />

DGZFP-Jahrestagung, Münster, 18. - 20. 5. 2009. Beitrag Di.3.B.2, 5 S.<br />

auf Konferenz-CD.<br />

[47] WOLFF, M.; TSCHÖPE, C.: Pattern Recognition for Sensor Signals. IEEE SENSORS 2009 Conference,<br />

Christchurch, Neuseeland, 25. – 28. 10. 2009, pp. 665 – 668.<br />

5.5 Vorträge (ungedruckt)<br />

[48] DUCKHORN, F.; WOLFF, M.; STRECHA, G.; HOFFMANN, R: An Application Example for Unified<br />

Speech Synthesis and Recognition using Hidden Markov Models. 2nd One Day Meeting on<br />

Unified Models for Speech Recognition and Synthesis, 30. 3. 2009, University of Birmingham.<br />

[49] FEHÉR, T.: Gezielte Beschallung <strong>und</strong> Spracherfassung mit robustem akustischen Frontend.<br />

Technologietag „Multimodale, interaktive Bedienkonzepte für technische Geräte“, 25. 9. 2009,<br />

<strong>Dresden</strong>.<br />

[50] FELDMANN, U.: Chaos++‘. Auszeichnungsveranstaltung des Sächsischen Korrespondenzzirkels<br />

Mathematik Kl. 5 - 8, 24. 6. 2009, MAN-Gymnasium <strong>Dresden</strong>.<br />

[51] HOFFMANN, R.; WOLFF, M.: Pattern recognition, classification, and speech processing for<br />

non-speech signals. ERS-Workshop “Maschinendiagnose – Gr<strong>und</strong>lagen, Konzepte, Visionen”.<br />

RWTH Aachen, 8. 7. 2009.<br />

[52] HOFFMANN, R.: Wolfgang von Kempelen als Erfinder. Arbeitsgruppe Geschichte der Otologie<br />

<strong>und</strong> Literarischer Arbeitskreis Borkum, Borkum, 16. 7. 2009.<br />

[53] HOFFMANN, R.: 40 Jahre institutionalisierte Sprachtechnologie in <strong>Dresden</strong>, 10 Jahre historische<br />

akustisch-phonetische Sammlung. Eröffnungsvortrag zum Traditionstag, <strong>Technische</strong><br />

Sammlungen <strong>Dresden</strong>, 23. 9. 2009.<br />

[54] HOFFMANN, R.: „... ein curiöser <strong>und</strong> inventiöser Mann“ - Johann Valentin Merbitz <strong>und</strong> sein<br />

sprechender Kopf in <strong>Dresden</strong>. Vortrag zum Traditionstag, TU <strong>Dresden</strong>, 24. 9. 2009.<br />

[55] HOFFMANN, R.; WOLFF, M.: The UASR project: Unified approach to speech synthesis and<br />

recognition. 2nd One Day Meeting on Unified Models for Speech Recognition and Synthesis,<br />

30. 3. 2009, University of Birmingham.<br />

49


50<br />

Veröffentlichungen<br />

[56] HOFFMANN, R.: Von legendären sprechenden Köpfen zu elektronischen „talking heads“. Vortrag<br />

zum Turmfest der <strong>Technische</strong>n Sammlungen <strong>Dresden</strong>, 8. 11. 2009.<br />

[57] HOFFMANN, R.: Forschen wie Professor Higgins – Highlights aus der historischen akustischphonetischen<br />

Sammlung der Fakultät ET/IT. Ringvorlesung der Fakultät ET/IT im studium generale,<br />

17. 11. 2009.<br />

[58] HOFFMANN, R.: Laudatio zur Verleihung des Johann-Philipp-Reis-Preises 2009 an Prof. Dr.<br />

Sebastian Möller. Gelnhausen, 29. 10. 2009.<br />

[59] HOFFMANN, R.: Sprachsynthese <strong>und</strong> Systemtheorie. Physikalisches Kolloquium des Fachbereichs<br />

Physik der <strong>Universität</strong> Frankfurt anlässlich der Verabschiedung in den Ruhestand von<br />

Prof. Dr. Arild Lacroix. 2. 12. 2009.<br />

[60] HÜBLER, S.: Combining Holistic and Aspect Models in a Content-Driven Music Recommendation<br />

System. In: 5th Music Information Retrieval Evaluation eXchange (MIREX2009), Oct, 26 -<br />

30, 2009.<br />

[61] HUTT, S. et al.: Loudspeaker FE/BE Modeling Workshop. presented at the 126 th Convention of<br />

the Audio Eng. Soc. in Munich, 7 – 9 May, 2009.<br />

[62] JÄCKEL, R.: Integration of learning content and feedback functions in the multilingual pronunciation<br />

tutoring system EURONOUNCE. 19th Czech-German Workshop on Speech Processing,<br />

Prague, September 29 – October 1, 2009.<br />

[63] JOKISCH, O.: Sprachtechnologie in didaktischen Applikationen. Öffentlicher Vortrag auf dem<br />

Hochschulforum der didacta-Bildungsmesse in Hannover, 12.02.2009.<br />

[64] JOKISCH, O.; MIXDORFF, H.: Linguistic and Phonetic Analysis for the Pronunciation Teaching -<br />

German Learners of Mandarin. Public talks at: Phonetics Laboratory of the Institute of Linguistics<br />

at the Chinese Academy of Social Sciences (CASS), Beijing, 25/09/2009 and English Department<br />

of the School of Foreign Languages at the Tongji University, Shanghai, 30/09/2009, Internal<br />

presentation at: iFLYTEK Research Center at the University of Science and Technology of<br />

China (USTC), Hefei (Provinz Anhui), 28/09/2009.<br />

[65] JOKISCH, O.; MIXDORFF, H: Quantitative Cross-Language Prosody Modeling and its Application<br />

in a Pronunciation Training System – Case Studies at TU <strong>Dresden</strong> and Beuth-Hochschule.<br />

Public talks at: Lab of the Dept. of Information and Communication Engineering at the University<br />

of Tokyo, 19/11/2009 and Department of Linguistics at Kobe University, Kobe, 21/11/2009,<br />

Presentation at: Laboratory at the Japan Advanced Institute of Science and Technology (JAIST),<br />

Kanazawa (Präfektur Ishikawa), 23/11/2009.<br />

[66] KLIPPEL, W. et al. : Fast Measurement of Motor and Suspension Nonlinearities in Loudspeaker<br />

Manufacturing. 127 th Convention of the Audio Eng. Soc., 9 - 12 October 2009, New York, USA.<br />

[67] KLIPPEL, W.: Active Compensation of Nonlinear Loudspeaker Distortion. 1 st European ALMA<br />

Symposium at the Prolight + So<strong>und</strong>, 4 April 2009, Frankfurt Germany.<br />

[68] KORDON, U.: Wie „hört“ <strong>und</strong> „spricht“ ein Computer? Vortrag in den <strong>Technische</strong>n Sammlungen<br />

<strong>Dresden</strong>, 6. 12. 2009.<br />

[69] MEHNERT, D.; DIETZEL, R.: Akustische Resonatoren als Messmittel für die experimentelle<br />

Phonetik. Vortrag zum Traditionstag, TU <strong>Dresden</strong>, 24. 9. 2009.<br />

[70] PETRICK, R.: Spracherkennung unter raumakustischen Umgebungsbedingungen. <strong>Universität</strong><br />

Erlangen-Nürnberg, Lehrstuhl für Multimediakommunikation <strong>und</strong> Signalverarbeitung, Prof. Walter<br />

Kellermann, Erlangen, 15. 6. 2009.


5.6 Patente<br />

Veröffentlichungen<br />

[71] EICHNER, M.; WOLFF, M.; HOFFMANN, R.; KORDON, U.; ZIEGENHALS, G.: Verfahren <strong>und</strong><br />

Vorrichtung zur Klassifikation <strong>und</strong> beurteilung von Musikinstrumenten gleicher Instrumentengruppen.<br />

Deutsches Patent Nr. 10 2006 014 507, erteilt am 7. 5. 2009.<br />

[72] KLIPPEL, W.: Anordnung <strong>und</strong> Verfahren zur Erkennung, Ortung <strong>und</strong> Klassifikation von Defekten.<br />

Deutsche Patentanmeldung 2009.<br />

5.7 Forschungsberichte<br />

[73] HÜBLER, S.: Untersuchung des Einsatzes von Verfahren zur Analyse zeitlicher Verläufe bei der<br />

Extraktion perzeptueller musikalischer Attribute. Zwischenbericht 1, mufin GmbH, Okt 2009.<br />

[74] WOLFF, M., S. HÜBLER UND S. WITTENBERG: Untersuchung des Einsatzes von Verfahren zur<br />

Analyse zeitlicher Verläufe bei der Extraktion perzeptuelle musikalischer Attribute. Forschungsbericht,<br />

TU <strong>Dresden</strong>, Sept. 2009.<br />

[75] WOLFF, M.: Sprachsteuerung für Mess- <strong>und</strong> Prüfgeräte. Zwischenbericht, 09.02.2009, 2 Seiten.<br />

[76] WITTENBERG, S.; WOLFF, M.: Fehlerfrüherkennung an Spinnmaschinen. Abschlussbericht,<br />

März 2009, 18 Seiten.<br />

5.8 Zeitungsbeiträge <strong>und</strong> Kurzmitteilungen<br />

[77] STANG, M.: Geräte zur Erforschung der menschlichen Sprache. Die akustisch-phonetische<br />

Sammlung der <strong>Technische</strong>n <strong>Universität</strong> <strong>Dresden</strong>. Beitrag in der Reihe „Schatzkammern der<br />

Wissenschaft“ im Deutschlandfunk, gesendet 22.12.2008.;<br />

http://www.dradio.de/dlf/sendungen/forschak/895258/.<br />

[78] KALLENBACH, J.: Star Trek an der Uni / Wissenschaftlicher Sternenhype. ad rem, die unabhängige<br />

Hochschulzeitung in Sachsen, 21. Jahrg., Nr. 11 (6. Mai 2009), S. 4 <strong>und</strong> 7.<br />

[79] N. N.: Interaktiver Aussprachetrainer mit Signalanalysefunktionen. Informationsblatt (4 Seiten),<br />

TU <strong>Dresden</strong>, Institut für Akustik <strong>und</strong> Sprachkommunikation 2009.<br />

[80] WECKBRODT, H.: Klingonen <strong>und</strong> sprechende Maschinen. <strong>Technische</strong> Sammlungen <strong>und</strong><br />

Dresdner Uni zeigen Sonderausstellung über Sprachtechnologie. Dresdner Neueste Nachrichten<br />

(DNN), 23. 9. 2009.<br />

[81] H. O. / T. Z.: Preis für implantierbares Hörgerät. Dresdner <strong>Universität</strong>sjournal, 20. Jahrg., Nr.<br />

18/2009, S. 2.<br />

[82] N. N.: Gewissenhaft <strong>und</strong> kompetent. Dr. Rolf Dietzel erhält anlässlich seines 75. Geburtstages<br />

die Ehrenmedaille der TUD. Dresdner <strong>Universität</strong>sjournal, 20. Jahrg., Nr. 19/2009, S. 5.<br />

[83] N. N.: TUD stellt in <strong>Technische</strong>n Sammlungen aus. Dresdner <strong>Universität</strong>sjournal, 20. Jahrg., Nr.<br />

19/2009, S. 7.<br />

51


6 Promotionen<br />

52<br />

Promotionen,Habilitationen, <strong>Diplom</strong>- <strong>und</strong> <strong>Studienarbeiten</strong><br />

[1] PETRICK, R.: Robuste Spracherkennung unter raumakustischen Umgebungsbedingungen. <strong>Technische</strong><br />

<strong>Universität</strong> <strong>Dresden</strong>, Fakultät Elektrotechnik <strong>und</strong> Informationstechnik. Gutachter:<br />

HOFFMANN, R. (TU <strong>Dresden</strong>), UNOKI, M. (Japan Advanced Institute of Science and Technology).<br />

Tag der Verteidigung: 25. 9. 2009<br />

externe Gutachtertätigkeit<br />

[2] RÖMER, R.: Robuste Spracherkennung auf der Basis recheneffizienter auditiver Modelle. Dissertation,<br />

<strong>Technische</strong> <strong>Universität</strong> München, Fakultät für Elektrotechnik <strong>und</strong> Informationstechnik. Gutachter:<br />

G. RUSKE (TU München), R. HOFFMANN (TU <strong>Dresden</strong>). Tag der Verteidigung:<br />

10. 3. 2009.<br />

[3] EICHLER, M.: Breitbandige Beamforming-Algorithmen zur Erfassung von Audiosignalen mit kompakten<br />

Mikrofon-Arrays. Dissertation, Goethe-<strong>Universität</strong> Frankfurt am Main, Fachbereich Physik.<br />

Gutachter: A. LACROIX (<strong>Universität</strong> Frankfurt), H. REININGER (<strong>Universität</strong> Frankfurt), R.<br />

HOFFMANN (TU <strong>Dresden</strong>). Tag der Disputation: 15. 12. 2009.<br />

7 Habilitationen<br />

externe Gutachtertätigkeit<br />

[4] SCHNELL, K.: Modellbasierte Sprachanalyse <strong>und</strong> –synthese. Habilitationsschrift, Goethe-<br />

<strong>Universität</strong> Frankfurt am Main, Fachbereich Physik. Zweitgutachter: R. HOFFMANN (TU <strong>Dresden</strong>).<br />

Tag des Habilitationsvortrages: 28. 10. 2009, Tag der Antrittsvorlesung: 9. 12. 2009.<br />

8 <strong>Diplom</strong>- <strong>und</strong> <strong>Studienarbeiten</strong><br />

8.1 <strong>Diplom</strong>-/Masterarbeiten<br />

[DA1] WERNER, R.: Erkennung <strong>und</strong> Ortung von Strömungsgeräuschen <strong>und</strong> anderen impulsiven<br />

Verzerrungen im Rahmen der Qualitätsüberprüfung von Lautsprechersystemen. (Prof. Klippel,<br />

Dr. Irrgang), verteidigt am 28.9.2009<br />

[DA2] HOSSMAR, M.: Prosodiemodellierung zur emotionalen Sprachsynthese. (MSc. Gamboa Rosales),<br />

verteidigt am 14.7.2009<br />

[DA3] KÖHLER, R.: DSP-Portierung von Algorithmen der HMM-Synthese. (Dipl.-Ing. Strecha), verteidigt<br />

am 11.11.2009<br />

[DA4] LEONHARDT, O.: „Messung der Kenngrößen von elektroakustischen Wandlern ohne akustischen<br />

Sensor“ verteidigt am: 17.12.2009<br />

[DA5] GRÜNBAUM, W.: Weiterentwicklung eines einkanaligen Algorithmus zur Störgeräuscheunterdrückung.<br />

(Dipl.-Ing. Fehér, Dipl.-Ing. Gruber – voiceINTERconnect), verteidigt am<br />

25.11.2009<br />

8.2 <strong>Studienarbeiten</strong><br />

[StA1] SCHIFFNER, M.: Anwendung der Hilbert-Huang-Transformation in der Signalanalyse. (Dipl.-<br />

Ing. Wittenberg)<br />

[StA2] VANSELOW, P.: Nichtlineares Übertragungsverhalten von Kondensatormikrofonen (Dipl.-Ing.<br />

Richter)<br />

[StA3] GEBHARDT, K.: Untersuchungen zur Signalseparation für Zweikanalmikrofone (Dipl.-Ing. Richter)


Auszeichnungen <strong>und</strong> Ehrungen<br />

9 Auszeichnungen <strong>und</strong> Ehrungen<br />

9.1 Verleihung der Ehrenmedaille der <strong>Technische</strong>n <strong>Universität</strong><br />

<strong>Dresden</strong> an Herrn Dr.-Ing. Rolf Dietzel, 26. Oktober 2009<br />

Herr Dr.-Ing. Rolf Dietzel hat über Jahrzehnte hinweg in ehrenamtlicher Arbeit hervorragende Beiträge<br />

zur Traditionspflege <strong>und</strong> zur Dokumentation der Entwicklung der Fakultät Elektrotechnik <strong>und</strong> Information<br />

geleistet. Besonders hervorzuheben sind die verantwortliche wissenschaftliche Betreuung des<br />

Barkhausen-Archivs der Fakultät <strong>und</strong> sein Einsatz beim Aufbau <strong>und</strong> der Dokumentation der historischen<br />

akustisch-phonetischen Sammlung (HAPS) der TU <strong>Dresden</strong>. Aus diesen Gründen hat der Rat<br />

der Fakultät Elektrotechnik <strong>und</strong> Informationstechnik in seiner Sitzung am 20. 5. 2009 einstimmig beschlossen,<br />

seine Auszeichnung mit der Ehrenmedaille der TU <strong>Dresden</strong> zu beantragen. Der Senat hat<br />

diesem Antrag zugestimmt, <strong>und</strong> die Medaille konnte dem Jubilar an seinem 75. Geburtstag durch den<br />

Prorektor für <strong>Universität</strong>splanung, Herrn Prof. Dr. M. Curbach, übergeben werden.<br />

Abbildung 9.1: Prof. Dr. Curbach <strong>und</strong> Dr.-Ing. Dietzel nach der Übergabe der Medaille<br />

53


54<br />

Auszeichnungen <strong>und</strong> Ehrungen<br />

Abbildung 9.2: Ehrenmedaille der <strong>Technische</strong>n <strong>Universität</strong> <strong>Dresden</strong><br />

Der wissenschaftliche Werdegang von Herrn Dr. Dietzel ist eng mit der Entwicklung der technischen<br />

Akustik an der TU <strong>Dresden</strong> verb<strong>und</strong>en <strong>und</strong> reicht bis in deren "klassische" Zeit, die durch das Wirken<br />

von Walter Reichardt geprägt wurde, zurück. Er hat nach dem Studium der Elektrotechnik bei Prof.<br />

Reichardt über ein akustisches Thema (Untersuchungen an eingezwängten Dämpfungsbelägen) 1967<br />

promoviert. Die Emeritierung von Prof. Reichardt fällt zeitlich mit der Hochschulreform 1968/69 zusammen,<br />

in deren Umsetzung der Wissenschaftsbereich "Kommunikation <strong>und</strong> Messwerterfassung"<br />

(später "Akustik <strong>und</strong> Messtechnik") mit mehreren neuen Professuren gegründet wurde. Herr Dr. Dietzel<br />

wurde der durch A. Lenk besetzten Professur "Messwerterfassung" zugeordnet <strong>und</strong> war dort bis<br />

zu deren durch die Emeritierung von Prof. Lenk (1996) bedingten Auflösung als Oberassistent tätig. Er<br />

hat in dieser Funktion wissenschaftliche Projekte <strong>und</strong> zahllose studentische Arbeiten betreut <strong>und</strong> viele<br />

Vorlesungen, Übungen <strong>und</strong> Praktika auf dem weitgespannten Gebiet der technischen Akustik durchgeführt.<br />

Hervorzuheben ist seine selbständige Lehrtätigkeit auf dem Gebiet der elektromechanischen<br />

Netzwerke. Nach dem Wegfall der Professur von A. Lenk hat er die beschriebenen Leistungen unter<br />

dem Dach der Professur von R. Hoffmann (Systemtheorie <strong>und</strong> Sprachtechnologie) weiter erbracht, bis<br />

er 1999 in den Ruhestand eintrat.<br />

Die Verleihung der Ehrenmedaille hängt jedoch nur mittelbar mit dem langjährigen Wirken von Herrn<br />

Dr. Dietzel für Forschung <strong>und</strong> Lehre auf dem Gebiet der technischen Akustik <strong>und</strong> für das Gedeihen<br />

des heutigen Instituts für Akustik <strong>und</strong> Sprachkommunikation bzw. seiner Vorgängereinrichtungen<br />

zusammen. Er hat über viele Jahre seine fachliche Arbeit mit großem zeitlichen Aufwand mit der Sicherung<br />

<strong>und</strong> Pflege der wissenschaftlichen Traditionen seines Fachgebietes <strong>und</strong> seiner Fakultät verb<strong>und</strong>en.<br />

Dabei nutzte er intensiv seine gediegenen Kenntnisse auf dem Gebiet der wissenschaftlichen<br />

Fotografie, die er übrigens auch in eigenen Vorlesungen weitergegeben hat. Die beeindruckende<br />

Bilanz dieser ehrenamtlichen Tätigkeiten im Bereich der Technikgeschichte <strong>und</strong> Traditionspflege<br />

soll nachstehend in stark gekürzter Form dargelegt werden.<br />

An prominentester Stelle ist die Betreuung des Barkhausen-Archivs zu nennen. Das Wirken von Heinrich<br />

Barkhausen (1881 - 1956), der als einer der Väter der heutigen Informationstechnik zu den profilbildenden<br />

Wissenschaftlern unserer <strong>Universität</strong> zählt, wird an der Fakultät ET/IT durch eine Sammlung<br />

von Dokumenten in Schrift, Bild <strong>und</strong> Ton bewahrt. Der systematische Aufbau dieses Archivs geht auf<br />

die Feiern zum 150-jährigen Bestehen der TH/TU <strong>Dresden</strong> 1978 <strong>und</strong> die Mitarbeit an der Barkhausen-<br />

Ehrung der Akademie der Wissenschaften 1981 zurück <strong>und</strong> wurde durch Prof. Lunze initiiert, der ins-


Auszeichnungen <strong>und</strong> Ehrungen<br />

besondere als Herausgeber der Barkhausen-Festschrift 1981 wirkte. Er hat von Anfang an Dr. Dietzel<br />

in die Konzeption der Sammlung integriert, der zahlreiche Recherchen durchführte, Kontakte knüpfte<br />

<strong>und</strong> u. a. in den Entstehungsprozess der von Prof. Howard geschaffenen Porträtbüste Barkhausens<br />

einbezogen war. Wenig später (1982) wurde Prof. Lunze emeritiert, <strong>und</strong> die Fakultät betraute Dr.<br />

Dietzel mit der weiteren Betreuung des Archivs, der er sich mit Hingabe gewidmet hat. Es stellte sich<br />

schnell heraus, dass nicht nur Aufbau <strong>und</strong> Pflege des Bestandes Aufwand erforderten, sondern dass<br />

darüber hinaus die Existenz des Archivs bald bei wissenschafthistorisch interessierten Einrichtungen<br />

bekannt wurde <strong>und</strong> deshalb zahlreiche Anfragen nach Informationen, Kopien <strong>und</strong> Reproduktionen<br />

eingingen, die sämtlich gewissenhaft beantwortet wurden.<br />

Diese Gewissenhaftigkeit <strong>und</strong> Kompetenz hat zehn Jahre später auch die Barkhausen-Erben davon<br />

überzeugt, die bisher nur als Leihgabe zur Verfügung gestellten Teile des persönlichen Nachlasses<br />

von Heinrich Barkhausen der <strong>Universität</strong> dauerhaft zu überlassen. So schreibt eine der Töchter Barkhausens<br />

1992 an den Dekan: "Es hat uns besonders gefreut, dass Herr Dr. Dietzel sich so liebevoll um<br />

den Nachlass kümmert, wissen wir ihn nun doch in den allerbesten Händen. Ich glaube, es war ganz<br />

richtig, dass wir die Papiere der TU überlassen haben <strong>und</strong> nicht dem Deutschen Museum in München,<br />

das auch in Frage gekommen wäre, die aber unmöglich so viel persönliches Interesse hätten<br />

einsetzen können, nach unserer Meinung.“<br />

Die Kette der Anfragen an das Barkhausen-Archiv <strong>und</strong> damit an die Sachkenntnis von Dr. Dietzel ist<br />

bis heute nicht abgerissen; so dass das Barkhausen-Archiv seit drei Jahrzehnten eine lebendige Stätte<br />

der Traditionspflege ist, <strong>und</strong> das hauptsächlich dank des Engagements von Herrn Dr. Dietzel.<br />

Parallel zum Barkhausen-Archiv ist durch die langjährige Arbeit von Herrn Dr. Dietzel an der Fakultät in<br />

Verbindung mit seinen fotografischen Aktivitäten eine einzigartige Fotodokumentation der Geschichte<br />

der Fakultät entstanden, die vielseitig genutzt worden ist. Bekanntlich ist ein solches Archiv nur langfristig<br />

wirksam, wenn es in geeigneter Weise erschlossen ist. So ist derzeit Dr. Dietzel mit der digitalen<br />

Aufarbeitung der Bestände stark gefordert. Diese Aktivitäten können unter dem Aspekt der Dokumentation<br />

der Fakultätsgeschichte nicht hoch genug gewürdigt werden. Die Kustodie <strong>und</strong> das <strong>Universität</strong>sarchiv<br />

greifen gerne auf sie zurück.<br />

Große Verdienste hat Herr Dr. Dietzel in dem Jahrzehnt seit seinem Eintritt ins Rentenalter (1999) bei<br />

der Erschließung der historischen akustisch-phonetischen Sammlung erworben. Da dieses Thema<br />

seit Jahren in unseren Jahresberichten verfolgt werden kann, sollen die überaus zeitaufwendigen<br />

Arbeiten des Jubilars an dieser Stelle nur erwähnt werden. Ihre Spuren findet man leicht bei der Betrachtung<br />

der Webseiten unserer historischen Sammlung <strong>und</strong> in den Publikationen zu historischen<br />

phonetischen Geräten, an denen Herr Dr. Dietzel beteiligt war <strong>und</strong> ist.<br />

Auch außerhalb der <strong>Universität</strong> engagiert sich Herr Dr. Dietzel mit großem Einsatz auf heimatk<strong>und</strong>lichem,<br />

ortsgeschichtlichem <strong>und</strong> foto- <strong>und</strong> kinotechnischem Gebiet in den einschlägigen Vereinen. So<br />

war es keine Überraschung, dass anlässlich der Verleihung der Medaille eine Vielzahl von Fre<strong>und</strong>en<br />

<strong>und</strong> Weggefährten zur Gratulation gekommen waren <strong>und</strong> so dazu beitrugen, dass uns die Feier in<br />

schöner Erinnerung bleiben wird.<br />

9.2 Innovationspreis Medizintechnik für ein TU-Projekt,<br />

29. Oktober 2009<br />

Im Berichtsjahr wurde durch den Direktor der Klinik <strong>und</strong> Poliklinik für Hals-Nasen-Ohrenheilk<strong>und</strong>e des<br />

<strong>Universität</strong>sklinikums, Herrn Prof. Dr. med. Dr. h. c. Th. Zahnert, die Idee eines Wandlerbausteins<br />

vorgestellt, der in das Mittelohr von stark hörgeschädigten Patienten implantiert werden kann. Die<br />

Frage einer Realisierungsmöglichkeit wurde gemeinsam mit unserer Arbeitsgruppe <strong>und</strong> mit Herrn<br />

Prof. Dr. G. Pfeifer (Institut für Halbleiter- <strong>und</strong> Mikrosystemtechnik) diskutiert <strong>und</strong> ein Lösungsvorschlag<br />

erarbeitet. Dieser wurde für den Innovationswettbewerb des BMBF zur Förderung der Medizintechnik<br />

2009 eingereicht <strong>und</strong> wurde Sieger des Wettbewerbs im Modul BASIS (siehe Abbildung).<br />

Es besteht die begründete Aussicht, dass das Projekt im Jahre 2010 eine Förderung erhält, durch die<br />

die Realisierung eines Modells in Gemeinschaftsarbeit der genannten Institute erfolgen kann.<br />

55


56<br />

Auszeichnungen <strong>und</strong> Ehrungen


Wissenschaftliche Veranstaltungen<br />

10 Wissenschaftliche Veranstaltungen<br />

10.1 Zwanzigste Konferenz<br />

Elektronische Sprachsignalverarbeitung,<br />

<strong>Dresden</strong>, 21. – 24. 9. 2009<br />

10.1.1 Einordnung<br />

Im Berichtsjahr wurde die Konferenz „Elektronische<br />

Sprachsignalverarbeitung“ (ESSV) zum 20. Mal in Folge<br />

durchgeführt. Die Tatsache, dass sich die Veranstaltungsreihe<br />

nach nunmehr zwei Jahrzehnten unverminderter<br />

Akzeptanz erfreut, war Anlass, das Jubiläum<br />

gebührend zu begehen. Dazu kam, dass das Institut für<br />

Akustik <strong>und</strong> Sprachkommunikation (<strong>IAS</strong>) in seiner heutigen<br />

Form auf eine 1969 erfolgte Fusion akustischer,<br />

nachrichtentechnischer <strong>und</strong> messtechnischer Kapazitäten<br />

zurückgeht, mithin den 40. Jahrestag seiner Gründung<br />

begehen konnte. Außerdem war zu bedenken,<br />

dass die historische akustisch-phonetische Sammlung<br />

der TU <strong>Dresden</strong> (HAPS) 1999 gegründet wurde <strong>und</strong><br />

somit ihr zehnjähriges Bestehen zu verzeichnen war.<br />

Um trotz der Häufung der Jubiläen die 20. ESSV vor<br />

einer nostalgischen Tendenz zu bewahren, wurde beschlossen,<br />

die Jubiläen an einem gesonderten Traditionstag<br />

im Anschluss an den fachlichen Teil der ESSV<br />

zu begehen. Der Traditionstag konnte unabhängig von<br />

der Konferenz besucht werden. Beide Veranstaltungen<br />

wurden mit dem nebenstehenden Logo beworben.<br />

10.1.2 Fachteil der ESSV, 21. – 23. 9. 2009<br />

Die Organisatoren der diesjährigen ESSV in <strong>Dresden</strong> waren bei der Vorbereitung motiviert, anlässlich<br />

des Jubiläums der Konferenz möglichst viele aktive Teilnehmer, darunter natürlich möglichst alle<br />

"Stammk<strong>und</strong>en", zu gewinnen. Dieser Bemühung arbeitete eindeutig die gegenwärtige Wirtschaftskrise<br />

entgegen, die so manchem potentiellen Teilnehmer insbesondere aus mittelständischen Unternehmen<br />

die Finanzierung unmöglich gemacht hat. Zugleich befindet sich die Industrieforschung der<br />

Sprachtechnologie in Deutschland bekanntlich in einem tiefgreifenden strukturellen Umbruch. Diese<br />

Probleme betrafen vor allem die Kraftfahrzeug-Anwendungen, die in den letzten Jahren eine fachliche<br />

Hauptkomponente der ESSV bildeten. Eine geplante strukturierte Sitzung zu diesem Themenkomplex<br />

musste 2009 ausfallen.<br />

Umso erfreulicher ist es, dass die ESSV 2009 trotz dieses problematischen Umfeldes eine deutlich<br />

überdurchschnittliche Beteiligung aufweisen konnte: Der Tagungsband enthält 50 Beiträge von insgesamt<br />

96 Autoren. Die Veranstalter bedanken sich herzlich bei allen, die zu diesem Erfolg beigetragen<br />

haben.<br />

Betrachtet man die 20 Tagungsbände der ESSV-Serie, spiegelt sich in ihnen die Entwicklung der<br />

Sprachtechnologie in Deutschland auf höchst interessante Weise. Waren die 1990er Jahre noch stärker<br />

durch die Gr<strong>und</strong>lagenforschung (<strong>und</strong> dabei insbesondere durch das Großprojekt Verbmobil) geprägt,<br />

zeigt sich im letzten Jahrzehnt auf einer Anzahl von Anwendungsfeldern ein deutlicher Durchbruch<br />

in die Praxis. Der Einführungsbeitrag der Konferenz, gehalten von Prof. Fellbaum, stellte sich<br />

die Aufgabe, einige dieser Tendenzen in Form einer Übersicht darzustellen.<br />

57


58<br />

Wissenschaftliche Veranstaltungen<br />

Beleuchtet man die auf der Konferenz vertretenen Themengruppen, zeigt sich die Vielfalt der Gr<strong>und</strong>lagendisziplinen<br />

<strong>und</strong> Anwendungsfelder, die in der Sprachsignalverarbeitung zusammenspielen.<br />

Diesmal waren zwei Anwendungsbereiche in strukturierten Sitzungen besonders präsent. Das war<br />

zum einen die Sitzung "Sprachtechnologie zur Unterstützung von Menschen mit Sinnesbehinderungen",<br />

die durch Professor Klaus Fellbaum organisiert wurde, zum anderen die Sitzung "Sprachtechnologie<br />

in didaktischen Anwendungen", die Rainer Jäckel organisiert hat. Während die erstgenannte<br />

Sitzung ein traditionelles, typisches <strong>und</strong> wichtiges Anwendungsbiet der Sprachtechnologie umfasst,<br />

bezieht sich die zweite auf Anwendungen, die erst seit wenigen Jahren im Blickpunkt stehen, aber<br />

ebenfalls ein großes Anwendungspotential haben.<br />

Auch die beiden Hauptvorträge der Konferenz standen für typische Tendenzen. Bekanntlich hat die<br />

Sprachtechnologie eine ihrer Wurzeln in der Nachrichtentechnik, woran der Hauptvortrag von Professor<br />

Peter Vary erinnert, der den umfangreichen Vortragsblock zu Themen aus der Signalverarbeitung<br />

einleitet. Der zweite Hauptvortrag stammte von Dirk Schönfuß <strong>und</strong> widmete sich der Verarbeitung<br />

von Musiksignalen. Durch die Aufnahme dieses Hauptvortrages soll die Tendenz betont werden, dass<br />

die bewährten Verfahren der Sprachtechnologie in zunehmendem Maße erfolgreiche Anwendungen<br />

auf nichtsprachliche Signale finden, <strong>und</strong> unter diesen sind die Musiksignale eine besonders wichtige<br />

Gruppe.<br />

10.1.3 Traditionstag, 23. / 24. 9. 2009<br />

Auf der Suche nach einem geeigneten Ort für die Durchführung des Traditionstages boten sich die<br />

<strong>Technische</strong>n Sammlungen <strong>Dresden</strong> an, die sich in dem industriegeschichtlich bedeutsamen Ernemann-Bau<br />

befinden. Im Rahmen der Vorgespräche entstand die Idee, den Traditionstag mit der Installation<br />

einer Sonderausstellung mit Beständen der HAPS zu verbinden, die für einige Monate in den<br />

<strong>Technische</strong>n Sammlungen verbleiben sollte. Diese Idee führte schließlich zur Vorbereitung der Ausstellung<br />

mit dem Titel SprachSignale. Details zu dieser Ausstellung wurden in Punkt 3.7.2 dieses Berichtes<br />

erwähnt (vgl. auch Abbildung 3. 27).<br />

Der Traditionstag begann am Nachmittag des 23. September 2009 mit etwa 40 Teilnehmern in den<br />

Räumen der <strong>Technische</strong>n Sammlungen <strong>und</strong> hatte folgenden Ablauf:<br />

• Eröffnung des Traditionstages <strong>und</strong> der Ausstellung mit einem Vortrag von Prof. Hoffmann zu den<br />

Jubiläen 40 Jahre <strong>IAS</strong> <strong>und</strong> 10 Jahre HAPS<br />

• Erste Führung durch die Ausstellung SprachSignale durch Prof. Mehnert (Abbildung 3. 28).<br />

• Festvortrag über Wolfgang von Kempelen, gehalten von der Kempelen-Spezialistin Frau Dr. Alice<br />

Reininger, <strong>Universität</strong> für Angewandte Kunst, Wien (Abbildung 10.1).<br />

• Beisammensein im Turmcafe des Ernemann-Baus<br />

Am 24. September 2009 wurde der Traditionstag im Barkhausenbau durch eine Anzahl eingereichter<br />

Vorträge zu historischen Vorträgen ergänzt. Die Beiträge, die sehr angeregte Gespräche auslösten,<br />

rankten sich um drei Themenfelder:<br />

• Institutionen: Eine besondere Rolle spielte die Geschichte der Phonetik an der <strong>Universität</strong> Hamburg,<br />

da deren Traditionen mit der Entstehung der <strong>Dresden</strong>er HAPS eng verb<strong>und</strong>en sind.<br />

• Personen: Drei historisch interessante Persönlichkeiten aus drei verschiedenen Jahrh<strong>und</strong>erten<br />

spielten eine besondere Rolle: Johann Valentin Merbitz (aus lokalgeschichtlichem Interesse),<br />

Wolfgang von Kempelen (als Vater der experimentellen Phonetik <strong>und</strong> Sprachtechnologie) <strong>und</strong> Giulio<br />

Panconcelli-Calzia (als bedeutender Experimentalphonetiker des 20. Jahr<strong>und</strong>erts).<br />

• Geräte: In dieser fachlichen Gruppe standen historische phonetische Geräte im Vordergr<strong>und</strong>, natürlich<br />

im engen Zusammenhang mit den Objekten der Ausstellung SprachSignale.<br />

Im Einzelnen wird man die Beiträge des Traditionstages einem Protokollband entnehmen können, der<br />

nachträglich als Band 2 des vorliegenden Tagungsbandes (also Band 54 der Studientexte zur Sprachkommunikation)<br />

erscheint. Er wird auch die Übersichtsbeiträge zum 40-jährigen Institutsjubiläum <strong>und</strong><br />

zum zehnjährigen Bestehen der HAPS enthalten.


Wissenschaftliche Veranstaltungen<br />

Abbildung 10.1: Frau Dr. A. Reininger <strong>und</strong> Prof. R. Hoffmann nach dem Festvortrag des Traditionstages<br />

in den <strong>Technische</strong>n Sammlungen.<br />

Abbildung 10.2: Vortrag im Kinosaal der <strong>Technische</strong>n Sammlungen.<br />

59


10.1.4 Zur Zukunft der ESSV<br />

60<br />

Wissenschaftliche Veranstaltungen<br />

Zurückkommend auf die Konferenzserie ESSV im engeren Sinne, kann festgestellt werden, dass sie<br />

sich über die zwei Jahrzehnte ihres Bestehens als Erfolgsmodell erwiesen hat <strong>und</strong> deshalb auch weitergeführt<br />

werden sollte. Dabei muss allerdings bedacht werden, dass nicht nur die Konferenz, sondern<br />

auch ihre Initiatoren in die Jahre gekommen sind. Der Senior unter ihnen ist Dieter Mehnert, der<br />

auf eigenen Wunsch nach 20 Jahren aktiver Mitarbeit aus dem Kreis der Organisatoren mit herzlichem<br />

Dank für die geleistete Arbeit <strong>und</strong> die ständige Inspiration ausgeschieden ist. Ulrich Kordon,<br />

Privatdozent für Sprachkommunikation an der TU <strong>Dresden</strong>, hat sich bereit erklärt, an seiner Stelle in<br />

das Organisationskomitee einzutreten.<br />

Auch Klaus Fellbaum ist 2007 in den Ruhestand gewechselt. Es ist sicher, dass er sich mit unverminderter<br />

Energie an der Gestaltung der ESSV weiter beteiligen wird, jedoch fehlt uns seitdem Cottbus<br />

als einer unserer Stamm-Standorte. Damit konzentriert sich die Logistik der ESSV derzeit auf den<br />

<strong>Dresden</strong>er Standort. Der Umstand, dass auch der dortige Inhaber der Professur Systemtheorie <strong>und</strong><br />

Sprachtechnologie <strong>und</strong> Verfasser dieser Zeilen seinen voraussichtlichen Ruhestand am zeitlichen<br />

Horizont erkennen kann, führt zu der Frage nach der rechtzeitigen Absicherung der Zukunft der Konferenzserie.<br />

Deshalb haben die bisher aktiven Personen beschlossen, einen Förderverein "Elektronische<br />

Sprachsignalverarbeitung" zu gründen, der nicht an eine bestimmte <strong>Universität</strong> geb<strong>und</strong>en ist. Er wird<br />

die jährliche Vergabe des Konferenzstandortes koordinieren <strong>und</strong> die jeweiligen Ausrichter beraten.<br />

Der Verein wurde am Rande der 20. ESSV gegründet <strong>und</strong> am 17. Februar 2010 in das Register des<br />

Amtsgerichtes <strong>Dresden</strong> eingetragen.<br />

Wir hoffen, damit das unter den gegebenen Randbedingungen optimale Modell gewählt zu haben,<br />

<strong>und</strong> freuen uns auf noch viele erfolgreiche Konferenzen "Elektronische Sprachsignalverarbeitung".<br />

10.2 didacta 2009 – die Bildungsmesse<br />

Hannover, 10. – 14. 2. 2009<br />

Die didacta, Europas größte Bildungsmesse, fand vom 10. bis 14. Februar 2009 in Hannover statt <strong>und</strong><br />

gab der Branche traditionell wichtige Impulse. R<strong>und</strong> 74.000 Besucher kamen auf das Messegelände<br />

<strong>und</strong> informierten sich bei 718 Ausstellern auf einer Ausstellungsfläche von r<strong>und</strong> 30.000 Quadratmetern<br />

über aktuelle Produkte, Trends <strong>und</strong> neue bildungspolitische Ansätze. Die Messe wurde von 1 400<br />

Workshops, Vorträgen <strong>und</strong> Seminaren begleitet.<br />

Das Institut für Akustik <strong>und</strong> Sprachkommunikation präsentierte sich 2009 erstmalig <strong>und</strong> als eines von<br />

wenigen - insbesondere wenigen ostdeutschen - Hochschulinstituten auf der didacta mit Ergebnissen<br />

aus den Projekten AzAR bzw. EURONOUNCE, die sich mit dem sprachübergreifenden Aussprachetraining<br />

einschließlich der Entwicklung entsprechender Feedback-Algorithmen sowie Datenbasen<br />

befassen <strong>und</strong> im Abschnitt 3.4.2 des Jahresberichts erläutert werden.<br />

Abbildung 10.3: Das <strong>IAS</strong> auf der didacta-Messe in Hannover (Halle 14, Stand G 76/1)


Wissenschaftliche Veranstaltungen<br />

Die Messebeteiligung zielte u. a. darauf, die Institutsprojekte im Bereich Sprachenlernen einer breiteren<br />

Öffentlichkeit vorzustellen, neue Kooperationspartner <strong>und</strong> Projektansätze zu gewinnen <strong>und</strong> die<br />

Akzeptanz des vorgestellten Prototyps AzAR 2.0 bei Fachkollegen aus unterschiedlichen Teilgebieten<br />

(u. a. Pädagogen, Logopäden, Berater oder Technologieentwickler) zu testen. Desweiteren wurde der<br />

Messeauftritt durch die Beteiligung am didacta-Hochschulforum mit einem Vortrag am 12. Februar zur<br />

„Sprachtechnologie in didaktischen Applikationen“ von Herrn Jokisch flankiert.<br />

Die quantitative Besucherresonanz im Hochschulbereich der Messe war insgesamt eher dürftig,<br />

wobei die Besucher in der Regel gut vorbereitet waren <strong>und</strong> sich qualitativ interessante Kontakte ergaben.<br />

Der eigene Messestand mit einer Gr<strong>und</strong>fläche von 9 Quadratmetern fiel zwar bescheiden aus,<br />

wurde aber dennoch funktionell mit PC-Technik, Monitoren, Werbematerial, etc. gestaltet <strong>und</strong> bei den<br />

Fachkollegen aufmerksam registriert.<br />

Aus ca. 35 gezielten Fachbesuchen am Stand ergaben sich Kontakte mit weiterführendem Charakter.<br />

Interessenten waren u. a. Pädagogen aus dem Schul- <strong>und</strong> Berufsschulbereich, Mitarbeiter von Frühfördereinrichtungen<br />

(z. B. Kindergarten der Diakonie) <strong>und</strong> Kollegen der TUD-eigenen Erziehungswissenschaften<br />

(u. a. aus der Lehrerbildung).<br />

10.3 Statusseminare des BMBF-Projekts<br />

„Sprachsteuerung für Mess- <strong>und</strong> Prüfgeräte“<br />

<strong>Dresden</strong>, 05. 03. <strong>und</strong> 03. 09. 2009<br />

Am 05.03.2009 fand am Fraunhofer IZFP <strong>Dresden</strong> das 1. Statusseminar des vom BMBF geförderten<br />

Projekts „Sprachsteuerung für Mess- <strong>und</strong> Prüfgeräte“ statt, dessen Ziel die technische Realisierung<br />

einer möglichst natürlichsprachlichen Kommunikation mit Mess- <strong>und</strong> Prüfgeräten, speziell eines Ultraschall-Prüfgeräts<br />

der Sinus Messtechnik GmbH sowie eines Mikroohmmeters der Firma Werner Industrielle<br />

Elektronik, ist.<br />

Am Statusseminar nahmen 12 Personen aus folgenden Institutionen teil: VDI Technologiezentrum<br />

GmbH, SINUS Messtechnik GmbH, TU <strong>Dresden</strong>, Fraunhofer IZFP <strong>Dresden</strong>, Werner Industrielle Elektronik<br />

Das Treffen hatte die folgende Tagesordnung:<br />

10:00 Begrüßung <strong>und</strong> Eröffnung<br />

10:10 C. Tschöpe: Planung<br />

10:20 G. Papsdorf: Modifikation Prüfgerät <strong>und</strong> Sprachdialog Design<br />

10:30 Dr.-Ing. M. Wolff: Arbeitsstand Sprachein- <strong>und</strong> –ausgabe/Entwurf akustische Nutzerschnittstelle<br />

10:45 F. Duckhorn: Spracherkennung C- <strong>und</strong> DSP-Portierung<br />

mit Vorführung<br />

10:55 G. Strecha: Algorithmenentwurf Sprachsynthese<br />

mit Vorführung<br />

11:05 Dr.-Ing. D. Joneit: Stand der FPGA-Implementierung <strong>und</strong> des Rahmenprogramms<br />

(inkl. Hardware-Aufbau <strong>und</strong> -Test)<br />

mit Vorführung<br />

11:20 Diskussion<br />

im Anschluss: Laborr<strong>und</strong>gang im Fraunhofer IZFP <strong>Dresden</strong><br />

61


62<br />

Wissenschaftliche Veranstaltungen<br />

Am 03.09.2009 fand am Fraunhofer IZFP <strong>Dresden</strong> das 2. Statusseminar des vom BMBF geförderten<br />

Projekts „Sprachsteuerung für Mess- <strong>und</strong> Prüfgeräte“ statt.<br />

Am Statusseminar nahmen 10 Personen aus folgenden Institutionen teil: VDI Technologiezentrum<br />

GmbH, SINUS Messtechnik GmbH, TU <strong>Dresden</strong>, Fraunhofer IZFP <strong>Dresden</strong>, Werner Industrielle Elektronik<br />

Das Treffen hatte die folgende Tagesordnung:<br />

09:30 Begrüßung <strong>und</strong> Eröffnung<br />

09:40 C. Tschöpe: Einführung, Projektstand<br />

09:55 Dr.-Ing. D. Joneit: FPGA-Implementierung <strong>und</strong> Rahmenprogramm<br />

10:10 F. Duckhorn: Akustische Nutzerschnittstelle C- <strong>und</strong> DSP-Portierung <strong>und</strong> Optimierung<br />

10:25 G. Strecha: Sprachsynthese C-Portierung<br />

10:40 R. Köhler: Sprachsynthese DSP-Portierung<br />

10:55 G. Papsdorf: Modifikation Prüfgerät, Sprachdialog Design <strong>und</strong> Testplanung<br />

11:10 T. Werner: Schaltungsentwurf, Umsetzung Schaltung, Fertigung <strong>und</strong> Aufbau<br />

11:25 Diskussion<br />

10.4 EURONOUNCE-Meetings<br />

in Bratislava, Wehlen <strong>und</strong> Poznan<br />

Die TU <strong>Dresden</strong> verantwortete in ihrer Eigenschaft als Konsortialführerin des EU-„Life Long Learning“-Projekts<br />

EURONOUNCE (2007-2009) die Durchführung verschiedener Projekttreffen <strong>und</strong> bereitete<br />

die fachlichen Arbeitsinhalte entsprechend vor. Folgende Meetings fanden im Berichtszeitraum<br />

2009 statt (Die regionale Organisation erfolgte durch die jeweiligen Projektpartner vor Ort.):<br />

• 17. - 18. Februar: 3. EUN-Meeting, Slovak Academy of Science, Bratislava,<br />

• 3. - 4. Juni: 4. EUN-Meeting, Hotel Wehlen / REZO Computer-Service <strong>Dresden</strong>,<br />

• 16. - 17. Dezember: 5. EUN-Meeting, Adam Mickiewicz University, Poznan.<br />

Das dritte Meeting in Bratislava konzentrierte auf administrative Planungen <strong>und</strong> eine kooperative Dokumentenaufbereitung<br />

in Auswertung des EUN-Zwischenberichts 2007-2008. Weiterhin wurden Weiterentwicklungen<br />

der Lernplattform auf prosodischer Auswertungsebene <strong>und</strong> andere technologische<br />

Zielsetzungen diskutiert. Teilnehmer waren die technischen Entwicklungspartner Slovak Academy of<br />

Science (Bratislava), die Adam Mickiewicz University (Poznan) <strong>und</strong> die TU <strong>Dresden</strong>.<br />

Beim vierten Meeting in Wehlen bzw. in <strong>Dresden</strong> waren neben allen technologischen Partnern auch<br />

die Disseminationspartner, u. a. REZO Computer-Service (<strong>Dresden</strong>), der Verband sächsischer Bildungsinstitute<br />

(VSBI Leipzig) sowie die Firma Schenck Workshops (Mühlheim) vertreten. Hierbei<br />

standen Fachberichte zu Projektergebnissen sowie Fragen der Ergebnisverwertung / Publizität im<br />

Vordergr<strong>und</strong>. Außerdem fand eine Schulung zur Inhaltsgenerierung neuer Lektionen mittels Datenbankeditor<br />

statt.<br />

Das fünfte Projekttreffen in Poznan konzentrierte sich auf Maßnahmen zur Erstellung des Abschlussberichts<br />

einschließlich öffentlicher <strong>und</strong> vertraulicher Projektberichte an den Projektträger EACEA.<br />

Am Rande der Treffen bestand die Möglichkeit zum gemütlichen Erfahrungsaustausch – sowohl bei<br />

gemeinsamen Abendessen als auch bei Stadtr<strong>und</strong>gängen bzw. einem Besuch der Festung Königstein.


Wissenschaftliche Veranstaltungen<br />

Abbildung 10.4: 4. EUN-Projektmeeting in Wehlen, 03.06.2009<br />

Abbildung 10.5: 5. EUN-Projektmeeting in Poznan, 16.12.2009<br />

63


64<br />

Wissenschaftliche Veranstaltungen<br />

10.5 Japanisch-deutscher Kooperationsworkshop,<br />

<strong>Dresden</strong>, 8./9. Dezember 2009<br />

In den Jahren 2008/09 entwickelte sich eine neue Kooperation mit dem Japan Advanced Institute of<br />

Scince and Technology (JAIST) in Nomi (Präfektur Ishikawa). Sie begann mit der Ko-Betreuung der<br />

Dissertation Petrick durch Prof. Masashi Unoki, die sehr erfolgreich war <strong>und</strong> das Bedürfnis erzeugte,<br />

eine engere Zusammenarbeit unserer beiden Einrichtungen anzustreben. Seitens der TU <strong>Dresden</strong><br />

befürwortete der Rat der Fakultät Elektrotechnik <strong>und</strong> Informationstechnik den Abschluss eines Kooperationsvertrages<br />

am 21. 1. 2009.<br />

JAIST ist eine Graduiertenuniversität, führt also kein Gr<strong>und</strong>studium durch. Es bietet exzellente Bedingungen<br />

für die akademische Qualifizierung. Es besteht aus mehreren „Schools“, wobei unser Partner<br />

die School of Information Science ist. Zwischen dem JAIST <strong>und</strong> unserer Fakultät wurden am 8. 9.<br />

2009 (JAIST) bzw. 5. 10. 2009 (TUD) die beiden Abkommen<br />

• Agreement of Academic Exchange <strong>und</strong><br />

• Agreement of Student Exchange<br />

unterzeichnet. Es geht nun darum, diese Austauschabkommen mit Leben zu erfüllen.<br />

Um diesem Ziel näher zu kommen, fand am 8. <strong>und</strong> 9. 12. 2009 in <strong>Dresden</strong> ein Workshop mit den<br />

Professoren Masato Akagi <strong>und</strong> Masashi Unoki aus der Human Information Processing Group der<br />

School of Information Science statt. Er wurde eingeleitet durch einen öffentlichen Vortrag von Professor<br />

Akagi zum Thema „Voice conversion to add non-linguistic information into speaking voices“, dem<br />

später ein Vortrag von Professor Unoki zum Thema „MTF-based speech dereverberation and denoising“<br />

folgte. Ergänzt wurde dieses Programm durch eine gegenseitige Vorstellung der Institute sowie<br />

durch drei Fachvorträge von <strong>Dresden</strong>er Doktoranden.<br />

In den intensiven Gesprächen erfolgte die Identifikation möglicher Kooperationsthemen. Die Diskussion<br />

soll im März 2010 bei einem zweiten Treffen, dann am JAIST, fortgesetzt werden.<br />

Abbildung 10.6: Prof. Unoki <strong>und</strong> Prof. Akagi


Wissenschaftliche Veranstaltungen<br />

10.6 ECESS-Treffen,<br />

<strong>Dresden</strong>, 18. - 19. Juni 2009<br />

Das 13. Treffen des „European Center of Excellence in Speech Synthesis“ (ECESS) fand Mitte Juni in<br />

<strong>Dresden</strong> statt. An diesem Treffen nahmen teil:<br />

• <strong>Universität</strong> Bonn<br />

• University of Maribor<br />

• Ludwigs-Maximilian-<strong>Universität</strong>, München<br />

• University of the Basque Country, Bilbao, Spanien<br />

• University of Vigo, Spanien<br />

• <strong>Universität</strong> Bochum<br />

• SVOX Deutschland GmbH<br />

Nach der Begrüßung der Teilnehmer durch Professor Hoffmann (TUD) wurde in der Generalversammlung<br />

über das weitere Vorgehen innerhalb des Konsortiums gesprochen. Anschließend daran fanden<br />

die Beratungen der Colleges „Sprachdatenbanken“, „Tools“ <strong>und</strong> „Module <strong>und</strong> Systeme“ statt. Hier<br />

wurden jeweils die Ergebnisse der Aufgaben überprüft, die während des vorhergehenden Treffens im<br />

Januar 2009 in München festgelegt wurden.<br />

Die Agenda im College „Tools“ umfasste die Evaluation von Verfahren für die Segmentierung von<br />

Sprachdatenbanken, die Vorgehensweise zur prosodischen Annotation <strong>und</strong> die Aktivitäten auf dem<br />

Gebiet der Sprechercharakterisierung. Das College „Sprachdatenbanken“ diskutierte über die Erstellung<br />

weiterer Wissensquellen wie Lexika oder prosodisch annotierter Texte, welche für die Entwicklung<br />

der einzelnen Module nötig sind.<br />

Im College „Module <strong>und</strong> Systeme“ wurde über den Status der Module gesprochen, die innerhalb der<br />

TTS-Systeme der einzelnen Partner für die Standard-Sprache Englisch entwickeln worden sind. Ergebnis<br />

der Sitzung sind die Vorbereitung <strong>und</strong> Durchführung der Evaluation. Das an der <strong>Universität</strong> in<br />

Maribor entwickelte „Remote Evaluation System“ (RES) wurde bei mehreren Partnern erfolgreich<br />

installiert <strong>und</strong> getestet <strong>und</strong> eine erste Evaluation der Module für die Vorverarbeitung wurde durchgeführt.<br />

Weitere Schritte sind geplant, um auch die Module für die Prosodiegenerierung <strong>und</strong> die akustische<br />

Synthese zu testen. Dafür müssen noch die entsprechenden Spezifikationen erarbeitet werden.<br />

Zudem werden TTS-Systeme für die Landessprache der jeweiligen Partner entwickelt.<br />

10.7 Statusseminare des Projektes "Untersuchung des Einsatzes<br />

von Verfahren zur Analyse zeitlicher Verläufe bei der Extraktion<br />

perzeptueller musikalischer Attribute",<br />

<strong>Dresden</strong>, 12. 05. <strong>und</strong> 03. 07. 2009<br />

Zusammen mit dem Projektpartner der mufin GmbH fanden mehrere Statusseminare im Jahre 2009<br />

statt. Die Treffen am 12.05. <strong>und</strong> 03.07. zum einen an unserem Institut <strong>und</strong> zum anderen bei der Firma<br />

mufin GmbH waren Bestandteil <strong>und</strong> Abschluss der einführenden Studie[Verweis Wolff 2009]. Die<br />

Ergebnisse, welche die prinzipiellen Möglichkeiten der Zusammenarbeit darlegten, wurden präsentiert.<br />

Bei beiden Treffen waren D. Schönfuß, Dr. M. Eichner <strong>und</strong> T. Herberger von der mufin GmbH<br />

sowie Prof. R. Hoffmann, Dr. M. Eichner <strong>und</strong> S. Hübler von unserem Institut anwesend.<br />

Für die weitere Zusammenarbeit wurde ein intensiver Austausch über den jeweils aktuellen Forschungsstand<br />

vereinbart. Nach Abschluss der Studie wurden diesbezügliche fortlaufende Gespräche<br />

14tägig mit sieben Telefonaten <strong>und</strong> vier weiteren Treffen realisiert. Dabei waren D.Schönfuß <strong>und</strong> Dr.<br />

M. Eichner von der mufin GmbH <strong>und</strong> S. Hübler als verantwortlicher wissenschaftlicher Mitarbeiter<br />

des Instituts regelmäßig beteiligt. Ergebnisse sind in dem ersten Zwischenbericht zu entnehmen.<br />

65


66<br />

Wissenschaftliche Veranstaltungen<br />

10.8 Tschechisch-deutscher Kooperationsworkshop,<br />

<strong>Dresden</strong>, 14. – 21. November 2009<br />

Zwischen unserem Institut <strong>und</strong> den Prager Partnereinrichtungen der Akademie der Wissenschaften<br />

<strong>und</strong> der Karlsuniversität bestehen langjährig enge Beziehungen, zu deren Pflege der regelmäßig in<br />

Prag stattfindende tschechisch-deutsche Workshop „Speech Processing“ dient. Im Berichtsjahr wurde<br />

er ergänzt durch einen Arbeitsbesuch der Leitung des Phonetischen Instituts der Karlsuniversität<br />

Prag an unserem Institut. Wir konnten den Direktor des Instituts, Herrn doc. PhDr. Jan Volín, Ph.D.,<br />

<strong>und</strong> den Geschäftsführer des Instituts, Mgr. Radek Skarnitzl, Ph.D., in <strong>Dresden</strong> begrüßen. Folgender<br />

Arbeitsplan wurde absolviert:<br />

16. 11. Meeting at Institute of Acoustics and Speech Communication<br />

• Information about ongoing research activities<br />

• Exchange of information about available data bases and technological solutions for<br />

planning a first proposal<br />

• Discussion about perspectives of future co-operation<br />

17. 11. Demonstration of the AzAR3.0 pronunciation tutoring system, discussion about perspectives<br />

in development of language tutoring applications<br />

19. 11. (1) Visit at TU <strong>Dresden</strong> Foreign Languages Department (Lehrzentrum Sprachen <strong>und</strong> Kulturen),<br />

demonstration of learning software and eLearning applications, discussions with<br />

foreign language teachers<br />

(2) Meeting with colleagues from Institute of German Studies and Institute of Slavonic<br />

studies, discussion about co-operation in the fields of linguistic research and teaching,<br />

participation in exchange programs etc.<br />

20. 11. Meeting at TU <strong>Dresden</strong>’s European Project Centre, information about financial support<br />

of planned co-operations within European programmes<br />

Außerdem wurde die Zeit genutzt, einen abgestimmten Projektantrag im Rahmen des EU-<br />

Förderprogramms Eurocores/EuroUnderstanding vorzubereiten. Das Projekt zielt dabei auf die Entwicklung<br />

<strong>und</strong> Realisierung eines Experimentiersystems zur Signalmanipulation <strong>und</strong> –resynthese von<br />

Lernersprache. Besonders ist hervorzuheben, dass dieses Vorhaben auf eine längerfristige Zusammenarbeit<br />

gerichtet ist <strong>und</strong> die Einbindung weiterer Partner aus dem sprachwissenschaftlichen Bereich<br />

vorsieht.<br />

10.9 Wissenschaftliche Veranstaltungen zur<br />

Lautsprecherforschung<br />

In den folgenden Abschnitten sind die wissenschaftlichen Veranstaltungen zusammengestellt, die in<br />

Verantwortung der Honorarprofessur Elektroakustik (Prof. Dr. Klippel) angeboten wurden.<br />

10.9.1 Weiterbildungsveranstaltung „Assessment of Signal<br />

Distortion in Audio Systems“, <strong>Dresden</strong>, 5. – 7. 11. 2009<br />

Eine umfangreiche, englischsprachige Veranstaltung zur Bewertung von Signalverzerrungen in Audiosystemen<br />

wurde zugleich für die Weiterbildung sowie als Blockveranstaltung für die Studierenden<br />

angeboten. Als Schwerpunkt <strong>und</strong> praktisches Beispiel diente die Schallreproduktion im Automobil.<br />

Dieses Thema fand ein breites Interesse bei mehr als 80 Teilnehmern aus dem In- <strong>und</strong> Ausland. Die<br />

Studenten des Institutes <strong>und</strong> andere Teilnehmer aus der Industrie stellten in einer kleinen Ausstellung<br />

im Rahmen einer gemeinsamen Abendveranstaltung neue Ideen <strong>und</strong> Entwicklungen vor. Dieses gesellige<br />

Zusammensein <strong>und</strong> die Pausen zwischen den Vorlesungseinheiten boten vielfältige Gelegenheiten<br />

Kontakte zu knüpfen <strong>und</strong> technische Probleme zu diskutieren.


Wissenschaftliche Veranstaltungen<br />

10.9.2 Gastvorlesung in Taiwan<br />

Im Rahmen einer Gastprofessur von Prof. Klippel am elektroakustischen Institut der Feng Chia <strong>Universität</strong>,<br />

Taichung (Taiwan), wurde eine dreitägige Vorlesungsreihe zum Thema “Big so<strong>und</strong> from small<br />

speakers” gehalten, woran auch Ingenieure aus der taiwanesischen Industrie teilnahmen. Prof. Huang,<br />

der Leiter des elektroakustischen Institutes <strong>und</strong> Dekan der elektrischen Fakultät an der Feng<br />

Chia <strong>Universität</strong>, ist an einer stärkeren Kooperation mit dem <strong>IAS</strong> interessiert <strong>und</strong> möchte die organisatorischen<br />

Voraussetzungen für einen Studentenaustausch zwischen beiden Hochschulen schaffen.<br />

10.9.3 ALMA Symposium auf der Prolight + So<strong>und</strong><br />

Prof. Klippel organisierte als verantwortlicher Chairman das wissenschaftliche Tagungsprogramm des<br />

ersten europäischen ALMA Symposiums zum Thema “Loudspeaker Design – Science and Art”,<br />

das im Rahmen der Prolight + So<strong>und</strong> (Musikmesse) am 4. April 2009 in Frankfurt/ Main stattfand.<br />

10.9.4 Weitere Schulungen, öffentliche Workshops <strong>und</strong> Seminare<br />

Im Anschluss an die AES Convention wurde von Dr. Christopher Struck von CJS Labs <strong>und</strong> Prof. Klippel<br />

ein gemeinsames Seminar zum Thema “Loudspeaker Performance: Measurements, Analysis &<br />

Diagnostics” vom 13. – 14. Oktober 2009 in New York durchgeführt.<br />

Die notwendigen Reisen nach China <strong>und</strong> Taiwan nutzte Prof. Klippel für Vorträge zu ausgewählten<br />

Themen der Elektroakustik. Die eintägigen öffentlichen Seminare fanden in wichtigen chinesischen<br />

Industriezentren (Shenzhen, Guangzhou, Jiashan ZheJaing, Shanghai <strong>und</strong> Beijing) statt <strong>und</strong> wurden<br />

sowohl von chinesischen als auch westlichen Ingenieuren aus der Audioindustrie zur Weiterbildung<br />

genutzt.<br />

67


11 Reisen<br />

68<br />

Reisen<br />

Dipl.-Ing Jokisch Meeting European Center of Excellence in Speech<br />

Synthesis<br />

München<br />

Prof. Hoffmann<br />

Dr. Wolff<br />

Dipl.-Slaw. Jäckel<br />

Dipl.-Ing. Jokisch<br />

Dr. Ding<br />

Dipl.-Ing.Jokisch<br />

Dipl.-Slaw. Jäckel<br />

Dr.-Ing. Wolff<br />

Dipl.-Inf. Tschöpe<br />

Projektgespräche <strong>Universität</strong> Halle, Seminar für<br />

Sprechwissenschaft <strong>und</strong> Phonetik<br />

Halle<br />

Bildungsmesse DIDACTA<br />

Hannover<br />

Projektmeeting LLP/EURONOUNCE<br />

Bratislava<br />

Projektbesprechung WEPA Papierfabrik Sachsen<br />

GmbH<br />

Kriebethal<br />

Dipl.-Ing. Richter Beratung mit Projektpartner Microtech Gefell GmbH<br />

Gefell<br />

H.Granich<br />

Dipl.-Wirtsch.-Ing.<br />

Homuth<br />

Messeteilnahme CeBit<br />

Hannover<br />

Prof. Hoffmann Verteidigung Dissertation Dipl.-Ing. Römer,<br />

TU München<br />

Treffen zur Geschichte der Mediendidaktik<br />

Herr Simons<br />

Kirchheim bei München<br />

Prof. Hoffmann Programmkomittee ESSV<br />

Berlin<br />

Prof. Hoffmann<br />

Prof. Mehnert<br />

PD Dr.-Ing. Kordon<br />

Dr.-Ing. Wolff<br />

Dipl.-Ing. Kürbis<br />

Konsultationen am Institut für Phonetik<br />

Amsterdam<br />

Projektberatung SEBA KMT<br />

Radeburg<br />

Dipl.-Ing.Feher COST 2102 International School on Multimodal Signals:<br />

Cognitive and Algorithmic Issues<br />

Dublin<br />

Prof. Hoffmann<br />

Prof. Mehnert<br />

Dipl.-Ing. Richter<br />

Prof. Hoffmann<br />

Dipl.-Ing. Duckhorn<br />

NAG/DAGA 2009, International Conference on<br />

Acoustics<br />

Rotterdam<br />

2nd One Day Meeting on Unified Models for Speech<br />

Recognition<br />

University of Birmingham<br />

22.01. - 23.01.2009<br />

06.02.2009<br />

10.02. - 14.02.2009<br />

17.02. - 18.02.2009<br />

25.02.09<br />

25.02. - 26.02.2009<br />

04.03. - 05.03.2009<br />

10.03. - 11.03.2009<br />

12.03.2009<br />

19.03. - 23.03.2009<br />

20.03.2009<br />

22.03. - 28.03.2009<br />

23.03. - 26.03.2009<br />

30.03.2009


Reisen<br />

Prof. Hoffmann CVHI – Conference and Workshop on Assistive<br />

Technologies for Vision and Hearing Impairment<br />

Wroclaw<br />

Prof. Hoffmann Professorium der Fakultät Elektrotechnik <strong>und</strong> Informationstechnik<br />

Frauenstein<br />

Dipl.-Ing. Richter Beratung zu Digitalmikrofonen<br />

Hochschule Merseburg (FH)<br />

Merseburg<br />

Prof. Hoffmann Vorstandssitzung An-Institut IfM Zwota<br />

Oelsnitz/Vogtland<br />

Dipl.-Slaw. Jäckel Konsulation zu EURONOUNCE<br />

Institut für Slawistik der Humboldt-<strong>Universität</strong><br />

Berlin<br />

Prof. Hoffmann<br />

Dipl.-Ing. Jokisch<br />

Dipl.-Slaw. Jäckel<br />

EURONOUNCE-Meeting<br />

Wehlen<br />

Prof. Hoffmann Jahresabsprache Willkomm-Stiftung<br />

Rödermark-Waldacker<br />

Dipl.-Ing. Jokisch LMU Meeting <strong>und</strong> HAPS-Geräte<br />

München<br />

Dr. Hain<br />

Kooperation Aufbereitung von Datenbanken mit Kin-<br />

Dipl.-Ing. Jokisch dersprache<br />

Dipl.-Ing. Petrick Erlangen<br />

Prof. Hoffmann<br />

Dipl-Ing. Jokisch<br />

Dipl.-Ing. Petrick<br />

13th International Conference on Speech and Computer<br />

(SPECOM)/Arbeitstreffen EURONOUNCE<br />

St. Petersburg<br />

Prof. Hoffmann ERS-Workshop „Maschinendiagnose- Gr<strong>und</strong>lagen,<br />

Konzepte, Visionen“<br />

Aachen<br />

Prof. Hoffmann Vortrag Arbeitsgruppe Geschichte der Otologie <strong>und</strong><br />

Literarischer Arbeitskreis Borkum,<br />

Borkum<br />

Prof. Hoffmann Berufungskommission Kommunikationstechnik<br />

Cottbus<br />

Prof. Hoffmann Programmkomitee ESSV<br />

Berlin<br />

Dr. Ma Programm der Humboldt-Stiftung<br />

Deutschlandr<strong>und</strong>reise<br />

Prof. Hoffmann Besuch FH Zwickau <strong>und</strong><br />

Vorstandsstitzung An-Institut IfM Zwota<br />

Zwota<br />

21.04. - 23.04.2009<br />

24.04. – 25.04.2009<br />

27.04.2009<br />

13.05.2009<br />

15.05.2009<br />

03.06. - 04.06.2009<br />

09.06. -10.06.2009<br />

10.06.2009<br />

15.06.2009<br />

21.06. - 26.06.2009<br />

07.07. - 09.07.2009<br />

16.07.2009<br />

04.08.2009<br />

11.08.2009<br />

17.08. - 29.08.2009<br />

20.08.2009<br />

69


Prof. Hoffmann<br />

Dr. Ma<br />

MSc. Gamboa<br />

Dipl.-Ing. Jokisch<br />

Dipl.-Ing. Strecha<br />

Dipl.-Ing. Wittenberg<br />

70<br />

Reisen<br />

INTERSPEECH - 10th Annunal Conference of the<br />

International Speech Communication Association<br />

(ISCA)<br />

Brighton, UK<br />

Dipl.-Ing. Jokisch 2nd ISCA--Workshop on Speech and Language<br />

Technology in Education<br />

Wroxall Abbey Estate UK<br />

Dr.-Ing. Hain<br />

Dipl.-Ing. Petrick<br />

Workshop Analog Devices<br />

Berlin<br />

Prof. Hoffmann International conference on boimetric ID Management<br />

and Multimodal Communication/COST 2102<br />

Management Committee Meeting<br />

Madrid<br />

Dipl.-Ing. Jokisch CALL-Pojekt (Kooperation L1CN-L2DE, Prof. Mixdorf)<br />

Beijing, Hefei, Shanghai<br />

Prof. Hoffmann<br />

PD Dr.-Ing. Kordon<br />

Dipl.-Slaw. Jäckel<br />

Dipl.-Ing. Petrick<br />

Dipl.-Ing. Richter<br />

19th Czech-German Workshop on Speech Processing<br />

Prague<br />

Prof. Hoffmann Berufungskommission Kommunikationstechnik<br />

Cottbus<br />

Dipl.-Med.-wirt<br />

Matthes<br />

Dr. Wolff<br />

Dipl.-Inf. Tschöpe<br />

Prof. Mehnert<br />

Prof. Hoffmann<br />

Dr. Dietzel<br />

Messebesuch modell-hobby-spiel<br />

Leipzig<br />

Projekttreffen SSMG<br />

Leipzig<br />

Arbeitsbesuch Musée Marey,<br />

Beaune-Bourgogne <strong>und</strong><br />

Musée Claude Bernard,<br />

Saint Julien en Baujolais<br />

Dipl.-Ing. Jokisch Sitzung Pro Ideenfond - Dr. Milde/H. Stoss (V2C)<br />

Hamburg<br />

Prof. Hoffmann Berufungskommission Kommunikationstechnik<br />

Cottbus<br />

PD Dr. Kordon 1. Potsdamer So<strong>und</strong>designforum<br />

Potsdam<br />

Dr. Wolff<br />

Dipl.-Inf. Tschöpe<br />

IEEE SENSORS Conference<br />

Christchurch, Neuseeland<br />

Prof. Hoffmann Verleihung Johann-Philipp-Reis-Preis (Laudator)<br />

Gelnhausen<br />

06.09. - 10.09.2009<br />

02.09. - 10.09.2009<br />

09.09.2009<br />

16.09. - 19.09.2009<br />

24.09. - 05.10.2009<br />

29.09. – 01.10.2009<br />

01.10.- 02.10.2009<br />

03.10.2009<br />

05.10.2009<br />

05.10. - 10.10.2009<br />

08.10. - 09.10.2009<br />

14.10. - 15.10.2009<br />

14.10. - 15.10.2009<br />

23.10. - 28.11.2009<br />

29.10.2009


Reisen<br />

Prof. Hoffmann Besuch Prof. Wolf <strong>Universität</strong> Frankfurt<br />

Frankfurt<br />

Dr.-Ing. Hain<br />

Dipl.-Ing. Jokisch<br />

2nd Workshop on Child, Computer and Interaction<br />

Cambridge,MA (USA)<br />

Besuch Fa. SpeechCycle<br />

New York, USA<br />

Prof. Hoffmann Mitgliederversammlung An-Institut IfM Zwota<br />

Zwota<br />

Dipl.-Ing. Jokisch CALL-Projekt (Kooperation L1JP-L2DE. Prof. Mixdorff)<br />

Tokio, Kobe, Ishikawa<br />

Dr. Hain<br />

Dr. Petrick<br />

Dipl.-Med.-wirt<br />

Matthes<br />

Seminar "Gründerpersönlichkeit" von EXIST<br />

Kienbaum GmbH<br />

Magdeburg<br />

Frau Wrann Seminar AVS „Kommunikation <strong>und</strong> Sekretariatsarbeit<br />

im Vorzimmer“<br />

Prof. Hoffmann Physikalisches Kolloquium Goethe-<strong>Universität</strong><br />

Frankfurt/Main<br />

Dipl.-Ing. Jokisch<br />

Dipl.-Slaw. Jäckel<br />

EURONOUNCE-Projektmeeting<br />

Poznan<br />

30.10.2009<br />

01.11. - 08.11.2009<br />

13.11.2009<br />

17.11. - 25.11.2009<br />

17.11.2009<br />

23.11. - 25.11.2009<br />

02.12. - 03.12.2009<br />

16.12. - 17.12.2009<br />

71


72<br />

Aktivitäten in der wissenschaftlichen Gemeinschaft<br />

12 Aktivitäten in der wissenschaftlichen Gemeinschaft<br />

12.1 Akademische Selbstverwaltung<br />

Prof. Dr.-Ing. habil. R. Hoffmann<br />

- Mitglied des Rates der Fakultät Elektrotechnik <strong>und</strong> Informationstechnik<br />

- Mitglied der Strukturkommission der Fakultät Elektrotechnik <strong>und</strong> Informationstechnik<br />

Dipl.-Ing. M. Kortke<br />

- Mitglied der Schwerbehindertenvertretung der TU <strong>Dresden</strong> als Stellvertreter der Vertrauensperson<br />

12.2 Mitarbeit in Gremien<br />

Prof. Dr.-Ing. habil. R. Hoffmann<br />

- Mitglied von IEEE, ITG, ISCA, DHV<br />

- Vorsitzender des ITG-Fachausschusses 4.4 "Sprachverarbeitung“<br />

- Mitglied der ISCA Special Interest Group „Speech Synthesis“ (SynSIG)<br />

- Mitglied des Landesausschusses der U.R.S.I., Kommission C (Signals and Systems)<br />

- Gutachter in den Programmen des BMBF zur Förderung der Forschung an Fachhochschulen<br />

- Reviewer für das Zentralblatt für Mathematik<br />

- Gründungsmitglied des ECESS (European Center of Excellence in Speech Synthesis)<br />

- Mitglied des Management Committee der Aktion COST 2102<br />

- Mitglied des Vorstandes des Vogtländischen Fördervereins für Musikinstrumentenbau <strong>und</strong> Innovation<br />

e.V.<br />

- Mitglied des Client Advisory Board, Kongress-Marketing <strong>Dresden</strong><br />

PD Dr.-Ing. U. Kordon<br />

- Mitglied ITG-Fachausschuss 4.3 „Sprachakustik“<br />

12.3 Mitarbeit in Programmkomitees<br />

Prof. Dr.-Ing. habil. R. Hoffmann<br />

- CVHI 2009, Conference and Workshop on Assistive Technologies for People with Vision and Hearing<br />

Impairments, Wroclaw 20. - 23. 4. 2009 (Mitglied Scientific Organising Committee)<br />

- SPECOM 2009, 13th International Conference Speech and Computer, St. Petersburg 21. - 25. 6.<br />

2009 (Mitglied International Scientific Committee)<br />

- BioID_MultiComm, Joint International Conference on Biometric ID Management and Multimodal<br />

Communication, Madrid 16. - 18. 9. 2009 (Mitglied Scientific Committee)<br />

- ESSV 2009, 20. Konferenz Elektronische Sprachsignalverarbeitung, <strong>Dresden</strong> 21. - 24. 9. 2009<br />

(Wiss. Tagungsleitung)<br />

- TAT 2009, <strong>IAS</strong>TED International Conference on Telehealth and Assistive Technology, Cambridge,<br />

MA, 4. - 6. 11. 2009 (Member International Program Committee)


Die letzte Seite<br />

Ende April 2009 hatte unsere historische Sammlung außergewöhnlichen Besuch: Der bekannte <strong>Dresden</strong>er<br />

Kabarettist Olaf Schubert (im Bild links) besuchte die Sammlung mit seinem Produzenten Martin<br />

Fischer <strong>und</strong> dem Fotografen Volker Dietzel, um Fotos für das Booklet seiner neuen CD „Komplette<br />

Fragmente – Schon wieder 17 Hördialoge“ anzufertigen. Die nicht ganz ernst gemeinten Bilder sollen<br />

optisch die Frage beantworten, wie eigentlich ein Hördialog entsteht.<br />

Olaf Schubert ist übrigens Gewinner des Deutschen Kleinkunstpreises 2009 in der Sparte Kleinkunst,<br />

der ihm am 21. Februar 2010 in Mainz verliehen wurde. Wir gratulieren.<br />

73

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!