- Seite 1:
Ivica Rogina Sprachliche Mensch-Mas
- Seite 5 und 6:
Inhaltsverzeichnis Tabellenverzeich
- Seite 7 und 8:
Inhaltsverzeichnis IX 8. Verarbeitu
- Seite 9 und 10:
Inhaltsverzeichnis XI 16. Verwendun
- Seite 11 und 12:
Inhaltsverzeichnis XIII 23. Versteh
- Seite 13 und 14:
Tabellenverzeichnis 1.1 Eingabegesc
- Seite 15 und 16:
Abbildungsverzeichnis 2.1 Wortfehle
- Seite 17 und 18:
Abbildungsverzeichnis XIX 8.1 Signa
- Seite 19 und 20:
Abbildungsverzeichnis XXI 13.1 Trai
- Seite 21 und 22:
Abbildungsverzeichnis XXIII 18.1 Zu
- Seite 23 und 24:
Abbildungsverzeichnis XXV 28.1 Vers
- Seite 25 und 26:
2 1. Nutzen und Anwendungen 1.1 Vor
- Seite 27 und 28:
4 1. Nutzen und Anwendungen 1.2 Anw
- Seite 29 und 30:
6 1. Nutzen und Anwendungen plomarb
- Seite 31 und 32:
8 1. Nutzen und Anwendungen Wo imme
- Seite 33 und 34:
10 1. Nutzen und Anwendungen zugeor
- Seite 35 und 36:
12 1. Nutzen und Anwendungen Sprach
- Seite 37 und 38:
14 1. Nutzen und Anwendungen Sprach
- Seite 39 und 40:
16 1. Nutzen und Anwendungen Mensch
- Seite 41 und 42:
18 2. Eigenschaften und Taxonomie v
- Seite 43 und 44:
20 2. Eigenschaften und Taxonomie v
- Seite 45 und 46:
22 2. Eigenschaften und Taxonomie v
- Seite 47 und 48:
24 2. Eigenschaften und Taxonomie v
- Seite 49 und 50:
26 2. Eigenschaften und Taxonomie v
- Seite 51 und 52:
28 2. Eigenschaften und Taxonomie v
- Seite 53 und 54:
30 2. Eigenschaften und Taxonomie v
- Seite 55 und 56:
32 2. Eigenschaften und Taxonomie v
- Seite 57 und 58:
34 3. Geschichte eine abhörsichere
- Seite 59 und 60:
36 3. Geschichte Fehler erkennen k
- Seite 61 und 62:
38 3. Geschichte auch hier ca. 1000
- Seite 64 und 65:
4. Anatomie Sprachproduktion und Pe
- Seite 66 und 67:
4.1 Anatomie des Artikulationsappar
- Seite 68 und 69:
4.1 Anatomie des Artikulationsappar
- Seite 70 und 71:
4.1 Anatomie des Artikulationsappar
- Seite 72 und 73:
4.1 Anatomie des Artikulationsappar
- Seite 74 und 75:
4.1 Anatomie des Artikulationsappar
- Seite 76 und 77:
4.2 Anatomie des Gehörs 53 Nasenra
- Seite 78 und 79:
5. Akustische Grundlagen Zum Verst
- Seite 80 und 81:
Quelle a x 2a Abb. 5.2. Schallenerg
- Seite 82 und 83:
absolute Schalldruckpegel ist defin
- Seite 84 und 85:
5.2 Messung der Schallintensität 6
- Seite 86 und 87:
6. Phonetische Grundlagen Die Phone
- Seite 88 und 89:
6.2 Die IPA Lautemenge 65 des zwanz
- Seite 90 und 91:
6.3 Gruppierung von Phonemen 67 fü
- Seite 92 und 93:
Abb. 6.2. Das Vokalviereck uÏ oÇ
- Seite 94 und 95:
6.3 Gruppierung von Phonemen 71 In
- Seite 96 und 97:
6.3.3 Artikulationsorte 6.3 Gruppie
- Seite 98:
Lippenrundung 6.3 Gruppierung von P
- Seite 101 und 102:
78 7. Grundlagen der Signalverarbei
- Seite 103 und 104:
80 7. Grundlagen der Signalverarbei
- Seite 105 und 106:
82 7. Grundlagen der Signalverarbei
- Seite 107 und 108:
84 7. Grundlagen der Signalverarbei
- Seite 109 und 110:
86 7. Grundlagen der Signalverarbei
- Seite 111 und 112:
88 7. Grundlagen der Signalverarbei
- Seite 113 und 114:
90 7. Grundlagen der Signalverarbei
- Seite 115 und 116:
92 7. Grundlagen der Signalverarbei
- Seite 117 und 118:
94 7. Grundlagen der Signalverarbei
- Seite 119 und 120:
96 7. Grundlagen der Signalverarbei
- Seite 121 und 122:
98 7. Grundlagen der Signalverarbei
- Seite 123 und 124:
100 7. Grundlagen der Signalverarbe
- Seite 125 und 126:
102 7. Grundlagen der Signalverarbe
- Seite 127 und 128:
104 7. Grundlagen der Signalverarbe
- Seite 129 und 130:
106 8. Verarbeitung von Sprachsigna
- Seite 131 und 132:
108 8. Verarbeitung von Sprachsigna
- Seite 133 und 134:
110 8. Verarbeitung von Sprachsigna
- Seite 135 und 136:
112 8. Verarbeitung von Sprachsigna
- Seite 137 und 138:
114 8. Verarbeitung von Sprachsigna
- Seite 139 und 140:
116 8. Verarbeitung von Sprachsigna
- Seite 141 und 142:
118 8. Verarbeitung von Sprachsigna
- Seite 143 und 144:
120 8. Verarbeitung von Sprachsigna
- Seite 145 und 146:
122 8. Verarbeitung von Sprachsigna
- Seite 147 und 148: 124 8. Verarbeitung von Sprachsigna
- Seite 150 und 151: 9. Klassifikation und Mustererkennu
- Seite 152 und 153: Transkript A/D Converter Parameters
- Seite 154 und 155: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
- Seite 156 und 157: 9.1 Klassifikatoren 133 Beispiel au
- Seite 158 und 159: 9.1 Klassifikatoren 135 den durchsc
- Seite 160 und 161: 9.1 Klassifikatoren 137 Eine weiter
- Seite 162 und 163: B A A B C Abb. 9.8. Das Bucket-Voro
- Seite 164 und 165: K1 p(x|2) x K2 max p(2) . p(x|n) Kn
- Seite 166 und 167: 9.1 Klassifikatoren 143 Hierbei ist
- Seite 168 und 169: Dabei wird γtk geschätzt als γtk
- Seite 170 und 171: 9.3 Diskriminanzoptimierung 147 wob
- Seite 172 und 173: 9.3 Diskriminanzoptimierung 149 im
- Seite 174 und 175: 10. Erkennung statischer Sprachsign
- Seite 176 und 177: 10.1 Zeitsignalbasierte Erkennung 1
- Seite 178 und 179: 10.1 Zeitsignalbasierte Erkennung 1
- Seite 180 und 181: F2 [Hz] 4000 2000 1000 500 0 ÁÁÁ
- Seite 182 und 183: 11. Erkennung dynamischer Sprachsig
- Seite 184 und 185: 11.1 Minimale Editierdistanz 161 Ab
- Seite 186 und 187: 11.2 Dynamisches Programmieren 163
- Seite 188 und 189: 11.2 Dynamisches Programmieren 165
- Seite 190 und 191: 11.2 Dynamisches Programmieren 167
- Seite 192 und 193: 11.3 Spracherkennung mittels Dynami
- Seite 194 und 195: 11.3 Spracherkennung mittels Dynami
- Seite 196 und 197: Steigung 2 1/2 2 11.3 Spracherkennu
- Seite 200 und 201: 12. Hidden Markov Modelle Man kann
- Seite 202 und 203: 12.1 Probleme mit einfachen Musterv
- Seite 204 und 205: 12.2 Sprache als stochastischer Pro
- Seite 206 und 207: 12.2 Sprache als stochastischer Pro
- Seite 208 und 209: 12.2 Sprache als stochastischer Pro
- Seite 210 und 211: 12.4 Die drei Probleme der Hidden M
- Seite 212 und 213: 12.4 Die drei Probleme der Hidden M
- Seite 214 und 215: 12.4 Die drei Probleme der Hidden M
- Seite 216 und 217: 12.4 Die drei Probleme der Hidden M
- Seite 218 und 219: 12.4 Die drei Probleme der Hidden M
- Seite 220 und 221: anwenden und erhalten: 12.4 Die dre
- Seite 222 und 223: 12.5 Spracherkennung mit Hidden Mar
- Seite 224 und 225: 12.5 Spracherkennung mit Hidden Mar
- Seite 226 und 227: 12.5 Spracherkennung mit Hidden Mar
- Seite 228 und 229: 13. Das Trainieren von Spracherkenn
- Seite 230 und 231: 13.1 Überblick über den HMM-Entwi
- Seite 232 und 233: 13.1 Überblick über den HMM-Entwi
- Seite 234 und 235: Fehlerrate auf Trainingsdaten Abb.
- Seite 236 und 237: 13.2 Aufteilung der Sprachaufnahmen
- Seite 238 und 239: 13.3 Trainingsparadigmen 215 Der Ei
- Seite 240 und 241: 13.3 Trainingsparadigmen 217 annehm
- Seite 242 und 243: 13.3 Trainingsparadigmen 219 Das f
- Seite 244 und 245: 13.3 Trainingsparadigmen 221 viel w
- Seite 246 und 247: 14. Das akustische Modell In der Sp
- Seite 248 und 249:
14.2 Der Parameterraum des Akustisc
- Seite 250 und 251:
14.2 Der Parameterraum des Akustisc
- Seite 252 und 253:
14.3 Mehrere Datenströme 229 Ganz
- Seite 254 und 255:
14.4 Parameterkopplung 231 Zustand
- Seite 256 und 257:
Räumliche 14.5 Mehrdimensionale Hi
- Seite 258 und 259:
14.5 Mehrdimensionale Hidden-Markov
- Seite 260 und 261:
14.6 Aussprachemodellierung 237 aus
- Seite 262 und 263:
14.6.3 Aussprachevarianten 14.6 Aus
- Seite 264 und 265:
14.6 Aussprachemodellierung 241 wer
- Seite 266 und 267:
14.6 Aussprachemodellierung 243 wir
- Seite 268 und 269:
14.6 Aussprachemodellierung 245 Dur
- Seite 270 und 271:
15. Erkennung kontinuierlicher Spra
- Seite 272 und 273:
15.1 Bewertung von Erkennungshypoth
- Seite 274 und 275:
15.2 One Stage Dynamic Programming
- Seite 276 und 277:
D C B A 15.2 One Stage Dynamic Prog
- Seite 278 und 279:
D C B A 15.2 One Stage Dynamic Prog
- Seite 280 und 281:
15.3 Hidden Markov Modelle für kon
- Seite 282:
C B A 15.4 Einbindung eines einfach
- Seite 285 und 286:
262 16. Verwendung von Sprachmodell
- Seite 287 und 288:
264 16. Verwendung von Sprachmodell
- Seite 289 und 290:
266 16. Verwendung von Sprachmodell
- Seite 291 und 292:
268 16. Verwendung von Sprachmodell
- Seite 293 und 294:
270 16. Verwendung von Sprachmodell
- Seite 295 und 296:
272 16. Verwendung von Sprachmodell
- Seite 297 und 298:
274 16. Verwendung von Sprachmodell
- Seite 299 und 300:
276 16. Verwendung von Sprachmodell
- Seite 301 und 302:
278 16. Verwendung von Sprachmodell
- Seite 303 und 304:
280 16. Verwendung von Sprachmodell
- Seite 305 und 306:
282 16. Verwendung von Sprachmodell
- Seite 307 und 308:
284 16. Verwendung von Sprachmodell
- Seite 309 und 310:
286 16. Verwendung von Sprachmodell
- Seite 311 und 312:
288 16. Verwendung von Sprachmodell
- Seite 313 und 314:
290 17. Kontextabhängige akustisch
- Seite 315 und 316:
292 17. Kontextabhängige akustisch
- Seite 317 und 318:
294 17. Kontextabhängige akustisch
- Seite 319 und 320:
296 17. Kontextabhängige akustisch
- Seite 321 und 322:
298 17. Kontextabhängige akustisch
- Seite 323 und 324:
300 17. Kontextabhängige akustisch
- Seite 325 und 326:
302 17. Kontextabhängige akustisch
- Seite 327 und 328:
304 17. Kontextabhängige akustisch
- Seite 329 und 330:
306 17. Kontextabhängige akustisch
- Seite 331 und 332:
308 17. Kontextabhängige akustisch
- Seite 333 und 334:
310 17. Kontextabhängige akustisch
- Seite 335 und 336:
312 17. Kontextabhängige akustisch
- Seite 338 und 339:
18. Effiziente Decodierverfahren De
- Seite 340 und 341:
18.1 Decoderarten 317 Eine partiell
- Seite 342 und 343:
18.2 Beschneidung des Suchraumes 31
- Seite 344 und 345:
HUT HUF HOF T 18.3 Baumdarstellung
- Seite 346 und 347:
18.4 Sprachmodelle höherer Ordnung
- Seite 348 und 349:
18.6 Längenmodellierung 325 ein Sp
- Seite 350:
18.7 Mehrpaßsuchen 327 möglich is
- Seite 353 und 354:
330 19. Parameterraumoptimierung wi
- Seite 355 und 356:
332 19. Parameterraumoptimierung 19
- Seite 357 und 358:
334 19. Parameterraumoptimierung Ge
- Seite 359 und 360:
336 19. Parameterraumoptimierung er
- Seite 361 und 362:
338 19. Parameterraumoptimierung Ab
- Seite 363 und 364:
340 19. Parameterraumoptimierung Be
- Seite 365 und 366:
342 19. Parameterraumoptimierung 19
- Seite 367 und 368:
344 19. Parameterraumoptimierung Sc
- Seite 369 und 370:
346 20. Erkennung von Spezialvokabu
- Seite 371 und 372:
348 20. Erkennung von Spezialvokabu
- Seite 373 und 374:
350 20. Erkennung von Spezialvokabu
- Seite 376 und 377:
21. Robustheit und Adaption Lange Z
- Seite 378 und 379:
50 45 40 35 30 25 20 15 10 5 0 21.1
- Seite 380 und 381:
21.3 Geräuschmodellierung 357 ein
- Seite 382 und 383:
21.4 Adaptionsziele 359 Geräusche
- Seite 384 und 385:
auswirkt. In Gl. 21.2 wird eine Tra
- Seite 386 und 387:
21.5 Adaptionsmethoden 363 eine Fun
- Seite 388 und 389:
21.5 Adaptionsmethoden 365 auf die
- Seite 390 und 391:
21.5 Adaptionsmethoden 367 tion B1(
- Seite 392:
21.5 Adaptionsmethoden 369 trägt z
- Seite 395 und 396:
372 22. Künstliche Neuronale Netze
- Seite 397 und 398:
374 22. Künstliche Neuronale Netze
- Seite 399 und 400:
376 22. Künstliche Neuronale Netze
- Seite 401 und 402:
378 22. Künstliche Neuronale Netze
- Seite 403 und 404:
380 22. Künstliche Neuronale Netze
- Seite 405 und 406:
382 22. Künstliche Neuronale Netze
- Seite 407 und 408:
384 22. Künstliche Neuronale Netze
- Seite 409 und 410:
386 22. Künstliche Neuronale Netze
- Seite 412 und 413:
23. Verstehen von Sprache In den An
- Seite 414 und 415:
Spracherkenner Wortfolge (Hypothese
- Seite 416 und 417:
War die Äußerung eine Aussage, ei
- Seite 418 und 419:
Syntaktischer Parser Semantischer P
- Seite 420 und 421:
... SEIN RASEN GRÜNT Verb Verb Ver
- Seite 422 und 423:
23.3 Parsing 399 weder durch exakte
- Seite 424 und 425:
24. Dialogsteuerung Ein Dialog hat
- Seite 426 und 427:
24.1 Einheiten der sprachlichen Kom
- Seite 428 und 429:
24.2 Sprechakte 405 enthalten sie I
- Seite 430 und 431:
24.4 Entwicklung von Dialogsystemen
- Seite 432 und 433:
24.4 Entwicklung von Dialogsystemen
- Seite 434:
24.4 Entwicklung von Dialogsystemen
- Seite 437 und 438:
414 25. Erkennung verschiedener Spr
- Seite 439 und 440:
416 25. Erkennung verschiedener Spr
- Seite 441 und 442:
418 25. Erkennung verschiedener Spr
- Seite 443 und 444:
420 26. Zusätzliche Modalitäten d
- Seite 445 und 446:
422 26. Zusätzliche Modalitäten 2
- Seite 447 und 448:
424 26. Zusätzliche Modalitäten E
- Seite 449 und 450:
426 26. Zusätzliche Modalitäten K
- Seite 451 und 452:
428 26. Zusätzliche Modalitäten 0
- Seite 454 und 455:
27. Entwicklung von Anwendungen In
- Seite 456 und 457:
27.1 Ein Erkenner für eine neue Au
- Seite 458 und 459:
27.1 Ein Erkenner für eine neue Au
- Seite 460 und 461:
27.1 Ein Erkenner für eine neue Au
- Seite 462 und 463:
27.3 Beispiel: Adressenerkennung 43
- Seite 464 und 465:
27.3 Beispiel: Adressenerkennung 44
- Seite 466 und 467:
28. Der moderne Vortragsraum Kommun
- Seite 468 und 469:
28.1 Die Rolle der Spracherkennung
- Seite 470 und 471:
28.1 Die Rolle der Spracherkennung
- Seite 472 und 473:
28.2 Verfolgen eines Laserpointers
- Seite 474 und 475:
E K oben Q K rechts K unten H horiz
- Seite 476 und 477:
28.2 Verfolgen eines Laserpointers
- Seite 478 und 479:
Lasers auswirken. 28.3 Erkennung sp
- Seite 480 und 481:
28.3 Erkennung spontaner Vortragssp
- Seite 482 und 483:
28.3 Erkennung spontaner Vortragssp
- Seite 484 und 485:
ausgehen, daß die Erkennung etwas
- Seite 486:
28.4 Das FAME Projekt 463 in sein N
- Seite 489 und 490:
466 Literaturverzeichnis [BMHW93a]
- Seite 491 und 492:
468 Literaturverzeichnis [FR97] M.
- Seite 493 und 494:
470 Literaturverzeichnis [Hil03] A.
- Seite 495 und 496:
472 Literaturverzeichnis [Kle00] M.
- Seite 497 und 498:
474 Literaturverzeichnis [Mai94] M.
- Seite 499 und 500:
476 Literaturverzeichnis [PGF + 95]
- Seite 501 und 502:
478 Literaturverzeichnis [SR97] K.
- Seite 503 und 504:
480 Literaturverzeichnis [WOVY94] P
- Seite 506 und 507:
Sachverzeichnis F0, 391 N-Gramme, 2
- Seite 508 und 509:
Eingabegeschwindigkeit, 2 Einzelkom
- Seite 510 und 511:
Liftering, 120 Likelihood Distanz,
- Seite 512 und 513:
Sprachdetektor, 152 Sprachenidentif