- Seite 1:
Ivica Rogina Sprachliche Mensch-Mas
- Seite 5 und 6:
Inhaltsverzeichnis Tabellenverzeich
- Seite 7 und 8:
Inhaltsverzeichnis IX 8. Verarbeitu
- Seite 9 und 10:
Inhaltsverzeichnis XI 16. Verwendun
- Seite 11 und 12:
Inhaltsverzeichnis XIII 23. Versteh
- Seite 13 und 14:
Tabellenverzeichnis 1.1 Eingabegesc
- Seite 15 und 16:
Abbildungsverzeichnis 2.1 Wortfehle
- Seite 17 und 18:
Abbildungsverzeichnis XIX 8.1 Signa
- Seite 19 und 20:
Abbildungsverzeichnis XXI 13.1 Trai
- Seite 21 und 22:
Abbildungsverzeichnis XXIII 18.1 Zu
- Seite 23 und 24:
Abbildungsverzeichnis XXV 28.1 Vers
- Seite 25 und 26:
2 1. Nutzen und Anwendungen 1.1 Vor
- Seite 27 und 28:
4 1. Nutzen und Anwendungen 1.2 Anw
- Seite 29 und 30:
6 1. Nutzen und Anwendungen plomarb
- Seite 31 und 32:
8 1. Nutzen und Anwendungen Wo imme
- Seite 33 und 34:
10 1. Nutzen und Anwendungen zugeor
- Seite 35 und 36:
12 1. Nutzen und Anwendungen Sprach
- Seite 37 und 38:
14 1. Nutzen und Anwendungen Sprach
- Seite 39 und 40:
16 1. Nutzen und Anwendungen Mensch
- Seite 41 und 42:
18 2. Eigenschaften und Taxonomie v
- Seite 43 und 44:
20 2. Eigenschaften und Taxonomie v
- Seite 45 und 46:
22 2. Eigenschaften und Taxonomie v
- Seite 47 und 48:
24 2. Eigenschaften und Taxonomie v
- Seite 49 und 50:
26 2. Eigenschaften und Taxonomie v
- Seite 51 und 52:
28 2. Eigenschaften und Taxonomie v
- Seite 53 und 54:
30 2. Eigenschaften und Taxonomie v
- Seite 55 und 56:
32 2. Eigenschaften und Taxonomie v
- Seite 57 und 58:
34 3. Geschichte eine abhörsichere
- Seite 59 und 60:
36 3. Geschichte Fehler erkennen k
- Seite 61 und 62:
38 3. Geschichte auch hier ca. 1000
- Seite 64 und 65:
4. Anatomie Sprachproduktion und Pe
- Seite 66 und 67:
4.1 Anatomie des Artikulationsappar
- Seite 68 und 69:
4.1 Anatomie des Artikulationsappar
- Seite 70 und 71:
4.1 Anatomie des Artikulationsappar
- Seite 72 und 73:
4.1 Anatomie des Artikulationsappar
- Seite 74 und 75:
4.1 Anatomie des Artikulationsappar
- Seite 76 und 77:
4.2 Anatomie des Gehörs 53 Nasenra
- Seite 78 und 79:
5. Akustische Grundlagen Zum Verst
- Seite 80 und 81:
Quelle a x 2a Abb. 5.2. Schallenerg
- Seite 82 und 83:
absolute Schalldruckpegel ist defin
- Seite 84 und 85:
5.2 Messung der Schallintensität 6
- Seite 86 und 87:
6. Phonetische Grundlagen Die Phone
- Seite 88 und 89:
6.2 Die IPA Lautemenge 65 des zwanz
- Seite 90 und 91:
6.3 Gruppierung von Phonemen 67 fü
- Seite 92 und 93:
Abb. 6.2. Das Vokalviereck uÏ oÇ
- Seite 94 und 95:
6.3 Gruppierung von Phonemen 71 In
- Seite 96 und 97:
6.3.3 Artikulationsorte 6.3 Gruppie
- Seite 98:
Lippenrundung 6.3 Gruppierung von P
- Seite 101 und 102:
78 7. Grundlagen der Signalverarbei
- Seite 103 und 104:
80 7. Grundlagen der Signalverarbei
- Seite 105 und 106:
82 7. Grundlagen der Signalverarbei
- Seite 107 und 108:
84 7. Grundlagen der Signalverarbei
- Seite 109 und 110:
86 7. Grundlagen der Signalverarbei
- Seite 111 und 112:
88 7. Grundlagen der Signalverarbei
- Seite 113 und 114:
90 7. Grundlagen der Signalverarbei
- Seite 115 und 116:
92 7. Grundlagen der Signalverarbei
- Seite 117 und 118:
94 7. Grundlagen der Signalverarbei
- Seite 119 und 120:
96 7. Grundlagen der Signalverarbei
- Seite 121 und 122:
98 7. Grundlagen der Signalverarbei
- Seite 123 und 124:
100 7. Grundlagen der Signalverarbe
- Seite 125 und 126:
102 7. Grundlagen der Signalverarbe
- Seite 127 und 128:
104 7. Grundlagen der Signalverarbe
- Seite 129 und 130:
106 8. Verarbeitung von Sprachsigna
- Seite 131 und 132:
108 8. Verarbeitung von Sprachsigna
- Seite 133 und 134:
110 8. Verarbeitung von Sprachsigna
- Seite 135 und 136:
112 8. Verarbeitung von Sprachsigna
- Seite 137 und 138:
114 8. Verarbeitung von Sprachsigna
- Seite 139 und 140:
116 8. Verarbeitung von Sprachsigna
- Seite 141 und 142:
118 8. Verarbeitung von Sprachsigna
- Seite 143 und 144:
120 8. Verarbeitung von Sprachsigna
- Seite 145 und 146:
122 8. Verarbeitung von Sprachsigna
- Seite 147 und 148:
124 8. Verarbeitung von Sprachsigna
- Seite 150 und 151:
9. Klassifikation und Mustererkennu
- Seite 152 und 153:
Transkript A/D Converter Parameters
- Seite 154 und 155:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
- Seite 156 und 157:
9.1 Klassifikatoren 133 Beispiel au
- Seite 158 und 159:
9.1 Klassifikatoren 135 den durchsc
- Seite 160 und 161:
9.1 Klassifikatoren 137 Eine weiter
- Seite 162 und 163:
B A A B C Abb. 9.8. Das Bucket-Voro
- Seite 164 und 165:
K1 p(x|2) x K2 max p(2) . p(x|n) Kn
- Seite 166 und 167:
9.1 Klassifikatoren 143 Hierbei ist
- Seite 168 und 169:
Dabei wird γtk geschätzt als γtk
- Seite 170 und 171:
9.3 Diskriminanzoptimierung 147 wob
- Seite 172 und 173:
9.3 Diskriminanzoptimierung 149 im
- Seite 174 und 175:
10. Erkennung statischer Sprachsign
- Seite 176 und 177:
10.1 Zeitsignalbasierte Erkennung 1
- Seite 178 und 179:
10.1 Zeitsignalbasierte Erkennung 1
- Seite 180 und 181:
F2 [Hz] 4000 2000 1000 500 0 ÁÁÁ
- Seite 182 und 183:
11. Erkennung dynamischer Sprachsig
- Seite 184 und 185:
11.1 Minimale Editierdistanz 161 Ab
- Seite 186 und 187:
11.2 Dynamisches Programmieren 163
- Seite 188 und 189:
11.2 Dynamisches Programmieren 165
- Seite 190 und 191:
11.2 Dynamisches Programmieren 167
- Seite 192 und 193:
11.3 Spracherkennung mittels Dynami
- Seite 194 und 195:
11.3 Spracherkennung mittels Dynami
- Seite 196 und 197:
Steigung 2 1/2 2 11.3 Spracherkennu
- Seite 198:
11.3 Spracherkennung mittels Dynami
- Seite 201 und 202:
178 12. Hidden Markov Modelle Wenn
- Seite 203 und 204:
180 12. Hidden Markov Modelle Mathe
- Seite 205 und 206:
182 12. Hidden Markov Modelle linea
- Seite 207 und 208:
184 12. Hidden Markov Modelle der E
- Seite 209 und 210:
186 12. Hidden Markov Modelle 12.3
- Seite 211 und 212:
188 12. Hidden Markov Modelle aus d
- Seite 213 und 214:
190 12. Hidden Markov Modelle αt
- Seite 215 und 216:
192 12. Hidden Markov Modelle Wiede
- Seite 217 und 218:
194 12. Hidden Markov Modelle zt(j
- Seite 219 und 220:
196 12. Hidden Markov Modelle γt(i
- Seite 221 und 222:
198 12. Hidden Markov Modelle Für
- Seite 223 und 224:
200 12. Hidden Markov Modelle 12.5.
- Seite 225 und 226:
202 12. Hidden Markov Modelle Bakis
- Seite 227 und 228:
204 12. Hidden Markov Modelle aller
- Seite 229 und 230:
206 13. Das Trainieren von Spracher
- Seite 231 und 232:
208 13. Das Trainieren von Spracher
- Seite 233 und 234:
210 13. Das Trainieren von Spracher
- Seite 235 und 236:
212 13. Das Trainieren von Spracher
- Seite 237 und 238:
214 13. Das Trainieren von Spracher
- Seite 239 und 240:
216 13. Das Trainieren von Spracher
- Seite 241 und 242:
218 13. Das Trainieren von Spracher
- Seite 243 und 244:
220 13. Das Trainieren von Spracher
- Seite 245 und 246:
222 13. Das Trainieren von Spracher
- Seite 247 und 248:
224 14. Das akustische Modell 14.2
- Seite 249 und 250:
226 14. Das akustische Modell Da be
- Seite 251 und 252:
228 14. Das akustische Modell Codeb
- Seite 253 und 254:
230 14. Das akustische Modell Der g
- Seite 255 und 256:
232 14. Das akustische Modell Signa
- Seite 257 und 258:
234 14. Das akustische Modell Σ Σ
- Seite 259 und 260:
236 14. Das akustische Modell 14.6
- Seite 261 und 262:
238 14. Das akustische Modell akust
- Seite 263 und 264:
240 14. Das akustische Modell mit V
- Seite 265 und 266:
242 14. Das akustische Modell schei
- Seite 267 und 268:
244 14. Das akustische Modell Verwe
- Seite 269 und 270:
246 14. Das akustische Modell letzt
- Seite 271 und 272:
248 15. Erkennung kontinuierlicher
- Seite 273 und 274:
250 15. Erkennung kontinuierlicher
- Seite 275 und 276:
252 15. Erkennung kontinuierlicher
- Seite 277 und 278:
254 15. Erkennung kontinuierlicher
- Seite 279 und 280:
256 15. Erkennung kontinuierlicher
- Seite 281 und 282:
258 15. Erkennung kontinuierlicher
- Seite 284 und 285:
16. Verwendung von Sprachmodellen I
- Seite 286 und 287:
16.2 Wahrscheinlichkeiten von Wortf
- Seite 288 und 289:
16.3 N-Gramme 265 also alle Histori
- Seite 290 und 291:
16.4 Perplexität 267 Qualität des
- Seite 292 und 293:
16.4 Perplexität 269 Gleichverteil
- Seite 294 und 295:
wi 0.8 0.03 0.17 ” ein“ ” und
- Seite 296 und 297:
16.5 Glättung und Interpolation 27
- Seite 298 und 299:
16.6 Verschiedene weitere Sprachmod
- Seite 300 und 301:
16.6 Verschiedene weitere Sprachmod
- Seite 302 und 303:
16.6 Verschiedene weitere Sprachmod
- Seite 304 und 305:
16.6 Verschiedene weitere Sprachmod
- Seite 306 und 307:
tf(w, Di) = #w in Di |Di| 16.7 Adap
- Seite 308 und 309:
16.7 Adaption von Sprachmodellen 28
- Seite 310 und 311:
16.7 Adaption von Sprachmodellen 28
- Seite 312 und 313:
17. Kontextabhängige akustische Mo
- Seite 314 und 315:
als die der Silben. 17.1 Suche nach
- Seite 316 und 317:
17.1 Suche nach der optimalen Sprac
- Seite 318 und 319:
100000 Wortfolge Modelle 17.1 Suche
- Seite 320 und 321:
17.2 Ballung von Kontexten 17.2 Bal
- Seite 322 und 323:
17.2 Ballung von Kontexten 299 mit
- Seite 324 und 325: 17.2 Ballung von Kontexten 301 Lee
- Seite 326 und 327: 17.2 Ballung von Kontexten 303 korr
- Seite 328 und 329: 17.2 Ballung von Kontexten 305 Ein
- Seite 330 und 331: Anzahl der Fragen ✻ 2000 17.2 Bal
- Seite 332 und 333: 17.2 Ballung von Kontexten 309 1. I
- Seite 334 und 335: 17.2.6 Einbindung von Modalitätenf
- Seite 336: 0000000 1111111 01 0000000 1111111
- Seite 339 und 340: 316 18. Effiziente Decodierverfahre
- Seite 341 und 342: 318 18. Effiziente Decodierverfahre
- Seite 343 und 344: 320 18. Effiziente Decodierverfahre
- Seite 345 und 346: 322 18. Effiziente Decodierverfahre
- Seite 347 und 348: 324 18. Effiziente Decodierverfahre
- Seite 349 und 350: 326 18. Effiziente Decodierverfahre
- Seite 352 und 353: 19. Parameterraumoptimierung Bei de
- Seite 354 und 355: 19.2 Parameterkopplung 331 der Einf
- Seite 356 und 357: 19.2 Parameterkopplung 333 Längenm
- Seite 358 und 359: 19.3 Architekturentwurf 335 Als Kri
- Seite 360 und 361: 19.4 Kompaktifizierung 337 bei der
- Seite 362 und 363: 19.4.2 Vereinfachung von Kovarianzt
- Seite 364 und 365: 19.4 Kompaktifizierung 341 die Gene
- Seite 366 und 367: Tabelle 19.1. Fehlerraten bei Kovar
- Seite 368 und 369: 20. Erkennung von Spezialvokabular
- Seite 370 und 371: 20.1 Buchstabiererkennung 347 Netze
- Seite 372 und 373: 20.2 Erkennung beliebiger Namen 349
- Seite 376 und 377: 21. Robustheit und Adaption Lange Z
- Seite 378 und 379: 50 45 40 35 30 25 20 15 10 5 0 21.1
- Seite 380 und 381: 21.3 Geräuschmodellierung 357 ein
- Seite 382 und 383: 21.4 Adaptionsziele 359 Geräusche
- Seite 384 und 385: auswirkt. In Gl. 21.2 wird eine Tra
- Seite 386 und 387: 21.5 Adaptionsmethoden 363 eine Fun
- Seite 388 und 389: 21.5 Adaptionsmethoden 365 auf die
- Seite 390 und 391: 21.5 Adaptionsmethoden 367 tion B1(
- Seite 392: 21.5 Adaptionsmethoden 369 trägt z
- Seite 395 und 396: 372 22. Künstliche Neuronale Netze
- Seite 397 und 398: 374 22. Künstliche Neuronale Netze
- Seite 399 und 400: 376 22. Künstliche Neuronale Netze
- Seite 401 und 402: 378 22. Künstliche Neuronale Netze
- Seite 403 und 404: 380 22. Künstliche Neuronale Netze
- Seite 405 und 406: 382 22. Künstliche Neuronale Netze
- Seite 407 und 408: 384 22. Künstliche Neuronale Netze
- Seite 409 und 410: 386 22. Künstliche Neuronale Netze
- Seite 412 und 413: 23. Verstehen von Sprache In den An
- Seite 414 und 415: Spracherkenner Wortfolge (Hypothese
- Seite 416 und 417: War die Äußerung eine Aussage, ei
- Seite 418 und 419: Syntaktischer Parser Semantischer P
- Seite 420 und 421: ... SEIN RASEN GRÜNT Verb Verb Ver
- Seite 422 und 423: 23.3 Parsing 399 weder durch exakte
- Seite 424 und 425:
24. Dialogsteuerung Ein Dialog hat
- Seite 426 und 427:
24.1 Einheiten der sprachlichen Kom
- Seite 428 und 429:
24.2 Sprechakte 405 enthalten sie I
- Seite 430 und 431:
24.4 Entwicklung von Dialogsystemen
- Seite 432 und 433:
24.4 Entwicklung von Dialogsystemen
- Seite 434:
24.4 Entwicklung von Dialogsystemen
- Seite 437 und 438:
414 25. Erkennung verschiedener Spr
- Seite 439 und 440:
416 25. Erkennung verschiedener Spr
- Seite 441 und 442:
418 25. Erkennung verschiedener Spr
- Seite 443 und 444:
420 26. Zusätzliche Modalitäten d
- Seite 445 und 446:
422 26. Zusätzliche Modalitäten 2
- Seite 447 und 448:
424 26. Zusätzliche Modalitäten E
- Seite 449 und 450:
426 26. Zusätzliche Modalitäten K
- Seite 451 und 452:
428 26. Zusätzliche Modalitäten 0
- Seite 454 und 455:
27. Entwicklung von Anwendungen In
- Seite 456 und 457:
27.1 Ein Erkenner für eine neue Au
- Seite 458 und 459:
27.1 Ein Erkenner für eine neue Au
- Seite 460 und 461:
27.1 Ein Erkenner für eine neue Au
- Seite 462 und 463:
27.3 Beispiel: Adressenerkennung 43
- Seite 464 und 465:
27.3 Beispiel: Adressenerkennung 44
- Seite 466 und 467:
28. Der moderne Vortragsraum Kommun
- Seite 468 und 469:
28.1 Die Rolle der Spracherkennung
- Seite 470 und 471:
28.1 Die Rolle der Spracherkennung
- Seite 472 und 473:
28.2 Verfolgen eines Laserpointers
- Seite 474 und 475:
E K oben Q K rechts K unten H horiz
- Seite 476 und 477:
28.2 Verfolgen eines Laserpointers
- Seite 478 und 479:
Lasers auswirken. 28.3 Erkennung sp
- Seite 480 und 481:
28.3 Erkennung spontaner Vortragssp
- Seite 482 und 483:
28.3 Erkennung spontaner Vortragssp
- Seite 484 und 485:
ausgehen, daß die Erkennung etwas
- Seite 486:
28.4 Das FAME Projekt 463 in sein N
- Seite 489 und 490:
466 Literaturverzeichnis [BMHW93a]
- Seite 491 und 492:
468 Literaturverzeichnis [FR97] M.
- Seite 493 und 494:
470 Literaturverzeichnis [Hil03] A.
- Seite 495 und 496:
472 Literaturverzeichnis [Kle00] M.
- Seite 497 und 498:
474 Literaturverzeichnis [Mai94] M.
- Seite 499 und 500:
476 Literaturverzeichnis [PGF + 95]
- Seite 501 und 502:
478 Literaturverzeichnis [SR97] K.
- Seite 503 und 504:
480 Literaturverzeichnis [WOVY94] P
- Seite 506 und 507:
Sachverzeichnis F0, 391 N-Gramme, 2
- Seite 508 und 509:
Eingabegeschwindigkeit, 2 Einzelkom
- Seite 510 und 511:
Liftering, 120 Likelihood Distanz,
- Seite 512 und 513:
Sprachdetektor, 152 Sprachenidentif