Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ... Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
30 KAPITEL 2. GRUNDLAGEN DER INFORMATIONSTHEORIE
Kapitel 3 Schätzen von Entropien und Informationen 3.1 Schätzen bei einer und mehreren Beobachtungen In der Realität können Experimente nur endlich oft wiederholt werden. Des Weiteren ist die Zeitauflösung nach unten hin beschränkt. Möchte man die Transferentropie eines stochastischen Prozesses berechnen, so muss zunächst dessen Verteilung bzw. dessen Verteilungsdichte aus den N Zuständen x i (n) = X i (ω n ), n = 1, . . . , N, die in jedem der diskreten Zeitpunkte i = 1, . . . , T beobachtet wurden, geschätzt werden. Durch die Elemente ω n ∈ Ω, n = 1, . . . , N des Ereignisraums Ω sind die Realisierungen i → X i (ω n ), also die jeweiligen Wiederholungen des Experiments gegeben. Die grundlegende Idee, mit der die Verteilung P X(k) i aus den beobachteten Zuständen x (k) i (1), . . . , x (k) i (N) geschätzt wird, ist folgende: Zunächst wird jeder beobachtete Zustand x (k) i (n) = X (k) i (ω n ) mit einer messbaren Funktion ψ B auf eine nichtnegative Zahl abgebildet, x (k) i (n) → ψ B (x (k) i (n)). Dabei soll der Erwartungswert von ψ B für jede Ereignismenge B gleich der Wahrscheinlichkeit sein, mit der X (k) i in B zu finden ist: ∫ E [ψ B ] = ψ B (x (k) i ) P X(k) i (x (k) i ) = P X(k) i (B) . Sind die Beobachtungen ω 1 , . . . , ω N voneinander unabhängig und gleich verteilt, dann konvergiert ψ B nach dem Gesetz der großen Zahlen, siehe [Bauer (1991), Billingsley (1995)], gemittelt über alle Beobachtungen, gegen P X(k) i (B), 1 N N∑ n=1 ψ B (x (k) i (n)) −−−→ N→∞ P X(k) i (B) . 31
- Seite 1: Nichtlineare Methoden zur Quantifiz
- Seite 5 und 6: Inhaltsverzeichnis 1 Einleitung 1 2
- Seite 7 und 8: Kapitel 1 Einleitung Zum Verständn
- Seite 9 und 10: Sobald kontinuierliche Prozesse bet
- Seite 11 und 12: Kapitel 2 Grundlagen der Informatio
- Seite 13 und 14: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 15 und 16: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 17 und 18: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 19 und 20: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 21 und 22: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 23 und 24: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 25 und 26: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 27 und 28: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 29 und 30: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 31 und 32: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 33 und 34: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 35: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 39 und 40: 3.1. SCHÄTZEN BEI EINER UND MEHRER
- Seite 41 und 42: 3.2. SCHÄTZER FÜR DISKRETE PROZES
- Seite 43 und 44: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 45 und 46: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 47 und 48: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 49 und 50: 3.4. PARAMETRISCHE VERTEILUNGEN 43
- Seite 51 und 52: 3.5. KONTINUIERLICHES BEISPIEL: AR(
- Seite 53 und 54: 3.6. KERNSCHÄTZER FÜR DICHTEN 47
- Seite 55 und 56: 3.6. KERNSCHÄTZER FÜR DICHTEN 49
- Seite 57 und 58: 3.6. KERNSCHÄTZER FÜR DICHTEN 51
- Seite 59 und 60: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 61 und 62: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 63 und 64: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 65 und 66: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 67 und 68: Kapitel 4 Exkurs: Dynamische System
- Seite 69 und 70: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 71 und 72: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 73 und 74: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 75 und 76: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 77 und 78: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 79 und 80: Kapitel 5 Punktprozesse 5.1 Definit
- Seite 81 und 82: 5.1. DEFINITION EINES PUNKTPROZESSE
- Seite 83 und 84: 5.2. MOMENTE UND EREIGNISRATEN 77 2
- Seite 85 und 86: 5.3. GEKOPPELTE PUNKTPROZESSE 79 Be
Kapitel 3<br />
Schätzen <strong>von</strong> Entropien <strong>und</strong><br />
Informationen<br />
3.1 Schätzen bei einer <strong>und</strong> mehreren<br />
Beobachtungen<br />
In der Realität können Experimente nur endlich oft wiederholt werden. Des Weiteren<br />
ist die Zeitauflösung nach unten hin beschränkt. Möchte man die Transferentropie<br />
eines stochastischen Prozesses berechnen, so muss zunächst dessen<br />
Verteilung bzw. dessen Verteilungsdichte aus den N Zuständen x i (n) = X i (ω n ),<br />
n = 1, . . . , N, die in jedem der diskreten Zeitpunkte i = 1, . . . , T beobachtet wurden,<br />
geschätzt werden. Durch die Elemente ω n ∈ Ω, n = 1, . . . , N des Ereignisraums<br />
Ω sind die Realisierungen i → X i (ω n ), also die jeweiligen Wiederholungen<br />
des Experiments gegeben.<br />
Die gr<strong>und</strong>legende Idee, mit der die Verteilung P X(k) i aus den beobachteten<br />
Zuständen x (k)<br />
i (1), . . . , x (k)<br />
i (N) geschätzt wird, ist folgende: Zunächst wird jeder<br />
beobachtete Zustand x (k)<br />
i (n) = X (k)<br />
i (ω n ) mit einer messbaren Funktion ψ B auf<br />
eine nichtnegative Zahl abgebildet, x (k)<br />
i (n) → ψ B (x (k)<br />
i (n)). Dabei soll der Erwartungswert<br />
<strong>von</strong> ψ B für jede Ereignismenge B gleich der Wahrscheinlichkeit sein,<br />
mit der X (k)<br />
i in B zu finden ist:<br />
∫<br />
E [ψ B ] = ψ B (x (k)<br />
i ) P X(k) i (x (k)<br />
i ) = P X(k) i (B) .<br />
Sind die Beobachtungen ω 1 , . . . , ω N <strong>von</strong>einander unabhängig <strong>und</strong> gleich verteilt,<br />
dann konvergiert ψ B nach dem Gesetz der großen Zahlen, siehe [Bauer (1991),<br />
Billingsley (1995)], gemittelt über alle Beobachtungen, gegen P X(k) i (B),<br />
1<br />
N<br />
N∑<br />
n=1<br />
ψ B (x (k)<br />
i (n)) −−−→ N→∞<br />
P X(k) i (B) .<br />
31