Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ... Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
34 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN exakten Werte überein. Insbesondere wird das oszillatorische Verhalten beider Größen richtig wiedergegeben. Für spätere Zeiten werden die Schätzer schlechter und liefern falsche Werte. In diesem Bereich ist aufgrund der schnelleren Oszillationen von c(i) das Mittelungsfenster zu groß, so dass hier Ergodizität auch nicht näherungsweise vorliegt. Um das richtige Verhalten zu rekonstruieren, muss daher die Fensterbreite reduziert werden, was aber wegen der hieraus hervorgehenden statistischen Fluktuationen nur bis zu einem bestimmten Grad möglich ist. Die geschätzten Werte von M(X i , Y i ) und M(Y i+1 , X i ) lieferten ähnliche Werte wie für M(X i+1 , Y i ). Des Weiteren wurde T (Y i+1 |Y i , X i ) für alle Zeit mit Null geschätzt, was mit dem Modell übereinstimmt. Zum Abschluss sei noch angemerkt, dass solch kurze Zeitreihen wie die hier verwendeten üblicherweise nur für diskrete Prozesse stabile Ergebnisse liefern. 3.2 Schätzer für diskrete Prozesse Werden die diskreten stochastischen Prozesse X und Y beobachtet, so müssen zunächst deren Verteilungen rekonstruiert werden, um Entropien und Informationen berechnen zu können. Angenommen, es liegen N Beobachtungen ω 1 , . . . , ω N ∈ Ω vor, dann können zum Beispiel die Wahrscheinlichkeiten P {X i = x i } aus den beobachteten Zuständen x i (n) ≡ X i (ω n ) geschätzt werden. Ein einfaches Verfahren besteht darin, die relative Häufigkeit, mit der der Zustand x i auftritt, zu ermitteln: ˆP {X i = x i } = 1 N N∑ δ(x i , x i (n)) . (3.3) n=1 Nach dem Gesetz der großen Zahlen (Satz von Etemadi) [Bauer (1991)] konvergiert (3.3) gegen P {X i = x i } für N → ∞, sofern die Beobachtungen identisch verteilt und paarweise unabhängig sind. Der entsprechende Schätzer für die endlich-dimensionalen Randverteilungen lautet ˆP {X (k) i = x (k) i } = 1 N N∑ k−1 ∏ δ(x i−j , x i−j (n)) . (3.4) n=1 j=0 Mit den in Gl. (3.3) bzw. (3.4) gegebenen Schätzern kann beispielsweise die bedingte Shannon-Entropie (2.15) berechnet werden, indem die Wahrscheinlichkeiten durch die entsprechenden Schätzer ersetzt werden. Hierzu ist zunächst die bedingte Wahrscheinlichkeit mit Gl. (2.13) auf Randverteilungen umzuschreiben. Um die Werte der Verteilungsschätzer aus der Zeitreihe zu erhalten sind lediglich Histogramme für jede benötigte Verteilung zu erstellen. Das Erstellen von Histogrammen für Markov-Prozesse mit großer Ordnung erweist sich in der Praxis oft aufgrund des beschänkten Computerspeichers als
3.2. SCHÄTZER FÜR DISKRETE PROZESSE 35 schwierig. Aus diesem Grund verwende ich eine alternative Herangehensweise, bei der die Verteilungen der beobachteten Zustände für jede Beobachtung erneut geschätzt werden. So kann der Erwartungswert einer beliebigen Funktion f genähert werden, indem über alle Beobachtungen gemittelt wird: Ê [f] = ∑ (k) ˆP {X i x (k) i ∈X k = x (k) i } · f(x (k) i ) = 1 N N∑ n=1 f(x (k) i (n)) . Für unabhängige Beobachtungen konvergiert, nach dem Gesetz der großen Zahlen, dieser Schätzer für große N gegen den Erwartungswert von f. Da es sich bei den Entropien und Informationen ebenfalls um die Berechnung von Erwartungswerten handelt, führt dies auf die folgenden Schätzern für Shannon-Entropie, gegenseitige Information, bedingte Shannon-Entropie und Transferentropie: und Ĥ(X i ) = − 1 N ˆM(X i , Y j ) = 1 N Ĥ(X i+1 |X (k) i ) = − 1 N N∑ log ˆP {X i = x i (n)} , (3.5) n=1 N∑ log n=1 N∑ n=1 ˆP {X i = x i (n), Y j = y j (n)} ˆP {X i = x i (n)} · ˆP {Y j = y j (n)} , (3.6) log ˆP {X (k+1) i+1 = x (k+1) i+1 (n)} ˆP {X (k) i = x (k) i (n)} , (3.7) ˆT (X i+1 |X (k) i , Y (l) j ) = 1 N N∑ log n=1 ˆP {X (k+1) i+1 = x (k+1) i+1 (n), Y (l) j ˆP {X (k) i = x (k) i (n), Y (l) j = y (l) j (n)} · ˆP {X (k) i = x (k) i (n)} = y (l) j (n)} · ˆP {X (k+1) i+1 = x (k+1) i+1 (n)} . (3.8) Für unabhängige Beobachtungen konvergieren diese Schätzer für große N gegen die entsprechenden Entropien und Informationen. Üblicherweise stehen nur endlich viele Beobachtungen zur Verfügung, weshalb die geschätzten Werte fluktuieren. So hat die gegenseitige Information bei endlichen Datenmengen einen positiven Bias, da sie nur nichtnegative Werte besitzt. Für die Shannon-Entropie und für die gegenseitige Information sind diesbezüglich Korrekturen entwickelt worden, beispielsweise in [Grassberger (1985), Grassberger (1988), Moddemeijer (1999), Panzeri & Treves (1996), Roulston (1997)]. Des Weiteren kann unter gewissen Annahmen der statistische Fehler berechnet werden [Panzeri & Treves (1996), Roulston (1997), Roulston (1999)]. Diese Annahmen beinhalten, dass der Bias und die Varianz des Fehlers der einzelnen Entropien in Gl. (2.10) und Gl. (2.27)
- Seite 1: Nichtlineare Methoden zur Quantifiz
- Seite 5 und 6: Inhaltsverzeichnis 1 Einleitung 1 2
- Seite 7 und 8: Kapitel 1 Einleitung Zum Verständn
- Seite 9 und 10: Sobald kontinuierliche Prozesse bet
- Seite 11 und 12: Kapitel 2 Grundlagen der Informatio
- Seite 13 und 14: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 15 und 16: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 17 und 18: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 19 und 20: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 21 und 22: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 23 und 24: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 25 und 26: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 27 und 28: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 29 und 30: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 31 und 32: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 33 und 34: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 35 und 36: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 37 und 38: Kapitel 3 Schätzen von Entropien u
- Seite 39: 3.1. SCHÄTZEN BEI EINER UND MEHRER
- Seite 43 und 44: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 45 und 46: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 47 und 48: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 49 und 50: 3.4. PARAMETRISCHE VERTEILUNGEN 43
- Seite 51 und 52: 3.5. KONTINUIERLICHES BEISPIEL: AR(
- Seite 53 und 54: 3.6. KERNSCHÄTZER FÜR DICHTEN 47
- Seite 55 und 56: 3.6. KERNSCHÄTZER FÜR DICHTEN 49
- Seite 57 und 58: 3.6. KERNSCHÄTZER FÜR DICHTEN 51
- Seite 59 und 60: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 61 und 62: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 63 und 64: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 65 und 66: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 67 und 68: Kapitel 4 Exkurs: Dynamische System
- Seite 69 und 70: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 71 und 72: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 73 und 74: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 75 und 76: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 77 und 78: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 79 und 80: Kapitel 5 Punktprozesse 5.1 Definit
- Seite 81 und 82: 5.1. DEFINITION EINES PUNKTPROZESSE
- Seite 83 und 84: 5.2. MOMENTE UND EREIGNISRATEN 77 2
- Seite 85 und 86: 5.3. GEKOPPELTE PUNKTPROZESSE 79 Be
- Seite 87 und 88: 5.3. GEKOPPELTE PUNKTPROZESSE 81 f
- Seite 89 und 90: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
3.2. SCHÄTZER FÜR DISKRETE PROZESSE 35<br />
schwierig. Aus diesem Gr<strong>und</strong> verwende ich eine alternative Herangehensweise,<br />
bei der die Verteilungen der beobachteten Zustände für jede Beobachtung erneut<br />
geschätzt werden. So kann der Erwartungswert einer beliebigen Funktion f<br />
genähert werden, indem über alle Beobachtungen gemittelt wird:<br />
Ê [f] =<br />
∑ (k) ˆP {X i<br />
x (k)<br />
i ∈X k<br />
= x (k)<br />
i<br />
} · f(x (k)<br />
i ) = 1 N<br />
N∑<br />
n=1<br />
f(x (k)<br />
i (n)) .<br />
Für unabhängige Beobachtungen konvergiert, nach dem Gesetz der großen Zahlen,<br />
dieser Schätzer für große N gegen den Erwartungswert <strong>von</strong> f.<br />
Da es sich bei den Entropien <strong>und</strong> Informationen ebenfalls um die Berechnung<br />
<strong>von</strong> Erwartungswerten handelt, führt dies auf die folgenden Schätzern<br />
für Shannon-Entropie, gegenseitige Information, bedingte Shannon-Entropie <strong>und</strong><br />
Transferentropie:<br />
<strong>und</strong><br />
Ĥ(X i ) = − 1 N<br />
ˆM(X i , Y j ) =<br />
1<br />
N<br />
Ĥ(X i+1 |X (k)<br />
i ) = − 1 N<br />
N∑<br />
log ˆP {X i = x i (n)} , (3.5)<br />
n=1<br />
N∑<br />
log<br />
n=1<br />
N∑<br />
n=1<br />
ˆP {X i = x i (n), Y j = y j (n)}<br />
ˆP {X i = x i (n)} · ˆP {Y j = y j (n)} , (3.6)<br />
log ˆP {X (k+1)<br />
i+1 = x (k+1)<br />
i+1 (n)}<br />
ˆP {X (k)<br />
i<br />
= x (k)<br />
i (n)}<br />
, (3.7)<br />
ˆT (X i+1 |X (k)<br />
i , Y (l)<br />
j )<br />
= 1 N<br />
N∑<br />
log<br />
n=1<br />
ˆP {X (k+1)<br />
i+1 = x (k+1)<br />
i+1 (n), Y (l)<br />
j<br />
ˆP {X (k)<br />
i<br />
= x (k)<br />
i (n), Y (l)<br />
j<br />
= y (l)<br />
j (n)} · ˆP {X (k)<br />
i<br />
= x (k)<br />
i (n)}<br />
= y (l)<br />
j (n)} · ˆP {X (k+1)<br />
i+1 = x (k+1)<br />
i+1 (n)} . (3.8)<br />
Für unabhängige Beobachtungen konvergieren diese Schätzer für große N gegen<br />
die entsprechenden Entropien <strong>und</strong> Informationen.<br />
Üblicherweise stehen nur endlich viele Beobachtungen <strong>zur</strong> Verfügung, weshalb<br />
die geschätzten Werte fluktuieren. So hat die gegenseitige Information<br />
bei endlichen Datenmengen einen positiven Bias, da sie nur nichtnegative<br />
Werte besitzt. Für die Shannon-Entropie <strong>und</strong> für die gegenseitige<br />
Information sind diesbezüglich Korrekturen entwickelt worden, beispielsweise<br />
in [Grassberger (1985), Grassberger (1988), Moddemeijer (1999),<br />
Panzeri & Treves (1996), Roulston (1997)]. Des Weiteren kann unter gewissen<br />
Annahmen der statistische Fehler berechnet werden [Panzeri & Treves (1996),<br />
Roulston (1997), Roulston (1999)]. Diese Annahmen beinhalten, dass der Bias<br />
<strong>und</strong> die Varianz des Fehlers der einzelnen Entropien in Gl. (2.10) <strong>und</strong> Gl. (2.27)