Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ... Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

elpub.bib.uni.wuppertal.de
von elpub.bib.uni.wuppertal.de Mehr von diesem Publisher
25.12.2013 Aufrufe

34 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN exakten Werte überein. Insbesondere wird das oszillatorische Verhalten beider Größen richtig wiedergegeben. Für spätere Zeiten werden die Schätzer schlechter und liefern falsche Werte. In diesem Bereich ist aufgrund der schnelleren Oszillationen von c(i) das Mittelungsfenster zu groß, so dass hier Ergodizität auch nicht näherungsweise vorliegt. Um das richtige Verhalten zu rekonstruieren, muss daher die Fensterbreite reduziert werden, was aber wegen der hieraus hervorgehenden statistischen Fluktuationen nur bis zu einem bestimmten Grad möglich ist. Die geschätzten Werte von M(X i , Y i ) und M(Y i+1 , X i ) lieferten ähnliche Werte wie für M(X i+1 , Y i ). Des Weiteren wurde T (Y i+1 |Y i , X i ) für alle Zeit mit Null geschätzt, was mit dem Modell übereinstimmt. Zum Abschluss sei noch angemerkt, dass solch kurze Zeitreihen wie die hier verwendeten üblicherweise nur für diskrete Prozesse stabile Ergebnisse liefern. 3.2 Schätzer für diskrete Prozesse Werden die diskreten stochastischen Prozesse X und Y beobachtet, so müssen zunächst deren Verteilungen rekonstruiert werden, um Entropien und Informationen berechnen zu können. Angenommen, es liegen N Beobachtungen ω 1 , . . . , ω N ∈ Ω vor, dann können zum Beispiel die Wahrscheinlichkeiten P {X i = x i } aus den beobachteten Zuständen x i (n) ≡ X i (ω n ) geschätzt werden. Ein einfaches Verfahren besteht darin, die relative Häufigkeit, mit der der Zustand x i auftritt, zu ermitteln: ˆP {X i = x i } = 1 N N∑ δ(x i , x i (n)) . (3.3) n=1 Nach dem Gesetz der großen Zahlen (Satz von Etemadi) [Bauer (1991)] konvergiert (3.3) gegen P {X i = x i } für N → ∞, sofern die Beobachtungen identisch verteilt und paarweise unabhängig sind. Der entsprechende Schätzer für die endlich-dimensionalen Randverteilungen lautet ˆP {X (k) i = x (k) i } = 1 N N∑ k−1 ∏ δ(x i−j , x i−j (n)) . (3.4) n=1 j=0 Mit den in Gl. (3.3) bzw. (3.4) gegebenen Schätzern kann beispielsweise die bedingte Shannon-Entropie (2.15) berechnet werden, indem die Wahrscheinlichkeiten durch die entsprechenden Schätzer ersetzt werden. Hierzu ist zunächst die bedingte Wahrscheinlichkeit mit Gl. (2.13) auf Randverteilungen umzuschreiben. Um die Werte der Verteilungsschätzer aus der Zeitreihe zu erhalten sind lediglich Histogramme für jede benötigte Verteilung zu erstellen. Das Erstellen von Histogrammen für Markov-Prozesse mit großer Ordnung erweist sich in der Praxis oft aufgrund des beschänkten Computerspeichers als

3.2. SCHÄTZER FÜR DISKRETE PROZESSE 35 schwierig. Aus diesem Grund verwende ich eine alternative Herangehensweise, bei der die Verteilungen der beobachteten Zustände für jede Beobachtung erneut geschätzt werden. So kann der Erwartungswert einer beliebigen Funktion f genähert werden, indem über alle Beobachtungen gemittelt wird: Ê [f] = ∑ (k) ˆP {X i x (k) i ∈X k = x (k) i } · f(x (k) i ) = 1 N N∑ n=1 f(x (k) i (n)) . Für unabhängige Beobachtungen konvergiert, nach dem Gesetz der großen Zahlen, dieser Schätzer für große N gegen den Erwartungswert von f. Da es sich bei den Entropien und Informationen ebenfalls um die Berechnung von Erwartungswerten handelt, führt dies auf die folgenden Schätzern für Shannon-Entropie, gegenseitige Information, bedingte Shannon-Entropie und Transferentropie: und Ĥ(X i ) = − 1 N ˆM(X i , Y j ) = 1 N Ĥ(X i+1 |X (k) i ) = − 1 N N∑ log ˆP {X i = x i (n)} , (3.5) n=1 N∑ log n=1 N∑ n=1 ˆP {X i = x i (n), Y j = y j (n)} ˆP {X i = x i (n)} · ˆP {Y j = y j (n)} , (3.6) log ˆP {X (k+1) i+1 = x (k+1) i+1 (n)} ˆP {X (k) i = x (k) i (n)} , (3.7) ˆT (X i+1 |X (k) i , Y (l) j ) = 1 N N∑ log n=1 ˆP {X (k+1) i+1 = x (k+1) i+1 (n), Y (l) j ˆP {X (k) i = x (k) i (n), Y (l) j = y (l) j (n)} · ˆP {X (k) i = x (k) i (n)} = y (l) j (n)} · ˆP {X (k+1) i+1 = x (k+1) i+1 (n)} . (3.8) Für unabhängige Beobachtungen konvergieren diese Schätzer für große N gegen die entsprechenden Entropien und Informationen. Üblicherweise stehen nur endlich viele Beobachtungen zur Verfügung, weshalb die geschätzten Werte fluktuieren. So hat die gegenseitige Information bei endlichen Datenmengen einen positiven Bias, da sie nur nichtnegative Werte besitzt. Für die Shannon-Entropie und für die gegenseitige Information sind diesbezüglich Korrekturen entwickelt worden, beispielsweise in [Grassberger (1985), Grassberger (1988), Moddemeijer (1999), Panzeri & Treves (1996), Roulston (1997)]. Des Weiteren kann unter gewissen Annahmen der statistische Fehler berechnet werden [Panzeri & Treves (1996), Roulston (1997), Roulston (1999)]. Diese Annahmen beinhalten, dass der Bias und die Varianz des Fehlers der einzelnen Entropien in Gl. (2.10) und Gl. (2.27)

3.2. SCHÄTZER FÜR DISKRETE PROZESSE 35<br />

schwierig. Aus diesem Gr<strong>und</strong> verwende ich eine alternative Herangehensweise,<br />

bei der die Verteilungen der beobachteten Zustände für jede Beobachtung erneut<br />

geschätzt werden. So kann der Erwartungswert einer beliebigen Funktion f<br />

genähert werden, indem über alle Beobachtungen gemittelt wird:<br />

Ê [f] =<br />

∑ (k) ˆP {X i<br />

x (k)<br />

i ∈X k<br />

= x (k)<br />

i<br />

} · f(x (k)<br />

i ) = 1 N<br />

N∑<br />

n=1<br />

f(x (k)<br />

i (n)) .<br />

Für unabhängige Beobachtungen konvergiert, nach dem Gesetz der großen Zahlen,<br />

dieser Schätzer für große N gegen den Erwartungswert <strong>von</strong> f.<br />

Da es sich bei den Entropien <strong>und</strong> Informationen ebenfalls um die Berechnung<br />

<strong>von</strong> Erwartungswerten handelt, führt dies auf die folgenden Schätzern<br />

für Shannon-Entropie, gegenseitige Information, bedingte Shannon-Entropie <strong>und</strong><br />

Transferentropie:<br />

<strong>und</strong><br />

Ĥ(X i ) = − 1 N<br />

ˆM(X i , Y j ) =<br />

1<br />

N<br />

Ĥ(X i+1 |X (k)<br />

i ) = − 1 N<br />

N∑<br />

log ˆP {X i = x i (n)} , (3.5)<br />

n=1<br />

N∑<br />

log<br />

n=1<br />

N∑<br />

n=1<br />

ˆP {X i = x i (n), Y j = y j (n)}<br />

ˆP {X i = x i (n)} · ˆP {Y j = y j (n)} , (3.6)<br />

log ˆP {X (k+1)<br />

i+1 = x (k+1)<br />

i+1 (n)}<br />

ˆP {X (k)<br />

i<br />

= x (k)<br />

i (n)}<br />

, (3.7)<br />

ˆT (X i+1 |X (k)<br />

i , Y (l)<br />

j )<br />

= 1 N<br />

N∑<br />

log<br />

n=1<br />

ˆP {X (k+1)<br />

i+1 = x (k+1)<br />

i+1 (n), Y (l)<br />

j<br />

ˆP {X (k)<br />

i<br />

= x (k)<br />

i (n), Y (l)<br />

j<br />

= y (l)<br />

j (n)} · ˆP {X (k)<br />

i<br />

= x (k)<br />

i (n)}<br />

= y (l)<br />

j (n)} · ˆP {X (k+1)<br />

i+1 = x (k+1)<br />

i+1 (n)} . (3.8)<br />

Für unabhängige Beobachtungen konvergieren diese Schätzer für große N gegen<br />

die entsprechenden Entropien <strong>und</strong> Informationen.<br />

Üblicherweise stehen nur endlich viele Beobachtungen <strong>zur</strong> Verfügung, weshalb<br />

die geschätzten Werte fluktuieren. So hat die gegenseitige Information<br />

bei endlichen Datenmengen einen positiven Bias, da sie nur nichtnegative<br />

Werte besitzt. Für die Shannon-Entropie <strong>und</strong> für die gegenseitige<br />

Information sind diesbezüglich Korrekturen entwickelt worden, beispielsweise<br />

in [Grassberger (1985), Grassberger (1988), Moddemeijer (1999),<br />

Panzeri & Treves (1996), Roulston (1997)]. Des Weiteren kann unter gewissen<br />

Annahmen der statistische Fehler berechnet werden [Panzeri & Treves (1996),<br />

Roulston (1997), Roulston (1999)]. Diese Annahmen beinhalten, dass der Bias<br />

<strong>und</strong> die Varianz des Fehlers der einzelnen Entropien in Gl. (2.10) <strong>und</strong> Gl. (2.27)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!