25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

32 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN<br />

Mit dieser Methode kann auch die Dichte g (k) X<br />

aus den Beobachtungen geschätzt<br />

i<br />

werden. Hierfür muss ψ x für fast jedes x ∈ R d k die Gleichung E [ψ x ] = g (k) X<br />

(x)<br />

i<br />

erfüllten. Folglich kann die zeitliche Entwicklung <strong>von</strong> Shannon-Entropie, gegenseitiger<br />

Information oder Transferentropie studiert werden, sofern eine ausreichende<br />

Anzahl <strong>von</strong> Beobachtungen vorliegt.<br />

Ist andererseits nur eine Realisierung X i (ω 0 ) gegeben, so ist es unmöglich ohne<br />

weitere Annahmen über den Prozess die Verteilungen <strong>von</strong> X zu schätzen. Falls<br />

der Prozess stationär ist, das heißt es gilt<br />

P X(k) i<br />

= P X(k) i+τ ∀τ ∈ Z , (3.1)<br />

kann die in der Zeit verschobene Realisierung i → X i+τ (ω 0 ) als eine weitere Realisierung<br />

<strong>von</strong> X betrachtet werden, X i (ω τ ) = X i+τ (ω 0 ). Weil diese Realisierungen<br />

aber nicht unabhängig <strong>von</strong>einander sind, kann das oben beschriebene Verfahren<br />

zum Schätzen der Verteilungen oder Dichten nicht angewendet werden. Stattdessen<br />

ist eine sehr viel stärkere Eigenschaft als die Stationarität zu fordern, nämlich<br />

die Ergodizität [Billingsley (1965), Walters (1981), Pollicott & Yuri (1998),<br />

Eckmann & Ruelle (1985), Katok & Hasselblatt (1995)]. Die wesentlichste Eigenschaft<br />

ergodischer Prozesse ist, dass der Erwartungswert einer beliebigen integrierbaren<br />

Funktion f bezüglich der Verteilung P (X(k) i des Prozesses berechnet<br />

werden kann, indem über die Zeit gemittelt wird:<br />

1<br />

lim<br />

T →∞ T<br />

T∑<br />

i=1<br />

∫<br />

f(X (k)<br />

i (ω 0 )) =<br />

∫<br />

f(x (k)<br />

1 ) P X(k) (k)<br />

1 (dx 1 ) =<br />

f(X (k)<br />

1 (ω)) P (dω) . (3.2)<br />

Beispielsweise lässt sich die Wahrscheinlichkeit P {X (k)<br />

1 ∈ B} aus Gl. (3.2) berechnen,<br />

indem f gleich der Indikatorfunktion 1 B gesetzt wird. Diese ist definiert<br />

durch 1 B (x) = 1 falls x ∈ B <strong>und</strong> 0 sonst. Da eine Voraussetzung für Ergodizität<br />

die Stationarität ist, folgt, dass die Entropien <strong>und</strong> Informationen zeitlich konstant<br />

sind <strong>und</strong> lediglich <strong>von</strong> Zeitdifferenzen wie i − j abhängen.<br />

Liegt nur eine Realisierung vor <strong>und</strong> ist der beobachtete Prozess nicht ergodisch,<br />

so können die Verteilungen nicht geschätzt werden. Resultiert aber dieses<br />

nichtergodische Verhalten beispielsweise aus einem sich langsam veränderlichen<br />

Parameter im System, so kann häufig der Prozess innerhalb eines kleines Zeitfensters<br />

als “lokal” ergodisch angenommen werden. Eine notwendige Voraussetzung<br />

hierfür ist, dass P X(k) i<br />

sich nur langsam ändert: P X(k) i<br />

≈ P X(k) i<br />

+τ für kleine τ. In<br />

diesem Fall können Mittelungen innerhalb eines Zeitfensters um i trotz statistischer<br />

Fehler noch aussagekräftige Werte für beispielsweise gegenseitige Information<br />

oder Transferentropie liefern.<br />

Dies soll an dem in Absch. 2.1.3 vorgestellten Beispiel eines gekoppelten diskreten<br />

Prozesses demonstriert werden. Zu diesem Zweck wird ein zeitabhängiger

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!