Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ... Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

elpub.bib.uni.wuppertal.de
von elpub.bib.uni.wuppertal.de Mehr von diesem Publisher
25.12.2013 Aufrufe

104 KAPITEL 5. PUNKTPROZESSE Kreuz-Intervalle E (i) k für irgendeine Intervallordnung i ∈ Z nicht stochastisch unabhängig voneinander sind, das heißt wenn die gemeinsame Verteilung sich nicht als Produktverteilung schreiben lässt. Dementsprechend wird die Abhängigkeit von X und Y dadurch nachgewiesen, dass eine signifikante Abweichung von P D k+1,E (i) k = P D k+1 ⊗ P E(i) k , i = 0, ±1, ±2, . . . (5.36) gesucht wird. Hierzu kann die gegenseitige Information M(D k+1 , E (i) k ) zwischen den Intervallen berechnet werden. Da es sich bei D k+1 und E (i) k um reellwertige Zufallsvariablen handelt, erweist sich die Berechnung von M(D k+1 , E (i) k ) oft als problematisch, vor allem wenn nur wenige Daten gegeben sind. Diese Schwierigkeit kann mittels Diskretisierung überwunden werden. Sind D k+1 und E (i) k voneinander unabhängig, dann sind auch die aus ihnen hervorgehenden diskretisierten Zufallsvariablen ˜D k+1 und Ẽ(i) k unabhängig. Des Weiteren wurde in Absch. 3.3, Gl. (3.16) gezeigt, dass die gegenseitige Information jeder Vergröberung von stochastischen Prozessen eine untere Schranke für die gegenseitige Information der kontinuierlichen Prozesse ist, das heißt M( ˜D k+1 , Ẽ(i) k ) ≤ M(D k+1, E (i) k ) . Ist somit für eine Vergröberung der Intervallprozesse die gemeinsame Information positiv, so hängen beide Punktprozesse voneinander ab. Demzufolge bietet sich folgender Algorithmus zum Nachweis von Abhängigkeiten zwischen Punktprozessen an: Zuerst wird der Zustandsraum von D k+1 in Intervalle mit Länge ∆ D unterteilt, wobei als Partitionierungsursprung ein beliebiges ˜d ∈ R + gewählt wird. Analog wird der Zustandsraum von E (i) k partitioniert, wobei eine Intervalllänge ∆ E und der Ursprung ẽ verwendet werden. Die diskreten Zufallsvariablen, die aus dieser Partitionierung resultieren, lauten ˜D k+1 ( ˜d, ∆ D ) = u , falls ˜d + u ∆D ≤ D k+1 < ˜d + (u + 1) ∆ D , Ẽ (i) k (ẽ, ∆ E) = v , falls ẽ + v ∆ E ≤ E (i) k < ẽ + (v + 1) ∆ E . Als Nächstes wird die gegenseitige Information M( ˜D k+1 ( ˜d, ∆ D ), Ẽ(i) k (ẽ, ∆ E)) zwischen D k+1 ( ˜d, ∆ D ) und E (i) k (ẽ, ∆ E) berechnet. Um mehr als nur eine Vergröberung zu betrachten, wird der Partitionsprozess mehrfach wiederholt, indem die Ursprünge ˜d und ẽ bei unveränderten ∆ D und ∆ E verschoben werden. Bezüglich jeder dieser Partitionen wird die gegenseitige Information berechnet und anschließend das Supremum genommen, B ∆D ,∆ E ( ˜D k+1 , Ẽ(i) k ) = sup M( ˜D k+1 ( ˜d, ∆ D ), Ẽ(i) 0≤ ˜d

5.6. ABHÄNGIGKEITSNACHWEIS ÜBER EREIGNISINTERVALLE 105 Auch B ∆D ,∆ E ( ˜D k+1 , Ẽ(i) k ) stellt eine untere Grenze für die gegenseitige Information von D k+1 und E (i) k dar, das heißt B ∆D ,∆ E ( ˜D k+1 , Ẽ(i) k ) ≤ M(D k+1, E (i) k ) . Folglich kann aus B ∆D ,∆ E ( ˜D k+1 , Ẽ(i) k ) > 0 geschlossen werden, dass die Punktprozesse X und Y voneinander abhängen. Dieses Verfahren kann auch zur Analyse von Punktprozessen verwendet werden, wenn nur ein Experiment beobachtet wurde, sofern angenommen werden kann, dass die zugrunde liegende Dynamik der Prozesse sowie die Kopplung zeitunabhängig sind. In diesem Fall sind D k+1 bzw. E (i) k , k = 0, 1, 2, . . ., i = 0, ±1, ±2, . . . stationär verteilt. Auch wenn bei dieser Methode D k+1 und E (i) k mittels ∆ D bzw. ∆ E diskretisiert werden, ist diese Diskretisierung nicht mit der Zeitdiskretisierung der zuvor besprochenden Methoden zu verwechseln. Insbesondere werden bei der Betrachtung von Zuwächsen häufig mehrere Ereignisse als Ereignisgruppe zusammengefasst. Hier sind ∆ D und ∆ E Parameter, die die Empfindlichkeit des Tests auf Abhängigkeit bestimmen. Je kleiner diese Intervalllängen gewählt werden, desto besser approximiert B ∆D ,∆ E ( ˜D k+1 , Ẽ(i) k ) die gegenseitige Information M(D k+1 , E (i) k ) asymptotisch, die der eigentliche Gegenstand der Untersuchung ist. Aufgrund von endlichen Beobachtungen kann ∆ D und ∆ E nicht beliebig klein gewählt werden, stattdessen tritt der “Finite sample”-Effekt deutlicher in den Vordergrund. In verschiedenen Untersuchungen hat sich herausgestellt, dass diese Intervalllängen auch nicht beliebig klein gewählt werden müssen, sondern dass eine binäre Partitionierung ausreichend ist, um Abhängigkeiten zu detektieren, das heißt ∆ D = ∆ E = ∆, wobei ∆ die Länge des größten betrachteten Intervalls ist (Maximaler Durchmesser des Zustandsraums). Selbst wenn der Test stets B ∆D ,∆ E ( ˜D k+1 , Ẽ(i) k ) ≈ 0 für alle i = 0, ±1, ±2, . . . liefert, kann trotzdem nicht auf Unabhängigkeit geschlossen werden. So ist es auch möglich, dass der Test nicht in der Lage ist, eine Abhängigkeit zu erkennen. In diesem Fall sollten ∆ D und ∆ E verkleinert werden. Des Weiteren ist es empfehlenswert, die Ereigniszeiten von X und Y für die Festlegung der Ereignisintervalle in Gl. (5.33) und Gl. (5.34) miteinander zu vertauschen, was zu einem anderen, gleichwertigen Satz von Ereignisintervallen führt. Beispiel: Gekoppelte Hindmarsh-Rose-Oszillatoren. Zum Abschluss soll dieses Verfahren zur Illustration auf die gekoppelten Hindmarsh-Rose- Oszillatoren, die im Absch. 5.4.1 eingeführt wurden, angewendet werden. Das Supremum B ∆,∆ ( ˜D k+1 , Ẽ(i) k ) der gegenseitigen Informationen bezüglich der binär diskretisierten Ereignisintervalle D k+1 und E (i) k ist als Funktion der Intervallordnung i in Abb. 5.19 für verschiedene Kopplungsstärken g dargestellt. ∆ ist hier der Durchmesser des Zustandsraums von ( ˜D k+1 , Ẽ(i) k ). Wie Abb. 5.19 zu

5.6. ABHÄNGIGKEITSNACHWEIS ÜBER EREIGNISINTERVALLE 105<br />

Auch B ∆D ,∆ E<br />

( ˜D k+1 , Ẽ(i) k<br />

) stellt eine untere Grenze für die gegenseitige Information<br />

<strong>von</strong> D k+1 <strong>und</strong> E (i)<br />

k<br />

dar, das heißt<br />

B ∆D ,∆ E<br />

( ˜D k+1 , Ẽ(i) k<br />

) ≤ M(D k+1, E (i)<br />

k ) .<br />

Folglich kann aus B ∆D ,∆ E<br />

( ˜D k+1 , Ẽ(i) k<br />

) > 0 geschlossen werden, dass die Punktprozesse<br />

X <strong>und</strong> Y <strong>von</strong>einander abhängen.<br />

Dieses Verfahren kann auch <strong>zur</strong> Analyse <strong>von</strong> Punktprozessen verwendet werden,<br />

wenn nur ein Experiment beobachtet wurde, sofern angenommen werden<br />

kann, dass die zugr<strong>und</strong>e liegende Dynamik der Prozesse sowie die Kopplung<br />

zeitunabhängig sind. In diesem Fall sind D k+1 bzw. E (i)<br />

k<br />

, k = 0, 1, 2, . . .,<br />

i = 0, ±1, ±2, . . . stationär verteilt.<br />

Auch wenn bei dieser Methode D k+1 <strong>und</strong> E (i)<br />

k<br />

mittels ∆ D bzw. ∆ E diskretisiert<br />

werden, ist diese Diskretisierung nicht mit der Zeitdiskretisierung der<br />

zuvor besprochenden <strong>Methoden</strong> zu verwechseln. Insbesondere werden bei der<br />

Betrachtung <strong>von</strong> Zuwächsen häufig mehrere Ereignisse als Ereignisgruppe zusammengefasst.<br />

Hier sind ∆ D <strong>und</strong> ∆ E Parameter, die die Empfindlichkeit des<br />

Tests auf Abhängigkeit bestimmen. Je kleiner diese Intervalllängen gewählt werden,<br />

desto besser approximiert B ∆D ,∆ E<br />

( ˜D k+1 , Ẽ(i) k<br />

) die gegenseitige Information<br />

M(D k+1 , E (i)<br />

k<br />

) asymptotisch, die der eigentliche Gegenstand der Untersuchung ist.<br />

Aufgr<strong>und</strong> <strong>von</strong> endlichen Beobachtungen kann ∆ D <strong>und</strong> ∆ E nicht beliebig klein<br />

gewählt werden, stattdessen tritt der “Finite sample”-Effekt deutlicher in den<br />

Vordergr<strong>und</strong>. In verschiedenen Untersuchungen hat sich herausgestellt, dass diese<br />

Intervalllängen auch nicht beliebig klein gewählt werden müssen, sondern dass<br />

eine binäre Partitionierung ausreichend ist, um <strong>Abhängigkeiten</strong> zu detektieren,<br />

das heißt ∆ D = ∆ E = ∆, wobei ∆ die Länge des größten betrachteten Intervalls<br />

ist (Maximaler Durchmesser des Zustandsraums).<br />

Selbst wenn der Test stets B ∆D ,∆ E<br />

( ˜D k+1 , Ẽ(i) k<br />

) ≈ 0 für alle i = 0, ±1, ±2, . . .<br />

liefert, kann trotzdem nicht auf Unabhängigkeit geschlossen werden. So ist es<br />

auch möglich, dass der Test nicht in der Lage ist, eine Abhängigkeit zu erkennen.<br />

In diesem Fall sollten ∆ D <strong>und</strong> ∆ E verkleinert werden. Des Weiteren ist es<br />

empfehlenswert, die Ereigniszeiten <strong>von</strong> X <strong>und</strong> Y für die Festlegung der Ereignisintervalle<br />

in Gl. (5.33) <strong>und</strong> Gl. (5.34) miteinander zu vertauschen, was zu einem<br />

anderen, gleichwertigen Satz <strong>von</strong> Ereignisintervallen führt.<br />

Beispiel: Gekoppelte Hindmarsh-Rose-Oszillatoren. Zum Abschluss<br />

soll dieses Verfahren <strong>zur</strong> Illustration auf die gekoppelten Hindmarsh-Rose-<br />

Oszillatoren, die im Absch. 5.4.1 eingeführt wurden, angewendet werden.<br />

Das Supremum B ∆,∆ ( ˜D k+1 , Ẽ(i) k<br />

) der gegenseitigen Informationen bezüglich<br />

der binär diskretisierten Ereignisintervalle D k+1 <strong>und</strong> E (i)<br />

k<br />

ist als Funktion der<br />

Intervallordnung i in Abb. 5.19 für verschiedene Kopplungsstärken g dargestellt.<br />

∆ ist hier der Durchmesser des Zustandsraums <strong>von</strong> ( ˜D k+1 , Ẽ(i) k<br />

). Wie Abb. 5.19 zu

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!