Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ... Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
68 KAPITEL 4. EXKURS: DYNAMISCHE SYSTEME mit stetigem bzw. stetigem, injektiven ψ K und ψ S . Für die erste Gleichung muss eventuell die Einbettungsdimension von u i erhöht werden, da hier x i und x i+1 zu einem höherdimensionalen Zustandsvektor zusammengefasst werden müssen. Demzufolge kann auf Interdependenz oder verallgemeinerte Synchronisation geschlossen werden, wenn die Existenz einer stetigen bzw. stetigen, injektiven Funktion ψ K bzw. ψ S nachgewiesen werden kann. Eine modifizierte Version der hierfür von Arnhold et al. (1999) vorgeschlagenen Methode soll am Beispiel der Interdependenz, Gl. (4.11), skizziert werden: Als Erstes werden alle Nachbarn von u n gesucht, die sich in einer δ-Umgebung B δ (u n ) um u n befinden, B δ (u n ) = {u i : ‖u i − u n ‖ < δ, i = 1, . . . , N}. ‖.‖ ist eine geeignete Norm auf dem Raum der Einbettungsvektoren u i , beispielsweise die Maximumsnorm ‖u i ‖ ∞ = max j=0,...,m−1 |u i−j |. Diese Nachbarn seien durch die Indizes s n,1 , . . . , s n,kn(δ) gegeben. Dabei ist k n (δ) = |B δ (u n )| die Anzahl der Elemente in B δ (u n ). Ist ψ K stetig, so sollten alle Bilder v sn,i = ψ K (u sn,i ) von u sn,i in einer Umgebung um v n liegen, deren mittlerer quadratischer Abstand durch gegeben ist, siehe Abb. 4.2. d (δ) Y |X (v n) = 1 k∑ n(δ) |v sn,i − v n | 2 k n (δ) v i=1 Ψ K (δ) d Y|X ( v n ) n d (k (δ)) Y ( v n ) v n (N) d ( v Y n ) un u Abbildung 4.2: Schematische Darstellung zur Definition der Interdependenz sowie der hierfür benötigten Abstände. 2δ Anschließend werden die k n (δ) nächsten Nachbarn von v n bestimmt. Diese seien durch die Indizes r n,1 , . . . , r n,kn(δ) gegeben. Der mittlere quadratische eukli-
4.2. INTERDEPENDENZ, VERALLGEMEINERTE SYNCHRONISATION 69 dische Abstand dieser Vektoren d (kn(δ)) Y (v n ) = 1 k∑ n(δ) |v rn,i − v n | 2 k n (δ) ist ebenfalls ein Maß für die Größe der Umgebung, aus der diese Punkte stammen. Ist ψ K stetig und zusätzlich injektiv, dann wird d (kn(δ)) Y i=1 (v n ) in etwa d (δ) Y |X (v n) entsprechen, d (kn(δ)) Y (v n ) ≈ d (δ) Y |X (v n). Existiert keine stetige, injektive Abbildung ψ K , so wird d (δ) Y |X (v n) ≫ d (kn(δ)) Y (v n ) sein. Indem das Verhältnis dieser Abstände über alle Punkte gemittelt wird, erhält man ein Maß für die Abhängigkeit zwischen X und Y : S (δ) (Y |X) = 1 N N∑ n=1 d (kn(δ)) Y (v n ) d (δ) Y |X (v n) . (4.13) Nach Konstruktion der Abstände gilt d (δ) Y |X (v n) ≥ d (kn(δ)) Y (v n ) und somit 0 ≤ S (δ) (Y |X) ≤ 1. Dabei ist der Wert von S (δ) (Y |X) umso größer, je stärker die Kopplung ist, siehe hierzu [Arnhold et al. (1999), Quian Quiroga et al. (2000)]. Ist ψ K stetig aber nicht injektiv, dann kann die Interdependenz gemessen werden, indem d (δ) Y |X (v n) mit dem mittleren quadratischen Abstand d (N) Y (v n), den v n zu allen Einbettungsvektoren hat, verglichen wird: H (δ) (Y |X) = 1 N N∑ n=1 log d(N) Y (v n) d (δ) Y |X (v n) . (4.14) Sind X und Y ungekoppelt, gemeint ist ψ K ist nicht stetig, so wird im Allgemeinen d (δ) Y |X (v n) ≈ d (N) Y (v n) sein und somit H (k) (Y |X) ≈ 0. Andererseits ist H (δ) (Y |X) ≫ 0 wenn X und Y gekoppelt sind [Arnhold et al. (1999), Quian Quiroga et al. (2000)]. Bei dem ursprünglich von Arnhold et. al. (1999) vorgeschlagenen Verfahren wurde für jeden Abstand d (.) Y |X (v n) eine fest vorgegebene Anzahl von k n (δ) ≡ k nächsten Nachbarn gesucht und keine δ-Umgebung verwendet. Da für längere Zeitreihen die k nächsten Nachbarn von u n bzw. v n aus einer kleineren Umgebung stammen, sind die Abstände d (.) Y |X (v n) bzw. d (.) Y (v n) und somit die Interdependenzen S (.) (Y |X), H (.) (Y |X) von der Länge der Zeitreihe abhängig. Indem δ-Umgebungen zur Definition des Abstandes d (.) Y |X (v n) verwendet werden, wird dieser Effekt eliminiert. Um einen Bias aufgrund serieller Korrelationen zu unterdrücken, sind bei der Berechnung der Abstände d (kn(δ)) Y (v n ), d (δ) Y |X (v n) und d (N) Y (v n) nur jene Nachbarn zu berücksichtigen, die zeitlich weit genug auseinander liegen, |n − r n,i | > w und |n − s n,i | > w, wobei w das Theiler-Fenster ist [Theiler (1986)].
- Seite 23 und 24: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 25 und 26: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 27 und 28: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 29 und 30: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 31 und 32: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 33 und 34: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 35 und 36: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 37 und 38: Kapitel 3 Schätzen von Entropien u
- Seite 39 und 40: 3.1. SCHÄTZEN BEI EINER UND MEHRER
- Seite 41 und 42: 3.2. SCHÄTZER FÜR DISKRETE PROZES
- Seite 43 und 44: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 45 und 46: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 47 und 48: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 49 und 50: 3.4. PARAMETRISCHE VERTEILUNGEN 43
- Seite 51 und 52: 3.5. KONTINUIERLICHES BEISPIEL: AR(
- Seite 53 und 54: 3.6. KERNSCHÄTZER FÜR DICHTEN 47
- Seite 55 und 56: 3.6. KERNSCHÄTZER FÜR DICHTEN 49
- Seite 57 und 58: 3.6. KERNSCHÄTZER FÜR DICHTEN 51
- Seite 59 und 60: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 61 und 62: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 63 und 64: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 65 und 66: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 67 und 68: Kapitel 4 Exkurs: Dynamische System
- Seite 69 und 70: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 71 und 72: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 73: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 77 und 78: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 79 und 80: Kapitel 5 Punktprozesse 5.1 Definit
- Seite 81 und 82: 5.1. DEFINITION EINES PUNKTPROZESSE
- Seite 83 und 84: 5.2. MOMENTE UND EREIGNISRATEN 77 2
- Seite 85 und 86: 5.3. GEKOPPELTE PUNKTPROZESSE 79 Be
- Seite 87 und 88: 5.3. GEKOPPELTE PUNKTPROZESSE 81 f
- Seite 89 und 90: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 91 und 92: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 93 und 94: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 95 und 96: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 97 und 98: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 99 und 100: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 101 und 102: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 103 und 104: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 105 und 106: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 107 und 108: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 109 und 110: 5.6. ABHÄNGIGKEITSNACHWEIS ÜBER E
- Seite 111 und 112: 5.6. ABHÄNGIGKEITSNACHWEIS ÜBER E
- Seite 113 und 114: 5.6. ABHÄNGIGKEITSNACHWEIS ÜBER E
- Seite 115 und 116: Kapitel 6 Zusammenfassung Die Besti
- Seite 117 und 118: 111 zwischen zwei Prozessen nachgew
- Seite 119 und 120: Anhang A Mathematische Werkzeuge De
- Seite 121 und 122: 115 Dies ist die Log-Summen-Ungleic
- Seite 123 und 124: Literaturverzeichnis [Arnhold et al
4.2. INTERDEPENDENZ, VERALLGEMEINERTE SYNCHRONISATION 69<br />
dische Abstand dieser Vektoren<br />
d (kn(δ))<br />
Y<br />
(v n ) = 1<br />
k∑<br />
n(δ)<br />
|v rn,i − v n | 2<br />
k n (δ)<br />
ist ebenfalls ein Maß für die Größe der Umgebung, aus der diese Punkte stammen.<br />
Ist ψ K stetig <strong>und</strong> zusätzlich injektiv, dann wird d (kn(δ))<br />
Y<br />
i=1<br />
(v n ) in etwa d (δ)<br />
Y |X (v n)<br />
entsprechen, d (kn(δ))<br />
Y<br />
(v n ) ≈ d (δ)<br />
Y |X (v n). Existiert keine stetige, injektive Abbildung<br />
ψ K , so wird d (δ)<br />
Y |X (v n) ≫ d (kn(δ))<br />
Y<br />
(v n ) sein. Indem das Verhältnis dieser Abstände<br />
über alle Punkte gemittelt wird, erhält man ein Maß für die Abhängigkeit zwischen<br />
X <strong>und</strong> Y :<br />
S (δ) (Y |X) = 1 N<br />
N∑<br />
n=1<br />
d (kn(δ))<br />
Y<br />
(v n )<br />
d (δ)<br />
Y |X (v n) . (4.13)<br />
Nach Konstruktion der Abstände gilt d (δ)<br />
Y |X (v n) ≥ d (kn(δ))<br />
Y<br />
(v n ) <strong>und</strong> somit 0 ≤<br />
S (δ) (Y |X) ≤ 1. Dabei ist der Wert <strong>von</strong> S (δ) (Y |X) umso größer, je stärker die<br />
Kopplung ist, siehe hierzu [Arnhold et al. (1999), Quian Quiroga et al. (2000)].<br />
Ist ψ K stetig aber nicht injektiv, dann kann die Interdependenz gemessen<br />
werden, indem d (δ)<br />
Y |X (v n) mit dem mittleren quadratischen Abstand d (N)<br />
Y<br />
(v n), den<br />
v n zu allen Einbettungsvektoren hat, verglichen wird:<br />
H (δ) (Y |X) = 1 N<br />
N∑<br />
n=1<br />
log d(N) Y (v n)<br />
d (δ)<br />
Y |X (v n) . (4.14)<br />
Sind X <strong>und</strong> Y ungekoppelt, gemeint ist ψ K ist nicht stetig, so wird im Allgemeinen<br />
d (δ)<br />
Y |X (v n) ≈ d (N)<br />
Y<br />
(v n) sein <strong>und</strong> somit H (k) (Y |X) ≈ 0. Andererseits<br />
ist H (δ) (Y |X) ≫ 0 wenn X <strong>und</strong> Y gekoppelt sind [Arnhold et al. (1999),<br />
Quian Quiroga et al. (2000)].<br />
Bei dem ursprünglich <strong>von</strong> Arnhold et. al. (1999) vorgeschlagenen Verfahren<br />
wurde für jeden Abstand d (.)<br />
Y |X (v n) eine fest vorgegebene Anzahl <strong>von</strong> k n (δ) ≡ k<br />
nächsten Nachbarn gesucht <strong>und</strong> keine δ-Umgebung verwendet. Da für längere<br />
Zeitreihen die k nächsten Nachbarn <strong>von</strong> u n bzw. v n aus einer kleineren Umgebung<br />
stammen, sind die Abstände d (.)<br />
Y |X (v n) bzw. d (.)<br />
Y (v n) <strong>und</strong> somit die Interdependenzen<br />
S (.) (Y |X), H (.) (Y |X) <strong>von</strong> der Länge der Zeitreihe abhängig. Indem<br />
δ-Umgebungen <strong>zur</strong> Definition des Abstandes d (.)<br />
Y |X (v n) verwendet werden, wird<br />
dieser Effekt eliminiert.<br />
Um einen Bias aufgr<strong>und</strong> serieller Korrelationen zu unterdrücken, sind bei der<br />
Berechnung der Abstände d (kn(δ))<br />
Y<br />
(v n ), d (δ)<br />
Y |X (v n) <strong>und</strong> d (N)<br />
Y<br />
(v n) nur jene Nachbarn<br />
zu berücksichtigen, die zeitlich weit genug auseinander liegen, |n − r n,i | > w <strong>und</strong><br />
|n − s n,i | > w, wobei w das Theiler-Fenster ist [Theiler (1986)].