Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ... Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
60 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN zum nächsten teilweise erhebliche Sprünge. Mit der Transferentropie können keine Aussagen gemacht werden, da sie eine sehr viel aufwendigere Statistik benötigt. Zu erwarten wäre, dass die Transferentropie in Kopplungsrichtung entgegen dem Wind den Wert Null liefert und in Kopplungsrichtung mit dem Wind einen positiven Wert. Desweiteren sollte die Zeit, welche die Windfront von einem Mast zum nächsten benötigt, durch ein Maximum in der Transferentropie als Funktion der Zeitverzögerung gegeben sein, wenn beide Signale in der Zeit gegeneinander verschoben werden.
Kapitel 4 Exkurs: Dynamische Systeme 4.1 Entropie eines dynamischen Systems Eine Vielzahl von physikalischen, mathematischen oder biologischen Phänomenen wird durch gewöhnliche Differentialgleichungssysteme ẋ(t) = F (x(t)) (4.1) mit Anfangswerten x(0) = x 0 beschrieben, (x(t) ∈ R d ). Ist F Lipschitz-stetig, so existiert eine Lösung x(t, x 0 ) für das System, wobei x(t, x 0 ) für jeden Zeitpunkt t eindeutig durch die Anfangsbedingung x(0) = x 0 festgelegt ist. Diese deterministischen Prozessen waren in den bisherigen Betrachtungen weitgehend ausgeschlossen. In diesem Kapitel werden die wesentlichen Ideen vorgestellt, mit denen es möglich ist, deterministische Prozesse als eine spezielle Klasse von stochastischen Prozessen zu betrachten. Hierauf aufbauend wird anschließend gezeigt, wie sie mit Techniken der Informationstheorie studiert werden können. Ein allgemeines mathematisches Konzept, mit dem deterministische Prozesse beschrieben werden, sind die dynamischen Systeme, [Katok & Hasselblatt (1995), Ott (1993), Schuster (1989)]. Hierunter versteht man eine Familie von Abbildungen (X t ) t∈Γ mit den Eigenschaften 1. X t : M −→ M ⊂ R d , ∀t ∈ Γ , 2. X 0 (x) = id(x) = x , ∀x ∈ M , 3. X t (X s (x)) = X t+s (x) , ∀s, t ∈ Γ, x ∈ M , (4.2) 4. X t : (M, B(M)) → (M, B(M)) ∀t ∈ Γ , 5. t → X t (x 0 ) stetig ∀x 0 ∈ M , wobei B(M) die Borelsche σ-Algebra auf M ist, siehe hierfür auch [Reitmann (1996), Walters (1981)]. Die kompakte Teilmenge M von R d wird Zustands- oder Phasenraum genannt. Ist die Zeitmenge Γ = R oder R + , so spricht 61
- Seite 15 und 16: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 17 und 18: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 19 und 20: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 21 und 22: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 23 und 24: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 25 und 26: 2.1. DISKRETE STOCHASTISCHE PROZESS
- Seite 27 und 28: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 29 und 30: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 31 und 32: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 33 und 34: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 35 und 36: 2.2. KONTINUIERLICHE STOCHASTISCHE
- Seite 37 und 38: Kapitel 3 Schätzen von Entropien u
- Seite 39 und 40: 3.1. SCHÄTZEN BEI EINER UND MEHRER
- Seite 41 und 42: 3.2. SCHÄTZER FÜR DISKRETE PROZES
- Seite 43 und 44: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 45 und 46: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 47 und 48: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 49 und 50: 3.4. PARAMETRISCHE VERTEILUNGEN 43
- Seite 51 und 52: 3.5. KONTINUIERLICHES BEISPIEL: AR(
- Seite 53 und 54: 3.6. KERNSCHÄTZER FÜR DICHTEN 47
- Seite 55 und 56: 3.6. KERNSCHÄTZER FÜR DICHTEN 49
- Seite 57 und 58: 3.6. KERNSCHÄTZER FÜR DICHTEN 51
- Seite 59 und 60: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 61 und 62: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 63 und 64: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 65: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 69 und 70: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 71 und 72: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 73 und 74: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 75 und 76: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 77 und 78: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 79 und 80: Kapitel 5 Punktprozesse 5.1 Definit
- Seite 81 und 82: 5.1. DEFINITION EINES PUNKTPROZESSE
- Seite 83 und 84: 5.2. MOMENTE UND EREIGNISRATEN 77 2
- Seite 85 und 86: 5.3. GEKOPPELTE PUNKTPROZESSE 79 Be
- Seite 87 und 88: 5.3. GEKOPPELTE PUNKTPROZESSE 81 f
- Seite 89 und 90: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 91 und 92: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 93 und 94: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 95 und 96: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 97 und 98: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 99 und 100: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 101 und 102: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 103 und 104: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 105 und 106: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 107 und 108: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 109 und 110: 5.6. ABHÄNGIGKEITSNACHWEIS ÜBER E
- Seite 111 und 112: 5.6. ABHÄNGIGKEITSNACHWEIS ÜBER E
- Seite 113 und 114: 5.6. ABHÄNGIGKEITSNACHWEIS ÜBER E
- Seite 115 und 116: Kapitel 6 Zusammenfassung Die Besti
60 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN<br />
zum nächsten teilweise erhebliche Sprünge. Mit der Transferentropie können keine<br />
Aussagen gemacht werden, da sie eine sehr viel aufwendigere Statistik benötigt.<br />
Zu erwarten wäre, dass die Transferentropie in Kopplungsrichtung entgegen dem<br />
Wind den Wert Null liefert <strong>und</strong> in Kopplungsrichtung mit dem Wind einen positiven<br />
Wert. Desweiteren sollte die Zeit, welche die Windfront <strong>von</strong> einem Mast<br />
zum nächsten benötigt, durch ein Maximum in der Transferentropie als Funktion<br />
der Zeitverzögerung gegeben sein, wenn beide Signale in der Zeit gegeneinander<br />
verschoben werden.