Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ... Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...
88 KAPITEL 5. PUNKTPROZESSE Hier zeigt sich eine temporale Struktur im Bereich von τ = −1000 . . . 200. Mit zunehmender Fensterbreite t i − t i−1 = ∆ ist sie ausgeprägter. Ab ∆ = 20 bleibt der Kurvenverlauf von M(X ti − X ti−1 , Y ti +τ − Y ti−1 +τ) qualitativ unverändert. Lediglich ihre Werte und die des Biases nehmen zu. Zwar nehmen die Werte der gegenseitigen Information mit der Fensterbreite ab, dennoch kann bei ∆ = 1 eine Abhängigkeit nachgewiesen werden. So ergab die gegenseitige Information bei τ ≈ −200 Werte um 2 · 10 −4 , während der Bias für |τ| > 1000 unterhalb von 5 · 10 −5 lag, siehe Abb. 5.8. Dabei waren die temporalen Strukturen umso stärker ausgeprägt, je größer der Kopplungsparameter war. Insbesondere konnte eine Kopplung bereits bei g = 0.1 nachgewiesen werden. Zur Verifizierung der Robustheit dieser Methode ist des Weiteren die gegenseitige Information der Zuwächse im ungekoppelten Fall für verschiedene Fensterbreiten berechnet worden. Hier zeigten sich keine temporalen Strukturen. Die optimale Wahl der Fensterbreite ∆ wird im Allgemeinen von der Zeitskala der Strukturen abhängen, die den stärksten Einfluss aufeinander haben. Findet eine Wechselwirkung zwischen den Punktprozessen über einzelne Ereignisse (Spikes) statt, so wird ∆ meist in der Größenordnung der Zeitauflösung liegen. Sind hingegen ganze Ereignisgruppen für die Kopplung verantwortlich, dann werden Werte innerhalb der Größenordnung dieser Gruppen eine geeignete Wahl für ∆ sein. Andererseits kann durch die Wahl der Fensterbreite die Untersuchung auf Strukturen mit einer festgelegten Zeitskala eingeschränkt werden. Zum Abschluss wurde die Signifikanz der Methode betrachtet. Hier zeigte sich, dass bei kürzeren Zeitreihen mit einer Länge bis zu 10 000, dies entspricht in etwa 500 Ereignisse, die Signifikanz im Wesentlichen unverändert blieb, für g = 0.3 siehe Abb. 5.9. Zur Berechnung des Informationstransfers zwischen gekoppelten Neuronen benutzten Eguia et al. (2000) ebenfalls Methoden der Informationstheorie. Hierzu teilten sie die Zeitreihen in Bins der Breite ∆ auf. Diesen Bins wurde der Wert 0 bzw. 1 zugewiesen, je nachdem, ob in ihnen ein Ereignis (Spike) stattgefunden hatte oder nicht. Anschließend wurden l Bins zu einem Wort zusammengefasst und die gegenseitige Information bezüglich dieser Wörter berechnet. Diese Methode lässt sich auf die Untersuchung von Gl. (5.19) zurückführen. Hierzu ist i + 1 = j = l + 1 zu setzen und die Zeitpunkte t k und s k sind so zu wählen, dass t k − t k−1 = s k − s k−1 = ∆ für alle k = 2, . . . , l + 1 gilt. Es zeigte sich aber, dass bei diesem Verfahren deutlich längere Zeitreihen für eine robuste Berechnung der gemeinsamen Informationen notwendig sind, als wenn lediglich die Zuwächse X tl+1 − X t1 und Y sl+1 − Y s1 verwendet werden. Der Grund hierfür ist, dass bei Eguia et al. (2000) die gemeinsame Information zwischen l-dimensionalen Zufallsvariablen berechnet werden muss, aber aufgrund eines endlichen Abstands zwischen den Spikes im Allgemeinen weniger als l Spikes in die Zeitintervalle (t 1 , t l+1 ] bzw. (s 1 , s l+1 ] fallen. Folglich lassen sich die Verteilungen von X tl+1 − X t1 und Y sl+1 − Y s1 besser schätzen als die Verteilungen der
5.4. NACHWEIS VON ABHÄNGIGKEITEN MITTELS ZUWÄCHSEN 89 M(X ti -X ti-1 , Y ti +τ -Y t i-1 +τ ) 0.04 gesamte Daten (g=0.3) 0 0.04 1. Segment (g=0.3) 0 0.04 2. Segment (g=0.3) 0 0.04 3. Segment (g=0.3) 0 0.04 4. Segment (g=0.3) 0 0.04 5. Segment (g=0.3) 0 -2000 -1000 0 1000 2000 Zeitverschiebung τ [a.u.] Abbildung 5.9: Gegenseitige Information M(X ti −X ti−1 , Y ti +τ −Y ti−1 +τ) zwischen den Zuwächsen X ti − X ti−1 und Y ti +τ − Y ti−1 +τ als Funktion der Zeitverschiebung τ. Fensterbreiten t i − t i−1 = ∆ = 10, Kopplungstärke g = 0.3. Oberste Kurve: gesamte Zeitreihe (50000 Punkte ≈ 2500 Ereignisse). Untere Kurven: verschiedene Segmente der gesamten Zeitreihe mit 10000 Punkten ≈ 500 Ereignisse. von Eguia et al. verwendeten Wörter. 5.4.2 Anwendung von Momente und Koinzidenzen 5.4.2.1 Kovarianz zwischen Zuwächsen In Absch. 5.4.1 wurde eine Methode vorgestellt, mit der es möglich ist, Abhängigkeiten zwischen zwei Punktprozessen nachzuweisen. Hierzu wurde die Unabhängigkeit der Zuwächse von Punktprozessen (Gl. (5.20)) überprüft. Dies erfolgte, indem die gegenseitige Information zwischen den Zuwächsen X ti − X ti−1 und Y sj − Y sj−1 mit 0 ≤ t i−1 < t i und 0 ≤ s j−1 < s j berechnet wurde. Insbesondere bei langen Zeitreihen kann die Berechnung der gegenseitigen Information sehr rechenintensiv werden, weshalb ein einfacheres Verfahren wünschenswert ist. Dieses kann ebenfalls aus Gl. (5.20) abgeleitet werden. So folgt aus der Gültigkeit von Gl. (5.20) unmittelbar, dass die Kovarianzen zwischen den Zuwächsen Cov [ X ti − X ti−1 , Y sj − Y sj−1 ] = E [ (X ti − X ti−1 − E [ X ti − X ti−1 ] ) · (Ysj − Y sj−1 − E [ Y sj − Y sj−1 ] ) ] (5.24)
- Seite 43 und 44: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 45 und 46: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 47 und 48: 3.3. PARTITIONIERUNG DES ZUSTANDSRA
- Seite 49 und 50: 3.4. PARAMETRISCHE VERTEILUNGEN 43
- Seite 51 und 52: 3.5. KONTINUIERLICHES BEISPIEL: AR(
- Seite 53 und 54: 3.6. KERNSCHÄTZER FÜR DICHTEN 47
- Seite 55 und 56: 3.6. KERNSCHÄTZER FÜR DICHTEN 49
- Seite 57 und 58: 3.6. KERNSCHÄTZER FÜR DICHTEN 51
- Seite 59 und 60: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 61 und 62: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 63 und 64: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 65 und 66: 3.7. RÄUMLICHE ABHÄNGIGKEIT DES W
- Seite 67 und 68: Kapitel 4 Exkurs: Dynamische System
- Seite 69 und 70: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 71 und 72: 4.1. ENTROPIE EINES DYNAMISCHEN SYS
- Seite 73 und 74: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 75 und 76: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 77 und 78: 4.2. INTERDEPENDENZ, VERALLGEMEINER
- Seite 79 und 80: Kapitel 5 Punktprozesse 5.1 Definit
- Seite 81 und 82: 5.1. DEFINITION EINES PUNKTPROZESSE
- Seite 83 und 84: 5.2. MOMENTE UND EREIGNISRATEN 77 2
- Seite 85 und 86: 5.3. GEKOPPELTE PUNKTPROZESSE 79 Be
- Seite 87 und 88: 5.3. GEKOPPELTE PUNKTPROZESSE 81 f
- Seite 89 und 90: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 91 und 92: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 93: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 97 und 98: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 99 und 100: 5.4. NACHWEIS VON ABHÄNGIGKEITEN M
- Seite 101 und 102: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 103 und 104: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 105 und 106: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 107 und 108: 5.5. NACHWEIS VON KOPPLUNG MITTELS
- Seite 109 und 110: 5.6. ABHÄNGIGKEITSNACHWEIS ÜBER E
- Seite 111 und 112: 5.6. ABHÄNGIGKEITSNACHWEIS ÜBER E
- Seite 113 und 114: 5.6. ABHÄNGIGKEITSNACHWEIS ÜBER E
- Seite 115 und 116: Kapitel 6 Zusammenfassung Die Besti
- Seite 117 und 118: 111 zwischen zwei Prozessen nachgew
- Seite 119 und 120: Anhang A Mathematische Werkzeuge De
- Seite 121 und 122: 115 Dies ist die Log-Summen-Ungleic
- Seite 123 und 124: Literaturverzeichnis [Arnhold et al
- Seite 125 und 126: LITERATURVERZEICHNIS 119 [Hindmarsh
- Seite 127 und 128: LITERATURVERZEICHNIS 121 [Rosenblum
- Seite 129: LITERATURVERZEICHNIS 123 Danksagung
88 KAPITEL 5. PUNKTPROZESSE<br />
Hier zeigt sich eine temporale Struktur im Bereich <strong>von</strong> τ = −1000 . . . 200. Mit<br />
zunehmender Fensterbreite t i − t i−1 = ∆ ist sie ausgeprägter. Ab ∆ = 20 bleibt<br />
der Kurvenverlauf <strong>von</strong> M(X ti − X ti−1 , Y ti +τ − Y ti−1 +τ) qualitativ unverändert.<br />
Lediglich ihre Werte <strong>und</strong> die des Biases nehmen zu. Zwar nehmen die Werte der<br />
gegenseitigen Information mit der Fensterbreite ab, dennoch kann bei ∆ = 1<br />
eine Abhängigkeit nachgewiesen werden. So ergab die gegenseitige Information<br />
bei τ ≈ −200 Werte um 2 · 10 −4 , während der Bias für |τ| > 1000 unterhalb<br />
<strong>von</strong> 5 · 10 −5 lag, siehe Abb. 5.8. Dabei waren die temporalen Strukturen umso<br />
stärker ausgeprägt, je größer der Kopplungsparameter war. Insbesondere konnte<br />
eine Kopplung bereits bei g = 0.1 nachgewiesen werden. Zur Verifizierung<br />
der Robustheit dieser Methode ist des Weiteren die gegenseitige Information der<br />
Zuwächse im ungekoppelten Fall für verschiedene Fensterbreiten berechnet worden.<br />
Hier zeigten sich keine temporalen Strukturen.<br />
Die optimale Wahl der Fensterbreite ∆ wird im Allgemeinen <strong>von</strong> der Zeitskala<br />
der Strukturen abhängen, die den stärksten Einfluss aufeinander haben.<br />
Findet eine Wechselwirkung zwischen den Punktprozessen über einzelne Ereignisse<br />
(Spikes) statt, so wird ∆ meist in der Größenordnung der Zeitauflösung<br />
liegen. Sind hingegen ganze Ereignisgruppen für die Kopplung verantwortlich,<br />
dann werden Werte innerhalb der Größenordnung dieser Gruppen eine geeignete<br />
Wahl für ∆ sein. Andererseits kann durch die Wahl der Fensterbreite die Untersuchung<br />
auf Strukturen mit einer festgelegten Zeitskala eingeschränkt werden.<br />
Zum Abschluss wurde die Signifikanz der Methode betrachtet. Hier zeigte<br />
sich, dass bei kürzeren Zeitreihen mit einer Länge bis zu 10 000, dies entspricht<br />
in etwa 500 Ereignisse, die Signifikanz im Wesentlichen unverändert blieb, für<br />
g = 0.3 siehe Abb. 5.9.<br />
Zur Berechnung des Informationstransfers zwischen gekoppelten Neuronen<br />
benutzten Eguia et al. (2000) ebenfalls <strong>Methoden</strong> der Informationstheorie. Hierzu<br />
teilten sie die Zeitreihen in Bins der Breite ∆ auf. Diesen Bins wurde der Wert<br />
0 bzw. 1 zugewiesen, je nachdem, ob in ihnen ein Ereignis (Spike) stattgef<strong>und</strong>en<br />
hatte oder nicht. Anschließend wurden l Bins zu einem Wort zusammengefasst<br />
<strong>und</strong> die gegenseitige Information bezüglich dieser Wörter berechnet.<br />
Diese Methode lässt sich auf die Untersuchung <strong>von</strong> Gl. (5.19) <strong>zur</strong>ückführen.<br />
Hierzu ist i + 1 = j = l + 1 zu setzen <strong>und</strong> die Zeitpunkte t k <strong>und</strong> s k sind so zu<br />
wählen, dass t k − t k−1 = s k − s k−1 = ∆ für alle k = 2, . . . , l + 1 gilt.<br />
Es zeigte sich aber, dass bei diesem Verfahren deutlich längere Zeitreihen<br />
für eine robuste Berechnung der gemeinsamen Informationen notwendig sind,<br />
als wenn lediglich die Zuwächse X tl+1 − X t1 <strong>und</strong> Y sl+1 − Y s1 verwendet werden.<br />
Der Gr<strong>und</strong> hierfür ist, dass bei Eguia et al. (2000) die gemeinsame Information<br />
zwischen l-dimensionalen Zufallsvariablen berechnet werden muss, aber aufgr<strong>und</strong><br />
eines endlichen Abstands zwischen den Spikes im Allgemeinen weniger als l Spikes<br />
in die Zeitintervalle (t 1 , t l+1 ] bzw. (s 1 , s l+1 ] fallen. Folglich lassen sich die Verteilungen<br />
<strong>von</strong> X tl+1 − X t1 <strong>und</strong> Y sl+1 − Y s1 besser schätzen als die Verteilungen der