Beispiel 2.1.6 (Random Walk) Sei (W t ) ∼ IID(0, σ 2 ) und (S t ) t∈N0 der zugehörige Random-Walk <strong>mit</strong> Start in 0, d. h. S t = S t−1 + W t und S 0 = 0. Für diesen Prozess gilt ES t = 0,Var(S t ) = t · σ 2 für alle t ≥ 1 undγ(t, t + h) = Cov(S t , S t+h )= Cov(S t , S t + W t+1 + W t+2 + · · · + W t+h )= Cov(S t , S t ) + Cov(S t , W t+1 ) + · · · + Cov(S t , W t+h ) = t · σ 2 .} {{ } } {{ } } {{ }=Var(S t)=0=0Da dies von t abhängt, ist (S t ) t∈N0nicht schwach stationär.Definition 2.1.7 Für einen ZR-Prozess (X t ) t∈Z sei der Differenzen-Prozess (∆X t ) t∈Z definiertals∆X t = X t − X t−1 t ∈ Z. (2.1.12)Ist (S t ) ein Random-Walk, so bildet der Differenzen-Prozess (∆S t ) t=1,2,... eine Folge unabhängigidentisch verteilter Zufallsgrößen. Durch Anwenden des Operators ∆ wird in diesem Fallaus einem nicht schwach stationärer Prozess ein schwach stationärer. Häufig ist es so, dassmehrmaliges Anwenden von ∆ einen schwach stationären Prozess liefert.In R berechnen wir den Differenzen-Prozess <strong>mit</strong> diff(x). Die Funktion bildet aus dem n-elementigen Vektor x = (x[1], . . . , x[n]) den Differenzenvektor (x[2] − x[1], . . . , x[n] − x[n − 1])der Länge n − 1.2.2 AR(p) ModelleIn diesem Abschnitt führen wir eine spezielle Klasse stochastischer Prozesse ein, sogenannteautoregressive Prozesse: X t soll sich in Abhängigkeit seiner vergangenen Wert X t−1 , X t−2 , . . .schreiben lassen, etwaX t = f(X t−1 , X t−2 , . . . )für eine Funktion f. Zusätzlich nehmen wir an, dass zu jedem Zeitpunkt eine Störung (WhiteNoise) in die Beobachtung <strong>mit</strong> eingeht, d. h. X t ist von der BauartX t = f(X t−1 , X t−2 , . . . ) + W tfür einen WN(0, σ 2 ) Prozess (W t ). Bei AR Modellen beschränken wir uns auf lineare Funktionenf und sollten eigentlich von linearen autoregressiven Modellen sprechen. Bevor wir dieseModelle in voller Allgemeinheit einführen untersuchen wir das einfache Beispiel f(x) = φ · x.Für φ = 1 erhalten wir einen Random-Walk, d. h. einen nicht schwach stationären Prozess. Für|φ| < 1 wird der Prozess schwach stationär.Beispiel 2.2.1 (AR(1) Modelle) Der Prozess (X t ) t∈Z sei definiert durchX t = φ · X t−1 + W t (2.2.1)20
<strong>mit</strong> (W t ) ∼ WN(0, σ 2 ) und φ ∈ R <strong>mit</strong> |φ| < 1. Jedes X t lässt sich schreiben alsX t = W t + φ · W t−1 + φ 2 · W t−2 + . . .∞∑= φ i · W t−i , (2.2.2)denn die Reihe in (2.2.2) konvergiert fast sicher wegen |φ| < 1.i=0Es gilt so<strong>mit</strong> EX t = 0 für alle t ∈ Z undγ(t, t + h) = Cov(X t , X t+h )⎛∞∑= Cov ⎝ φ i · W t−i ,=∞∑i=0i=0⎞∞∑φ j · W t+h−j⎠j=0φ i · φ h+i · Cov(W t−i , W t−i ),} {{ }=σ 2denn für j ≠ h + i sind W t−i und W t+h−j unkorreliert (vgl. Definition von WN). Wir erhaltenunter erneuter Beachtung von |φ| < 1∞∑γ(t, t + h) = φ h · σ 2 · φ 2ii=0= φh · σ 21 − φ 2und da<strong>mit</strong> die schwache Stationarität von (X t ) <strong>mit</strong> ACFϱ(h) = γ(h)γ(0) = φh . (2.2.3)−3 −2 −1 0 1 2 3−0.2 0.0 0.2 0.4 0.6 0.8 1.00 20 40 60 80 1000 5 10 15 20Abbildung 2.3: Sample eines AR(1) Prozesses <strong>mit</strong> φ = 0.7 und zugehöriger eACF.Definition 2.2.2 (AR(p) Modelle) Ein stochastischer Prozess (X t ) heißt autoregressiver Prozessder Ordnung p (kurz: AR(p)) Prozess, falls jedes X t die DarstellungX t = φ 1 X t−1 + φ 2 X t−2 + · · · + φ p X t−p + W t (2.2.4)21