3 ARMA-ModelleIn diesem Kapitel lernen wir Methoden kennen, ein geeignetes Modell für eine vorliegendeZeitreihe zu bestimmen; sowie zwei weitere Klassen von Modellen.3.1 Partielle Autokorrelationsfunktion3.1.1 Optimale lineare Prognose in AR-ModellenGegeben ein kausales AR(p)-ModellX t = φ 1 X t−1 + · · · + φ p X t−p + W t<strong>mit</strong> (W t ) ∼ W N(0, σ 2 ), können wir leicht einen gleichmäßig besten linearen erwartungstreuenSchätzer für X t , gegeben (X t−k ) k≥1 , bestimmen. Dabei nennen wir den linearen Schätzer ˆX teinen gleichmäßig besten, wenn er( ) 2E ˆXt − X tunter allen linearen Schätzern für alle denkbaren σ 2 minimiert.Es ist einfachˆX t = φ 1 X t−1 + · · · + φ p X t−p ,denn aufgrund der Kausalität sind W t und (X t−k ) k≥1 unkorreliert, also gilt für jeden weiterenlinearen erwartungstreuen Schätzer g = a 0 + a 1 X t−1 + a 2 X t−2 + . . .E (g − X t ) 2 = E(g − ˆX t + ˆX) 2t − X t(g − ˆX)tDie naheliegende Prognose= Var= Var+ 2Cov(g − ˆX t , ˆX t − X t ) + Var( ˆX t − X t )(g − ˆX t)+ 2Cov( g − ˆX t} {{ }= Var(g − ˆX)t + 0 + σ 2≥ E( ˆXt − X t) 2(= σ 2 )ˆx t+1|t = φ 1 x t + · · · + φ p x t−punkorreliert <strong>mit</strong> W t, W t ) + Var(W t )für beobachtete Zeitreihen, hinter denen wir ein AR(p)-Modell vermuten, ist also auch dietheoretisch beste (zumindest unter den linearen).Im Folgenden benötigen wir eine einfache Verallgemeinerung, nämlich einen gleichmäßig bestenlinearen erwartungstreuen Schätzer für X t , gegeben nicht die gesamte Prozessvergangenheit,28
sondern nur eine Auswahl von Zufallsgrößen, bspw. (X t−1 , X t−2 ). Wir suchen also eine Linearkombinationa 0 + a 1 X t−1 + a 2 X t−2 <strong>mit</strong> der Eigenschaft, dassE[(X t − a 0 + a 1 X t−1 + a 2 X t−2 ) 2]minimal wird. Wir bezeichnen diese <strong>mit</strong>Pr[X t | X t−1 , X t−2 ],wobei die Abkürzung Pr dadurch gerechtfertigt wird, dass wir hier gerade die Projektion vonX t auf den von 1, X t−1 , X t−2 erzeugten Unterraum des Hilbertraums L 2 (Ω, A, P) berechnen.Insbesondere hat sie die Eigenschaft, dassCov(X t − Pr[X t | X t−1 , X t−2 ], X t−i ) = 0für i ∈ {1, 2}, sie enthält also alle Korrelationen zwischen X t und X t−1 , X t−2 . Dies beispielhaftzur Einführung, die allgemeinen Schreibweisen und Beziehungen gelten natürlich analog.Beachte abschließend den Unterschied zum bedingten Erwartungswert! Dieser ist die Projektionauf den Unterraum L 2 (Ω, σ(X t−1 , . . . , X t−h+1 ), P), welcher wesentlich größer ist.3.1.2 Die partielle AutokorrelationsfunktionBetrachten wir die ACF eines AR(1)-Prozesses: Diese fällt exponentiell gegen Null ab, ist aberinsbesondere auch für Lags größer 1 positiv, obwohl wir aus der Struktur des Prozesses wissen,dass X t und X t−2 nicht direkt voneinander abhängen. Die Korrelation ergibt sich vielmehr,weil X t <strong>mit</strong> X t−1 , und X t−1 wiederum <strong>mit</strong> X t−2 korreliert ist. Die Autokorrelationsfunktionberücksichtigt also auch indirekte Korrelationen zwischen X t und X t−h .Zudem lässt sich anhand der ACF nicht einschätzen, wie der Parameter p zu wählen ist;p ∈ {1, 2}liefert eine qualitativ gleiche ACF.Theoretische ACF eines AR(1)−ProzessesTheoretische ACF eines AR(2)−ProzessesACF0.0 0.2 0.4 0.6 0.8 1.0ACF0.0 0.2 0.4 0.6 0.8 1.05 10 15Index5 10 15IndexAbbildung 3.1: Theoretische ACF: AR(1)-Prozesses, φ = 0.7, sowie AR(2)-Prozess, φ 1 = 1 undφ 2 = −0.25Deshalb suchen wir nun nach einer Funktion, welche nur direkte Korrelationen berücksichtigt,und mehr Aussagekraft für die Wahl eines geeigneten p besitzt; dies wird die partielleAutokorrelationsfunktion leisten.29