14
Fakultät für Wirtschafts- wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen Kapitalmarktforschung Kurs 00889 Version vom 10/2004 Überarbeitet am 10/2015 Leseprobe

Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

Embed Size (px)

Citation preview

Page 1: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

Fakultät für Wirtschafts­wissenschaft

Prof. Dr. Hermann Singer

Modul 32681Zeitreihenanalyse und Anwendungenin der empirischenKapitalmarktforschung

Kurs 00889Version vom 10/2004Überarbeitet am 10/2015

Leseprobe

Page 2: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

Inhaltsverzeichnis

1 Uberblick 7

1.1 Zeitreihenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2 Ubungen mit EViews . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Zeitreihen vs. Querschnittsdaten 11

2.1 Zeitreihen und stochastische Prozesse . . . . . . . . . . . . . . . . 112.1.1 Querschnitte . . . . . . . . . . . . . . . . . . . . . . . . . . 112.1.2 Zeitreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.1.3 Panel-Daten . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.2 Zeitmittelwerte und Autokorrelation . . . . . . . . . . . . . . . . 142.3 Stationaritat und Ergodizitat . . . . . . . . . . . . . . . . . . . . 15

3 Stochastische Differenzen-Gleichungen 25

3.1 Wold-Zerlegung, ARMA-Prozesse . . . . . . . . . . . . . . . . . . 253.1.1 Wold-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . 253.1.2 Autoregressive (AR) Prozesse . . . . . . . . . . . . . . . . 263.1.3 Moving Average (MA)-Prozesse . . . . . . . . . . . . . . . 353.1.4 Autoregressive Moving Average

(ARMA)-Prozesse . . . . . . . . . . . . . . . . . . . . . . . 363.2 Backshift- und Lag-Operator . . . . . . . . . . . . . . . . . . . . . 383.3 ACF und PACF . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383.4 Modell-Bildung (Identifikation) . . . . . . . . . . . . . . . . . . . 44

3.4.1 Methode von Box und Jenkins . . . . . . . . . . . . . . . . 443.4.2 Modellselektion mit Informationskriterien . . . . . . . . . 45

3.5 Diagnostische Tests . . . . . . . . . . . . . . . . . . . . . . . . . 503.5.1 Residual-Analyse . . . . . . . . . . . . . . . . . . . . . . . 503.5.2 Portmanteau-Test . . . . . . . . . . . . . . . . . . . . . . . 523.5.3 Durbin-Watson-Test . . . . . . . . . . . . . . . . . . . . . 533.5.4 Lagrange-Multiplikator(Score)-Test . . . . . . . . . . . . . 543.5.5 ARCH-LM-Test . . . . . . . . . . . . . . . . . . . . . . . . 553.5.6 Test auf Normalverteilung . . . . . . . . . . . . . . . . . . 58

3.6 LQ, LM und Wald-Test . . . . . . . . . . . . . . . . . . . . . . . . 593.6.1 Likelihood-Quotienten-(LQ)-Test . . . . . . . . . . . . . . 59

5

Page 3: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

6 INHALTSVERZEICHNIS

3.6.2 Lagrange-Multiplikator-(LM) bzw.Rao-Score-Test . . . . . . . . . . . . . . . . . . . . . . . . 59

3.6.3 Wald-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . 603.7 ML-Schatzung der ARMA-Parameter . . . . . . . . . . . . . . . . 61

3.7.1 Beispiel: AR(1)-Prozeß . . . . . . . . . . . . . . . . . . . . 623.7.2 AR(p)-Prozeß . . . . . . . . . . . . . . . . . . . . . . . . . 683.7.3 ARMA(p, q)-Prozeß . . . . . . . . . . . . . . . . . . . . . . 69

4 Nichtstationare Zeitreihen 73

4.1 ARIMA-Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 734.2 Einheitswurzeln, Dickey-Fuller-Test . . . . . . . . . . . . . . . . . 85

4.2.1 Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . 854.2.2 Einfacher Dickey-Fuller-Test . . . . . . . . . . . . . . . . . 87

4.3 Regression mit AR-Fehlern und ARMAX-Modelle . . . . . . . . . 934.3.1 Regression mit autokorrelierten Fehlern . . . . . . . . . . . 934.3.2 ARMAX-Modelle . . . . . . . . . . . . . . . . . . . . . . . 102

4.4 KQ- und ML-Schatzung . . . . . . . . . . . . . . . . . . . . . . . 104

5 Heteroskedastische Modelle 109

5.1 ARCH und GARCH . . . . . . . . . . . . . . . . . . . . . . . . . 1095.2 Asymmetrische Ansatze: TARCH und

EGARCH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1195.2.1 Threshold ARCH . . . . . . . . . . . . . . . . . . . . . . . 1195.2.2 Exponential GARCH . . . . . . . . . . . . . . . . . . . . . 120

5.3 ARMA-GARCH und ARCH-M . . . . . . . . . . . . . . . . . . . 1215.4 ML-Schatzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1225.5 Stochastische Volatilitat: ARV-Modelle . . . . . . . . . . . . . . . 133

6 Zustandsraum-Modelle 137

6.1 Definition des Zustandsraum-Modells . . . . . . . . . . . . . . . . 1376.2 Momenten-Gleichungen und Stationaritat . . . . . . . . . . . . . . 1406.3 Der Kalman-Filter-Algorithmus . . . . . . . . . . . . . . . . . . . 143

Abkurzungen und Bezeichnungen 169

Literaturverzeichnis 172

Index 175

Page 4: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

36 KAPITEL 3. STOCHASTISCHE DIFFERENZEN-GLEICHUNGEN

• AR: γk → 0 fur k → ∞

• MA: γk = 0 fur k > q

3.1.4 Autoregressive Moving Average(ARMA)-Prozesse

Wie man sich denken kann, lassen sich die beiden Modelltypen in einem allge-meinen linearen Modellansatz vereinigen, dem ARMA(p, q)-Modell:ARMA-

Modellyt = φ1yt−1 + φ2yt−2 + ... + φpyt−p +

ǫt + θ1ǫt−1 + ... + θqǫt−q (3.60)

φ(B)yt = θ(B)ǫt. (3.61)

Dies bedeutet, daß der heutige Wert yt durch p verzogerte Werte der Zeitreiheund q verzogerte Fehlerterme erklart wird. Durch Invertieren des Lag-Polynomsφ(B) laßt sich der ARMA(p, q)-Prozeß als reiner MA(∞)

yt = φ(B)−1θ(B)ǫt =∞∑

l=0

ψlǫt−l (3.62)

oder durch Invertieren von θ(B) als reiner AR(∞) schreiben

θ(B)−1φ(B)yt =∞∑

l=0

πlyt−l = ǫt. (3.63)

Die Koeffizienten ψl bzw. πl ergeben sich explizit durch Invertieren der Lag-Polynome und Ausmultiplizieren.ARMA-Prozesse mit Mittelwert µ konnen durch Zentrieren auf yt − µ analogdefiniert werden:

φ(B)(yt − µ) = θ(B)ǫt (3.64)

oder

φ(B)yt = φ(1)µ + θ(B)ǫt (3.65)

:= θ0 + θ(B)ǫt. (3.66)

Beispiel 3.5 (ARMA(1,1)-Prozeß)Der einfachste ARMA-Prozeß hat die FormARMA(1,1)

yt = φyt−1 + ǫt + θǫt−1. (3.67)

Lost man nach yt auf, so ergibt sich die MA(∞)-Darstellung

yt = (1 − φB)−1(1 + θB)ǫt (3.68)

= (1 + φB + φ2B2 + ...)(1 + θB)ǫt (3.69)

= {1 + (φ + θ)[B + φB2 + φ2B3 + ...]}ǫt. (3.70)

Page 5: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

3.1. WOLD-ZERLEGUNG, ARMA-PROZESSE 37

Hierbei wurde die Taylor-Entwicklung

(1 − φB)−1 = (1 + φB + φ2B2 + ... (3.71)

benutzt, die nur fur |φ| < 1 konvergiert (also Stationaritat). In analoger Weisekann man auch nach ǫt auflosen, d.h. die AR(∞)-Darstellung

(1 + θB)−1(1 − φB)yt = ǫt (3.72)

und die Taylor-Entwicklung fur (1 + θB)−1 einsetzen (Ubung). Auch hier ist dieInvertierbarkeitsbedingung |θ| < 1 zu beachten.

Die Momente und die Autokorrelation ergeben sich wie folgt:Wenn yt stationar ist mit µ = E(yt) = 0, so gilt fur γ0 = Var(yt) = E(y2

t ) =E(φyt−1 + ǫt + θǫt−1)

2 = φ2γ0 + σ2 + θ2σ2 + 2φθE(yt−1ǫt−1). Setzt man in denletzen Term yt−1 = φyt−2 + ǫt−1 + θǫt−2 ein und nutzt die Unkorreliertheit der ǫj ,so ergibt sich E(yt−1ǫt−1) = σ2 und somit (1 − φ2)γ0 = σ2(1 + θ2 + 2φθ) oder

γ0 = σ21 + θ2 + 2φθ

1 − φ2. (3.73)

Zur Berechnung von γ1 schreibt man

yt − φyt−1 = ǫt + θǫt−1| × E(...yt−1)

γ1 − φγ0 = θE(ǫt−1yt−1) = θσ2.

Damit gilt

γ1 = φγ0 + θσ2. (3.74)

Die Autokovarianzen fur k ≥ 2 ergeben sich rekursiv aus

yt − φyt−1 = ǫt + θǫt−1| × E(...yt−k) (3.75)

γk − φγk−1 = 0, (3.76)

da in diesem Fall die Fehlerterme und yt−k unkorreliert sind.Die Autokorrelation verhalt sich also fur k ≥ 2 analog zum AR(1)-Prozeß undfallt exponentiell auf Null ab.�

Allgemein gilt somit beim ARMA(p, q)

yt − φ1yt−1 − φ2yt−2 − ... − φpyt−p =

ǫt + θ1ǫt−1 + ... + θqǫt−q| × E(...yt−k)

oder

γk − φ1γk−1 − φ2γk−2 − ... − φpγk−p = 0 (3.77)

φ(B)γk = 0 (k > q). (3.78)

Dies zeigt, daß fur Zeitverschiebungen k > q die gleichen Yule-Walker-Gleichungenwie beim AR(p) erfullt sind.

Page 6: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

38 KAPITEL 3. STOCHASTISCHE DIFFERENZEN-GLEICHUNGEN

3.2 Backshift- und Lag-Operator

Dieser Abschnitt ist etwas technisch und soll die formalen Manipulationen mitdem Backshift(Lag)-Operator B und daraus abgeleiteten Differenzen kompaktBackshift-

Operator darstellen. Man definiert

Definition 3.1 (Operatoren)

• Byt := yt−1: Ruckwarts (Backshift, Lag)-Operator

• B−1yt := Fyt = yt+1: Vorwarts (Lead, Forward)-Operator

• ∇yt := (1 − B)yt = yt − yt−1: Ruckwarts-Differenz (Ableitung)

• ∇ := (1 − B): Ruckwarts-Differenzen-Operator

• ∇−1yt := (1 − B)−1yt = (1 + B + B2 + ...)yt =∑t

j=−∞yj

• S(B) = ∇−1 = (1 − B)−1 =∑

j=0 Bj : Summations(Integral)-Operator

• ∆yt := yt+1 − yt = (B−1 − 1)yt = ∇yt+1: Vorwarts-Differenz

• ∆ := B−1∇: Vorwarts-Differenzen-Operator

• ∇2yt := (1 − B)2yt = yt − 2yt−1 + yt−2: 2. Ableitung

Beispiel 3.6 (Polynomial-Trends)Der lineare Trend µt = t kann durch ∇t = t − (t − 1) = 1 beseitigt werden.Analog wird der quadratische Trend µt = t2 durch ∇t2 = t2 − (t − 1)2 = 2t − 1und ∇2t2 = 2t − 1 − (2(t − 1) − 1) = 2 zum Verschwinden gebracht.Allgemein gilt ∇td = td − (t − 1)d = dtd−1 + ... und somit ∇dtd = d! (Ubung).�

3.3 Autokorrelation und partielle Autokorrela-

tion (ACF, PACF)

Die Autokorrelationsfunktion (ACF) und ihre Schatzung ρk (SACF; sampleACF

SACF autocorrelation function) kann dazu benutzt werden, bei einem Datensatz her-auszufinden, welches AR- bzw. ARMA-Modell zu den Daten paßt. Es galt dieForm (k > q)

ρk = A1λk1 + A2λ

k2 + ... + Apλ

kp (3.79)

wobei die Wurzeln λi Losungen der Gleichung φ(1/λ) = 0 waren (vgl. Glg. 3.77).Allerdings ist es schwierig, zwischen einem AR(p) und einem AR(p′)-Prozeß zu

Page 7: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

3.3. ACF UND PACF 39

unterscheiden, da in beiden Fallen die Autokorrelationen exponentiell bis Unend-lich abfallen.Eine Idee, die hier weiterhilft, ist die sogenannte partielle Autokorrelation, d.h.partielle

Autokorre-lation

die Korrelation zwischen yt und yt−k unter Herauspartialisierung der Zwischen-werte yt−1, ..., yt−k+1. Dies bedeutet, daß die ’reine’ Korrelation zwischen yt undyt−k unter Berucksichtigung der Korrelationen mit den Zwischenwerten berechnetwird.

Definition 3.2 (Partielle Autokorrelation PACF)Die k-te partielle Autokorrelation (PACF) ist der Koeffizient φkk in der Gleichung

yt = φk1yt−1 + φk2yt−2 + ... + φkkyt−k + ǫt. (3.80)

Satz 3.2 (Partielle Autokorrelation PACF)Der Koeffizient φkk ist gleich der Korrelation zwischen

yt − E(yt|yt−1, ..., yt−k+1) (3.81)

und

yt−k − E(yt−k|yt−1, ..., yt−k+1). (3.82)

Beweis: Gourieroux und Montfort (1997), Kap. 5.1.4.Dies heißt, daß die Zwischenwerte schon zur Prognose von yt und yt−k herange-zogen wurden und nur die verbleibende Restkorrelation berechnet wird.Bei einem AR(p)-Prozeß ist also φkk = 0 fur k > p. Man schatzt daher dieKoeffizienten in

yt = φ11yt−1 + ǫt

yt = φ21yt−1 + φ22yt−2 + ǫt

...

yt = φk1yt−1 + φk2yt−2 + ... + φkkyt−k + ǫt.

Im Falle eines AR(p)-Prozesses muß φkk ≈ 0 fur k > p gelten. Die partielleAutokorrelation PACF nimmt also ab einer bestimmten Zeitverschiebung aufNull ab (bis auf Schatzfehler).

Beispiel 3.7 (Partielle Autokorrelation)In Abb. (3.1) ist rechts das geschatzte Korrelogramm SACF und die geschatztepartielle Autokorrelation SPACF (sample partial autocorrelation function) einesAR(1)-Prozesses zu sehen. Letztere fallt nach Lag 1 fast auf Null ab, wahrenddie geschatzte Autokorrelation exponentiell gegen Null geht.In Abb. (3.3) ist ein AR(2)-Prozeß (links) und die zugehorige SACF bzw. SPACFzu sehen. Auch hier fallt die SPACF nach Lag 2 sofort auf Null ab, wahrend dieSACF oszillatorisch langsam gegen Null geht. Dieses Verhalten ist optisch leichter

Page 8: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

40 KAPITEL 3. STOCHASTISCHE DIFFERENZEN-GLEICHUNGEN

zu erkennen, besonders wenn Schatzfehler im Spiel sind.

Ubung: Simulieren Sie AR-Prozesse und stellen Sie die S(P)ACF graphisch dar.Achten Sie auf die statistischen Fluktuationen (Schatzfehler).�

In folgenden werden die PACF’s fur den AR(1)- und AR(2)-Prozeß explizit be-rechnet. Man findet:

• AR(1):

E(ytyt−1) = γ1 = φ11γ0 ⇒ φ11 = γ1/γ0 = ρ1 = φ

φkk = 0, k ≥ 2

• AR(2):

γ1 = φ11γ0 ⇒ φ11 = ρ1

γ1 = φ21γ0 + φ22γ1; ρ1 = φ21ρ0 + φ22ρ1 ⇒ φ21 = (1 − φ22)ρ1

γ2 = φ21γ1 + φ22γ0; ρ2 = φ21ρ1 + φ22ρ0 ⇒ φ22 =ρ2−ρ2

1

1−ρ2

1

φkk = 0, k ≥ 3

I.a. gelten wieder die Yule-Walker-Gleichungen φ(B)γk′ = 0 oder explizit

γk′ − φk1γk′−1 − φk2γk′

−2 − ... − φkkγk′−k = 0

ρk′ − φk1ρk′−1 − φk2ρk′

−2 − ... − φkkρk′−k = 0; k′ = 1, ..., k.

Dies entspricht der Matrix-Gleichung

1 ρ1 ρ2 ... ρk−1

ρ1 1 ρ1 ... ρk−2

... ... ... ... ρ1

ρk−1 ... ... ... 1

φk1

...

...φkk

=

ρ1

ρ2

...ρk

(3.83)

A x = b

Auflosen nach x ergibt dann die gesuchten Koeffizienten φkk. Die oben abgeleite-ten Formeln ergeben sich als Spezialfalle fur k = 1 und k = 2 (Ubung).Wie schon erwahnt, mussen bei einem AR(p)-Prozeß alle partiellen Autokorre-lationen fur k > p verschwinden, da nur p verzogerte Werte vorliegen. Man hatalso folgende Situation:

• ACF: geht bis ∞, gedampfte Schwingungen und abklingende Exponential-Terme ∝ λk

• PACF: ≡ 0 fur k > p

Page 9: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

3.3. ACF UND PACF 41

Wie sieht nun die Sache bei einem MA(q)-Prozeß aus? In Abschnitt (3.1.3) wurdeschon gezeigt, daß bei einem MA(q) die Autokorrelation ab k > q exakt aufNull abfallt. Anderererseits konnte gezeigt werden, daß dies einem AR(∞)-Prozeßentspricht, so daß die PACF nicht ab einem Wert kmax exakt auf Null abfallenkann. Es ergibt sich also eine duale Situation im Vergleich zum AR-Prozeß.Etwas genauer findet man beim MA(q):

ρk =θk + θk+1θ1 + ... + θqθq−k

1 + θ21 + ... + θ2

q

, k = 1, ..., q (3.84)

ρk = 0, k > q. (3.85)

Andererseits ergibt sich durch Invertieren die AR(∞)-Darstellung

θ(B)−1yt = ǫt, (3.86)

so daß die PACF nicht Null sein kann ab einem Wert kmax.Zusammenfassend gilt also beim MA(q):

• ACF: ≡ 0 fur k > q

• PACF: geht bis ∞, gedampfte Schwingungen und abklingende Exponen-tial-Terme ∝ λk.

Leider ist im Falle der ARMA-Modelle kein klares Muster erkennbar, da diese,wie schon gezeigt, sowohl als AR(∞) als auch MA(∞)-Modelle dargestellt werdenkonnen. Daher fallt in diesem Fall weder die ACF noch die PACF exakt auf Nullab.

Beispiel 3.8 (ACF und PACF bei MA- und ARMA-Modellen)Im letzten Beispiel wurde schon das AR(1) und AR(2)-Modell und das zugehorigeVerhalten der (P)ACF diskutiert.Bild (3.4) zeigt einen simulierten MA(1)-Prozeß (links) und die zugehorigengeschatzten ACF und PACF (rechts). Deutlich ist zu sehen, daß die Autokor-relation nach Lag 1 auf Null abfallt, wahrend die SPACF aufgrund der AR(∞)-Darstellung nur langsam verschwindet. Als Gleichung wurde

yt = ǫt − 0.9ǫt−1

mit Startwert y0 = 0 genommen.

EVIEWS-Menu-Befehle:File/Open/Workfile/armasimul.wf1 (offne Workfile)File/Open/Program/ma1.prg (Simulations-Programm ma1 offnen)Program: ma1/Run/1234567 0 0 1 -.9 (simuliere die Zeitreihe ma1)Series: ma1/View/Graph/Line (Linien-Graphik von ma1)

Page 10: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

42 KAPITEL 3. STOCHASTISCHE DIFFERENZEN-GLEICHUNGEN

Abbildung 3.4: Simulierter Pfad und geschatzte (partielle) Autokorrelation einesMA(1)-Prozesses.

Series: ma1/View/Correlogram (SACF und SPACF von ma1)

Das Simulationsprogramm ma1 hat die Form:

rndseed %0series ma1 =%1series z = nrndseries ma1(1) =%2 + %3*z(1) + %4*z(0)delete z

Dies bedeutet, daß zuerst eine random seed den Zufallsgenerator nrnd (normalver-teilte Zufallszahlen) initialisiert. Bei einer Wiederholung des Programms erhaltman dann die gleiche Zeitreihe. Im gezeigten Beispiel wurde eine seed von 1234567benutzt.Zum Vergleich noch die Simulation eines ARMA(1,1) der Form

yt = 0.5yt−1 + ǫt − 0.9ǫt−1

mit Startwert y0 = 0 und gleichen Zufallszahlen (Bild 3.5).

EVIEWS-Menu-Befehle:File/Open/Workfile/armasimul.wf1 (offne Workfile)

Page 11: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

3.3. ACF UND PACF 43

Abbildung 3.5: Simulierter Pfad und geschatzte (partielle) Autokorrelation einesARMA(1,1)-Prozesses.

File/Open/Program/arma11.prg (Simulations-Programm arma11 offnen)Program: arma11/Run/1234567 0 0 0.5 1 -.9 (simuliere die Zeitreihe arma11)Series: arma11/View/Graph/Line (Linien-Graphik von arma11)Series: arma11/View/Correlogram (ACF und PACF von arma11)

Das Simulationsprogram arma11 hat die Form:

rndseed %0series arma11 =%1series z = nrndseries arma11(1) =%2 + %3*arma11(0) +%4*z(1) + %5*z(0)delete z

Auch jetzt fallt die SACF schnell auf Null ab, was nun auch fur die SPACFgilt. Aufgrund der Darstellung

(1 − 0.5B)(1 − 0.9B)−1yt = ǫt

(1 + 0.4B + 0.36B2 + ...)yt = ǫt

sieht man, daß das AR(∞)-Polynom schneller als beim MA(1) gegen 0 abfalltund somit auch die PACF schneller verschwindet. Dort galt ja

(1 − 0.9B)−1yt = ǫt

Page 12: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

Übungsaufgabe

Page 13: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

KAPITEL 4. ARMA-PROZESSE UND ERWEITERUNGEN

Abbildung 4.1: ACF und PACF des ARMA(1,1)-Prozesses mit φ = 0.7 und θ = 0.8

Wir haben im Fall der MA-Prozesse bereits gesehen, dass jedernicht-invertierbare Prozess ein Gegenstück besitzt, das über dieselbeAutokorrelationsstruktur verfügt wie der ursprüngliche Prozess, aber diegeforderten Bedingungen für Invertierbarkeit erfüllt. Diese Eigenschafterstreckt sich auch auf den MA-Teil des ARMA-Prozesses. Invertierbarkeitscheint also eine eher unproblematische Eigenschaft zu sein. Bezüglichder Stationarität erwartet uns eine angenehme Überraschung. Wir wis-sen, dass ein MA-Prozess immer stationär ist. Wir haben weiterhin dasARMA(1,1)-Modell in (4.6) als MA(∞)-Modell dargestellt. Die Bedingungfür Stationarität ist also dieselbe, unter der der ARMA(1,1)-Prozess in MA-Form überführt werden kann. Eine kurze Inspektion von (4.5) zeigt, dass diekritische Bedingung |φ| < 1 ist, da sonst die geometrische Reihenentwicklungunzulässig wäre. Das entspricht aber genau der Stationaritätsbedingungdes AR(1)-Modells. Es stellt sich heraus, dass diese Eigenschaft auch fürARMA(p, q)-Modelle gilt:

Ein ARMA(p, q)-Prozess ist genau dann stationär, wenn seinAR-Teil die Stationaritätsbedingung erfüllt.

Das bedeutet konkret, die Wurzeln des AR-Teils müssen außerhalb deskomplexen Einheitskreises liegen, oder anders herum, die inversen Wurzeln(inverted roots) müssen innerhalb des komplexen Einheitskreises liegen.

Aufgabe 4.1

Zeigen Sie, dass die Autokovarianzfunktionmit Lag 1 im ARMA(1,1)-Modell durch

γ1 = φγ0 + θσ2

gegeben ist.

72

Page 14: Modul 32681 Zeitreihenanalyse und Anwendungen in der ... · Fakultät für Wirtschafts wissenschaft Prof. Dr. Hermann Singer Modul 32681 Zeitreihenanalyse und Anwendungen in der empirischen

KAPITEL 8. LÖSUNGEN

Lösungen zu Kapitel 4

Lösung 4.1

γ1 = σ2

(

ψ1 +

∞∑

j=1

ψj+1ψj

)

= σ2

(

φ+ θ + (φ+ θ)2∞∑

j=1

φ2k−1

)

= σ2

(

φ+ θ + φ(φ+ θ)2∞∑

k=0

φ2k

)

= σ2

(

φ+ θ +φ(φ+ θ)2

1− φ2

)

= φσ2

(

1 +(φ+ θ)2

1− φ2

)

+ θσ2= φγ0 + θσ2

Lösung 4.2

φ(B)yt = θ(B)ǫt

⇒ (1− φB)yt = (1 + θB)ǫt = (1− φB)ǫt

⇒ yt = ǫt

Lösung 4.3

(ǫt)t=0,...,6 = {0, 2, 1,−1,−1,−1, 2}

⇒ l(0.5, 0, 0.5, 1) = −5.514− 6 = −11.514

Lösung 4.4

a) (1− φB)∇yt = ǫt

⇔ (1− φB)(1− B)yt = ǫt

⇔ (1− B − φB + φB2)yt = ǫt

⇒ yt = (1 + φ)yt−1 − φyt−2 + ǫt

156