Autoregressive bedingte Heteroskedastizität - Autoregressive conditional heteroskedasticity

In der Ökonometrie ist das autoregressive bedingte Heteroskedastizitätsmodell ( ARCH ) ein statistisches Modell für Zeitreihendaten , das die Varianz des aktuellen Fehlerterms oder der Innovation als Funktion der tatsächlichen Größe der Fehlerterme der vorherigen Zeiträume beschreibt; oft hängt die Varianz mit den Quadraten der vorherigen Innovationen zusammen . Das ARCH-Modell ist geeignet, wenn die Fehlervarianz in einer Zeitreihe einem autoregressiven (AR) Modell folgt ; wenn für die Fehlervarianz ein autoregressives gleitendes Durchschnittsmodell (ARMA) angenommen wird, ist das Modell ageneralisierte autoregressive bedingte Heteroskedastizität ( GARCH ) Modell.

ARCH-Modelle werden häufig bei der Modellierung von Finanzzeitreihen verwendet , die zeitvariable Volatilität und Volatilitätsclustering aufweisen , dh Perioden von Schwankungen, die von Perioden relativer Ruhe unterbrochen werden. Modelle vom ARCH-Typ werden manchmal zur Familie der stochastischen Volatilitätsmodelle gezählt , obwohl dies absolut falsch ist, da die Volatilität zum Zeitpunkt t bei gegebenen vorherigen Werten vollständig vorherbestimmt (deterministisch) ist.

Modellspezifikation

Um eine Zeitreihe unter Verwendung eines ARCH-Prozesses zu modellieren, bezeichne man die Fehlerterme (Rückgaberesiduen in Bezug auf einen Mittelwertprozess), dh die Reihenterme. Diese werden in ein stochastisches Stück und eine zeitabhängige Standardabweichung aufgeteilt, die die typische Größe der Terme charakterisieren, so dass

Die Zufallsvariable ist ein starkes weißes Rauschen . Die Serie ist modelliert von

,
wo und .

Ein ARCH( q )-Modell kann unter Verwendung der gewöhnlichen kleinsten Quadrate geschätzt werden . Ein Verfahren zum Testen, ob die Residuen eine zeitvariable Heteroskedastizität aufweisen, unter Verwendung des Lagrange-Multiplikatortests wurde von Engle (1982) vorgeschlagen. Dieses Verfahren ist wie folgt:

  1. Schätzen Sie das am besten passende autoregressive Modell AR( q ) .
  2. Ermitteln Sie die Quadrate des Fehlers und regressieren Sie sie auf eine Konstante und q verzögerte Werte:
    wobei q die Länge der ARCH-Verzögerungen ist.
  3. Die Nullhypothese ist, dass wir in Abwesenheit von ARCH-Komponenten für alle haben . Die Alternativhypothese lautet, dass bei Vorhandensein von ARCH-Komponenten mindestens einer der geschätzten Koeffizienten signifikant sein muss. In einer Stichprobe von T Residuen unter der Nullhypothese ohne ARCH-Fehler folgt die Teststatistik T'R² einer Verteilung mit q Freiheitsgraden, wobei die Anzahl der Gleichungen im Modell ist, die den Residuen gegenüber den Verzögerungen (dh ) entspricht. Wenn T'R² größer als der Chi-Quadrat-Tabellenwert ist, verwerfen wir die Nullhypothese und schließen daraus, dass im ARMA-Modell ein ARCH-Effekt vorliegt . Wenn T'R² kleiner als der Chi-Quadrat-Tabellenwert ist, verwerfen wir die Nullhypothese nicht.

GARCH

Wenn für die Fehlervarianz ein autoregressives gleitendes Durchschnittsmodell (ARMA) angenommen wird, handelt es sich bei dem Modell um ein generalisiertes autoregressives bedingtes Heteroskedastizitätsmodell (GARCH).

In diesem Fall ist das GARCH( p , q )-Modell (wobei p die Ordnung der GARCH-Terme und q die Ordnung der ARCH-Terme ist ) nach der Notation der Originalarbeit gegeben durch

Beim Testen auf Heteroskedastizität in ökonometrischen Modellen ist im Allgemeinen der White-Test der beste Test . Bei Zeitreihendaten bedeutet dies jedoch, auf ARCH- und GARCH-Fehler zu testen.

Der exponentiell gewichtete gleitende Durchschnitt (EWMA) ist ein alternatives Modell in einer separaten Klasse von exponentiellen Glättungsmodellen. Als Alternative zur GARCH-Modellierung hat es einige attraktive Eigenschaften wie ein größeres Gewicht auf neuere Beobachtungen, aber auch Nachteile wie einen willkürlichen Zerfallsfaktor, der Subjektivität in die Schätzung einführt.

GARCH( p , q ) Modellspezifikation

Die Lag-Länge p eines GARCH( p , q )-Prozesses wird in drei Schritten ermittelt:

  1. Schätzen Sie das am besten passende AR( q )-Modell
    .
  2. Berechnen und zeichnen Sie die Autokorrelationen von by
  3. Die asymptotische, d. h. für große Stichproben, beträgt die Standardabweichung von . Einzelne Werte, die größer sind, weisen auf GARCH-Fehler hin. Um die Gesamtzahl der Verzögerungen zu schätzen, verwenden Sie den Ljung-Box-Test, bis deren Wert weniger als beispielsweise 10 % signifikant ist. Die Ljung-Box Q-Statistik folgt einer Verteilung mit n Freiheitsgraden, wenn die quadrierten Residuen unkorreliert sind. Es wird empfohlen, Werte von n bis zu T/4 zu berücksichtigen . Die Nullhypothese besagt, dass keine ARCH- oder GARCH-Fehler vorliegen. Die Ablehnung der Null bedeutet also, dass solche Fehler in der bedingten Varianz existieren .

NGARCH

NAGARCH

Nichtlineares asymmetrisches GARCH(1,1) ( NAGARCH ) ist ein Modell mit der Spezifikation:

,
wobei und , was die Nicht-Negativität und Stationarität des Varianzprozesses sicherstellt.

Bei Aktienrenditen wird der Parameter normalerweise als positiv geschätzt; in diesem Fall spiegelt es ein Phänomen wider, das allgemein als „Hebeleffekt“ bezeichnet wird, was bedeutet, dass negative Renditen die zukünftige Volatilität stärker erhöhen als positive Renditen in derselben Größenordnung.

Dieses Modell sollte nicht mit dem NARCH-Modell zusammen mit der NGARCH-Erweiterung verwechselt werden, die 1992 von Higgins und Bera eingeführt wurde.

IGARCH

Integrierte verallgemeinerte autoregressive bedingte Heteroskedastizität (IGARCH) ist eine eingeschränkte Version des GARCH-Modells, bei der die persistenten Parameter zusammen eins ergeben, und importiert eine Einheitswurzel in den GARCH-Prozess. Voraussetzung dafür ist

.

EGARCH

Das exponentiell generalisierte autoregressive konditionale heteroskedastic (EGARCH)-Modell von Nelson & Cao (1991) ist eine andere Form des GARCH-Modells. Formal ein EGARCH(p,q):

wobei , die bedingte Varianz , , , , und Koeffizienten sind. kann eine Standardnormalvariable sein oder aus einer verallgemeinerten Fehlerverteilung stammen . Die Formulierung für erlaubt, dass das Vorzeichen und die Größe von getrennte Auswirkungen auf die Volatilität haben. Dies ist besonders im Kontext der Preisgestaltung von Vermögenswerten nützlich.

Da negativ sein kann, gibt es keine Vorzeichenbeschränkungen für die Parameter.

GARCH-M

Das GARCH-in-mean (GARCH-M)-Modell fügt der Mittelwertgleichung einen Heteroskedastizitätsterm hinzu. Es hat die Spezifikation:

Der Rest ist definiert als:

QGARCH

Das Quadratische GARCH (QGARCH) Modell von Sentana (1995) wird verwendet, um asymmetrische Effekte von positiven und negativen Schocks zu modellieren.

In dem Beispiel eines GARCH (1,1) -Modell, das Restprozess ist

wo ist iid und

GJR-GARCH

Ähnlich wie QGARCH modelliert auch das Glosten-Jagannathan-Runkle GARCH (GJR-GARCH)-Modell von Glosten, Jagannathan und Runkle (1993) die Asymmetrie im ARCH-Prozess. Der Vorschlag besteht darin, zu modellieren, wo iid ist, und

wo wenn , und wenn .

TGARCH-Modell

Das Threshold GARCH (TGARCH)-Modell von Zakoian (1994) ähnelt GJR GARCH. Die Spezifikation bezieht sich auf die bedingte Standardabweichung anstelle der bedingten Varianz :

wo wenn , und wenn . Ebenso wenn , und wenn .

fGARCH

Das fGARCH- Modell von Hentschel , auch als Family GARCH bekannt , ist ein Omnibus-Modell, das eine Vielzahl anderer beliebter symmetrischer und asymmetrischer GARCH-Modelle wie APARCH, GJR, AVGARCH, NGARCH usw.

COGARCH

2004 schlugen Claudia Klüppelberg , Alexander Lindner und Ross Maller eine zeitkontinuierliche Verallgemeinerung des zeitdiskreten GARCH(1,1)-Prozesses vor. Die Idee ist, mit den GARCH(1,1)-Modellgleichungen zu beginnen

und dann den Prozess des starken weißen Rauschens durch die infinitesimalen Inkremente eines Lévy-Prozesses und den Prozess des quadratischen Rauschens durch die Inkremente zu ersetzen , wobei

ist der rein unstetige Teil des quadratischen Variationsprozesses von . Das Ergebnis ist das folgende System stochastischer Differentialgleichungen :

wobei die positiven Parameter , und durch , und bestimmt werden . Bei einer gegebenen Anfangsbedingung hat das obige System eine wegweise eindeutige Lösung, die dann das zeitkontinuierliche GARCH-( COGARCH )-Modell genannt wird.

ZD-GARCH

Im Gegensatz zum GARCH-Modell lässt das Zero-Drift-GARCH-Modell (ZD-GARCH) von Li, Zhang, Zhu und Ling (2018) den Driftterm im GARCH-Modell erster Ordnung. Das ZD-GARCH-Modell soll modellieren , wobei iid ist und

Das ZD-GARCH-Modell benötigt kein , und daher verschachtelt es das Exponentially Weighted Moving Average (EWMA)-Modell in " RiskMetrics ". Seit dem Driftterm ist das ZD-GARCH-Modell immer instationär, und seine statistischen Inferenzverfahren unterscheiden sich stark von denen des klassischen GARCH-Modells. Basierend auf den historischen Daten können die Parameter und durch die generalisierte QMLE- Methode geschätzt werden .

Räumliches GARCH

Räumliche GARCH-Prozesse von Otto, Schmid und Garthoff (2018) werden als räumliches Äquivalent zu den temporal generalisierten autoregressiven bedingten Heteroskedastizitätsmodellen (GARCH) angesehen. Im Gegensatz zum temporalen ARCH-Modell, bei dem die Verteilung mit dem vollständigen Informationssatz für die vorangegangenen Perioden bekannt ist, ist die Verteilung in der räumlichen und raumzeitlichen Umgebung aufgrund der Interdependenz zwischen benachbarten räumlichen Standorten nicht einfach. Das räumliche Modell ist gegeben durch und

wobei bezeichnet den -ten räumlichen Ort und bezieht sich auf den -ten Eintrag einer räumlichen Gewichtungsmatrix und für . Die räumliche Gewichtungsmatrix definiert, welche Orte als benachbart betrachtet werden.

Gaußsches prozessgesteuertes GARCH

In einer anderen Richtung hat die Machine-Learning-Community die Verwendung von Gauss'schen Prozessregressionsmodellen vorgeschlagen, um ein GARCH-Schema zu erhalten. Dies führt zu einem nichtparametrischen Modellierungsschema, das Folgendes ermöglicht: (i) fortgeschrittene Robustheit gegenüber Überanpassung, da das Modell seine Parameter marginalisiert, um eine Inferenz gemäß einem Bayes'schen Inferenzgrundsatz durchzuführen; und (ii) Erfassen hochgradig nichtlinearer Abhängigkeiten ohne Erhöhung der Modellkomplexität.

Verweise

Weiterlesen