Skip to main content

Part of the book series: Studies in Contemporary Economics ((CONTEMPORARY))

  • 63 Accesses

Zusammenfassung

Das vorliegende Kapitel ist einer eingehenden Analyse des prototypischen RBC-Modells von King, Plosser und Rebelo (1988a, 1988b) gewidmet. KPR haben dieses Modell in zwei nur durch die Spezifikation von Wachstumsprozeß und exogener Stochastik unterschiedenen Varianten entwickelt: KPR (1988a), künftig als KPR1 bezeichnet, postulieren deterministisches Wachstum kombiniert mit stationären Technologieschocks, und KPR (1988b), im folgenden KPR2, modellieren einen instationären stochastischen Wachstumstrend. Eine präzisere Darstellung der Unterschiede zwischen KPR1 und KPR2 erfolgt im Verlauf dieses Kapitels. Ich stelle zunächst beide Modellvarianten in einem einheitlichen Rahmen vor, so daß es sinnvoll ist, von dem (die Spezialfälle KPR1 und KPR2 umfassenden) KPR-Modell zu sprechen.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 49.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 59.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

References

  1. Diese letzte, in meinen Augen etwas skurrile Eigenart des Kydland-Prescott-Modells erklärt sich weniger aus ökonomischer Plausibilität denn aus Erfordernissen der Lösungstechnik. Vgl. die ausführlichen Erläuterungen hierzu in Kydland und Prescott (1982).

    Google Scholar 

  2. Das KPR-Modell unterstellt eigentlich einen repräsentativen Agenten (Planer), der eine Pareto-optimale Allokation bestimmt und diese mittels geeigneter Preise dezentralisiert. Nach dem zweiten Hauptsatz der Wohlfahrtsökonomie läßt sich besagtes Pareto-Optimum als kompetitives Gleichgewicht auffassen. Abweichend von dieser Vorgehensweise modelliere ich hier Haushalte und Firmen als getrennte ökonomische Entscheidungsträger und berücksichtige explizit die jeweiligen Budgetrestriktionen, da diese Darstellung für die später zu analysierenden nicht-walrasianischen Erweiterungen des Standardmodells geeigneter ist. Aus beiden Ansätzen resultiert dasselbe System von Euler-Gleichungen, d. h. die spezifizierten Ökonomien sind bezüglich ihres dynamischen Verhaltens exakt äquivalent.

    Google Scholar 

  3. Tatsächlich spezifizieren KPR (1988a) ihr Modell insofern allgemeiner, als sie zunächst die gesamte Klasse von Nutzenfunktionen mit konstanter relativer Risikoaversion als periodenbezogene Nutzenfunktion zulassen. In der dynamischen Analyse des Modells mit flexiblem Arbeitseinsatz beschränken sie sich jedoch auf die o. a. logarithmische Spezifikation.

    Google Scholar 

  4. Da die tägliche Arbeitszeit naturgemäß beschränkt ist, wird oft darauf hingewiesen, daß die Arbeitsstunden pro Kopf nicht mit einer konstanten Wachstumsrate wachsen können. Dies impliziert jedoch nicht, daß die Wachstumsrate der Arbeitsstunden Null ist, da eine konstante negative Wachstumsrate der Beschränkung nicht widerspricht. Der Einwand, dies führe asymptotisch zu einer Arbeitszeit von Null Stunden, ist dabei von geringer praktischer Relevanz. Mit einer Wachstumsrate von -0.1% pro Quartal (vgl. die Schätzung des Trendterms in Kapitel 2) würde die Arbeitszeit innerhalb von 100 Jahren um ungeflähr 33% zurückgehen, was nicht unrealistisch erscheint angesichts des erheblichen Rückgangs der Arbeitszeit in den letzten 100 Jahren. Allein von 1960 bis heute beträgt der Rückgang der Arbeitszeit rund 30%.

    Google Scholar 

  5. Ich beschränke mich auf die Ableitung der notwendigen Bedingungen für ein inneres Maximum. Hinreichende Bedingungen werden nicht überprüft.

    Google Scholar 

  6. Bei der Herleitung von (3.1/12) und (3.1/13) wurde bereits (3.1/1) in die Bedingungen erster Ordnung substituiert.

    Google Scholar 

  7. Die Transversalitätsbedingung dieses Problems ist (Math), vgl. Arrow (1968). KPR (1988a) zeigen, daß die Transversalitätsbedingung im Standard-RBC-Modell impliziert, daß der Zeitpfad der Modellvariablen durch eine stabile Differenzengleichung beschrieben werden kann. Im allgemeinen sind Transversalitätsbedingungen für Probleme mit unendlichem Optimierungshorizont jedoch nicht bekannt, vgl. Takayama (1987, S. 624). Ich verzichte daher in dieser Arbeit auf die explizite Analyse der Transversalitätsbedingungen, auferlege den Differenzengleichungen jedoch analoge Stabilitätsbedingungen. Wie Burnside (1995) zeigt, scheint dies für linear-quadratische stochastische Optimierungsmodelle ein angemessenes Vorgehen zu sein. Da die im folgenden dargestellte approximative Lösungstechnik des KPR-Modells ebenfalls zu linearen Euler-Gleichungen führt, liegt es nahe zu vermuten, daß sich diese Eigenschaft auf das KPR-Modell überträgt. Es bleibt freilich späterer Forschung überlassen, die genaue Beziehung zwischen Stabilitäts- und Transversalitätsbedingungen in allgemeinen Modellen mit unendlichem Horizont zu untersuchen.

    Google Scholar 

  8. Andere Lösungsmöglichkeiten, insbesondere rechenintensive numerische Approximationen, werden von Taylor und Uhlig (1990) diskutiert.

    Google Scholar 

  9. Streng genommen gilt diese Aussage nur “fast sicher”. Auf die Berücksichtigung maßtheoretischer Feinheiten wird jedoch verzichtet.

    Google Scholar 

  10. In der hier gewählten Darstellung werden die Variablen ohne Beschränkung der Allgemeinheit mit einheitlichem Zeitindex t gekennzeichnet.

    Google Scholar 

  11. Eine eingehende Darstellung von Zustandsraummodellen findet sich in Aoki (1987).

    Google Scholar 

  12. Der methodische Ansatz der Kalibrierung ist nicht auf die Real-Business-Cycle-Theorie beschränkt. Pagan (1995) macht darauf aufmerksam, daß sich kalibrierte Modelle in fast allen Teilgebieten angewandter ökonomischer Forschung finden; Hansen und Heckman (1996) weisen auf analoge Vorgehensweisen in der Physik und den Geowissenschaften hin

    Google Scholar 

  13. Benhabib, Rogerson und Wright (1991) präsentieren in anderem Zusammenhang ein aufschlußreiches Beispiel: Die Nutzenfunktion eines repräsentativen Agenten hänge von einem Parameter ab, der die bezahlten Arbeitsstunden gewichtet. In einer Ökonomie ohne Berücksichtigung von Hausarbeit implizieren positive Werte dieses Parameters stets, daß Freizeit ein normales Gut ist. In einer Ökonomie mit Berücksichtigung von Hausarbeit implizieren dieselben Parameterwerte, daß Freizeit ein inferiores Gut ist. Es ist daher offensichtlich unsinnig, eine in dem einen Modell erzielte Parameterschätzung in das andere Modell zu importieren.

    Google Scholar 

  14. Häufig wird, z. B. von Watson (1993) oder Kydland und Prescott (1996), behauptet, RBC-Modelle erhöben gar nicht den Anspruch, die “wahre” datengenerierende Struktur darzustellen. Es bleibt dabei unklar, ob diese Autoren damit wirklich nahezulegen beabsichtigen, dies begründe einen qualitativen Unterschied zwischen RBC- und anderen ökonomischen Modellen. M. E. kann bestenfalls argumentiert werden, daß einige sehr einfache RBC-Modelle in ungewöhnlich starkem Maße stilisiert erscheinen und sich dadurch von realitätsnäheren Modellen gleichen Untersuchungsinteresses graduell unterscheiden. Dies sollte jedoch nicht dazu Anlaß geben, die Schätzung von RBC-Modellen zu unterlassen oder unbefriedigende Schätzergebnisse mit Hinweis auf die konzedierte Fehlspezifikation als irrelevant abzustempeln. Letztlich ist jedes Modell nur eine grobe Approximation an die Realität und als solche notwendig fehlspezifiziert, obwohl in statistischen Tests des Modells unter der Nullhypothese in der Regel das Gegenteil angenommen wird. Ich untersuche in diesem Abschnitt das RBC-Modell zunächst unter der Hypopthese, daß die beobachteten Daten von dem theoretischen Modell erzeugt wurden. Die Berücksichtigung einer eventuellen Fehlspezifikation des Modells erfolgt in der anschließenden spektralanalytischen Evaluation.

    Google Scholar 

  15. Anders verhält es sich bei KPR (1988a, 1988b), die bei ihrer Kalibrierung einen Realzins von 6.5% p. a. unterstellen und damit sehr viel höher liegen als Barro und Sala-i-Martin den Realzins für die USA schätzen.

    Google Scholar 

  16. In Preisen von 1991, einschließlich Wohnungsvermietung.

    Google Scholar 

  17. In dieser und der nächsten Formel benutze ich die Symbole k, i und ρ, die mit anderer Bedeutung auch bei der Exposition des RBC-Modells verwandt wurden. Eine Verwechslungsgefahr ist für den den Zusammenhang beachtenden Leser sicherlich nicht gegeben.

    Google Scholar 

  18. Die in Theorem 11.2.3 von Brockwell und Davis wiedergegebene Formel ist aufgrund von zwei Flüchtigkeitsfehlern nicht korrekt.

    Google Scholar 

  19. Da auch die anderen Modellvariablen (wenn auch nicht in signifikantem Maße) zu persistent zu sein scheinen, wäre es naheliegend, einen etwas niedrigeren Wert für ρ anzusetzen. Im Lichte der in Tabelle 3.2/2 fur die Wachstumsraten wiedergegebenen Ergebnisse ist davon jedoch abzusehen, da dies zu einer noch stärker negativen Autokorrelation der Wachstumsraten von Output, Investitionen, Arbeitsstunden und Reallohn führen würde.

    Google Scholar 

  20. Und offenbar sind die ersten Differenzen der prozentualen Abweichungen vom Steady-State gleich den Wachstumsraten der Niveauvariablen der stationären Ökonomie.

    Google Scholar 

  21. Als 1.00 ausgewiesene Korrelationen ergeben sich aus Rundungen von Korrelationen, die tatsächlich geringfügig kleiner als Eins sind. Auf die Angabe von Nachkommastellen wird verzichtet, wenn die Korrelation definitionsgemäß Eins ist.

    Google Scholar 

  22. In der Literatur finden sich diverse Versuche, RBC-Modelle mit stärkerer Schockfortpflanzung zu konstruieren. Wie bereits erwähnt, zeigt Rouwenhorst (1991), daß Kydland und Prescotts (1982) time-to-build Technologie und die Berücksichtigung von Lagerhaltung diesen Zweck im wesentlichen nicht erfüllen. Wen (1995a) demonstriert analytisch, daß die Annahmen positiver Anpassungskosten des Kapitalstocks oder des Konsumverhaltens (sog. habit persistence) ebenfalls nicht erfolgreich sind. Fortschritte erzielt Wen (1995b) allerdings in einem Modell, in dem die Nutzenfunktion weder bezüglich des Konsums noch bezüglich der Freizeit separabel ist, in dem die Freizeit intertemporal komplementär (statt, wie üblicherweise angenommen, substitutiv) ist und in dem neben den Technologieschocks auch Präferenzschocks modelliert werden. Leider wirkt diese Zusammenstellung etwas ad hoc, zumal sein Modell im Niedrigfrequenzbereich der Arbeitsstunden unbefriedigende Ergebnisse zeigt. Benhabib und Farmer (1994) sowie Farmer und Guo (1994) untersuchen RBC-Modelle mit Externalitäten in der Produktion und selbsterfüllenden Erwartungen (sog. sunspots). Sie zeigen, daß derartige Modifikationen des Grundmodells zu höherer interner Schockfortpflanzung führen können. Der Wert dieser Erkenntnis ist jedoch zweifelhaft, da diese Modelle beobachtungsäquivalent zum Standardmodell mit adäquat spezifizierter externer Schockfortpflanzung sind, vgl. Kamihigashi (1996).

    Google Scholar 

  23. Die Arbeitsproduktivität ist offenbar instationär unabhängig von ν. Die Reallohnquote ist stationär nur in dem Spezialfall v = 0.

    Google Scholar 

  24. Die asymptotischen Standardfehler nach der Bartlett-Formel sind dann natürlich Null und alle empirischen Kreuzkorrelationen weichen signifikant von den theoretischen Momenten ab, sofern sie kleiner als Eins geschätzt werden.

    Google Scholar 

  25. Streng genommen beschränkt sich Watson keineswegs auf RBC-Modelle sondern entwickelt einen Ansatz, der für beliebige dynamische ökonomische Modelle tauglich ist. Seine Anwendung bezieht sich allerdings nur auf das KPR-Modell.

    Google Scholar 

  26. Es wird also unterstellt, daß numerische Werte für alle Parameter des Modells spezifiziert wurden. Watson (1993) geht davon aus, daß diese Parameter kalibriert wurden; sie können aber im Prinzip auch mit Standardmethoden geschätzt worden sein. Wichtig ist, daß eine Inferenz bezüglich unbekannter Parameter des Modells als nicht mehr erforderlich angesehen wird. Dies unterscheidet Watsons Vorgehen von dem im Grundsatz ähnlichen Ansatz bei Diebold, Ohanian und Berkowitz (1995).

    Google Scholar 

  27. In diesem Abschnitt bezeichnet i die Wurzel aus -1 und nicht, wie bisher, den Steady-State-Wert der wachstumsbereinigten Investitionen.

    Google Scholar 

  28. Tatsächlich ist Watsons Ansatz etwas allgemeiner als hier beschrieben, da Watson eine unterschiedliche Gewichtung der Diagonalelemente in den betrachteten Matrizen zuläßt. In den unten beschriebenen Ergebnissen habe ich alle betrachteten Variablen gleich gewichtet, also tatsächlich die Spur minimiert. Auf die Darstellung des allgemeineren Vorgehens (das im übrigen keine Überraschungen birgt) wird daher hier verzichtet.

    Google Scholar 

  29. Die geschätzten Spektren der empirischen Größen sind dieselben wie die in Kapitel 2 diskutierten Spektren.

    Google Scholar 

  30. Die im Verlauf dieses Kapitels dargestellten Berechnungen erfolgten mit für diese Zwecke geschriebenen GAUSS-Prozeduren. Ich danke Mark Watson für die freundliche Überlassung seiner eigenen Programme, die mir als Vorlage dienten und von mir zum Teil erheblich modifiziert wurden. Die Verantwortung für eventuell verbliebene Fehler in diesen Prozeduren liegt natürlich allein bei mir.

    Google Scholar 

  31. Dies kann durchaus auf die glättende Wirkung des Parzen-Fensters bei der Schätzung des Datenspektrums zurückzuführen sein.

    Google Scholar 

  32. Die Kohärenz ist ein spektralanalytisches Analogon zur Korrelation. Der interessierte Leser vergleiche z. B. die einführende Darstellung in Brockwell und Davis (1991).

    Google Scholar 

  33. Die angepaßte Konsumreihe ist sogar glatter als nach den theoretischen Momenten des Modells zu erwarten wäre. Berechnet man die Standardabweichung des angepaßten Konsums relativ zur Standardabweichung des angepaßten Outputs, ergibt sich ein Wert von 0.2 statt des theoretisch zu erwartenden Werts von 0.41, vgl. Tabelle 3.2.1/1. Dies liegt vermutlich daran, daß die für die Konsumreihe zu verwendenden Gewichte des Filters g(B) mit zu- bzw. abnehmender Lag-Länge kaum (numerisch) kleiner werden. Dies bedeutet zum einen, daß der errechnete Filter lediglich eine an beiden Seiten gestutzte Version des wahren Filters darstellt, und die Wirkungsunterschiede zwischen dem gestutzten und dem wahren Filter vermutlich nicht vernachlässigbar sind. Zum anderen bedeutet dies, daß die künstliche Erweiterung der Stichprobe um Nullen relativ starke Effekte hat. Beide Eigenschaften können tendenziell die Varianz der erzeugten Reihe mindern.

    Google Scholar 

  34. Selbst wenn der Ursprung dieser Störungen nicht saisonal bzw. saisonbereinigungsbedingt wäre, wären sie für die Evaluation von geringerem Interesse, da das RBC-Modell nicht den Anspruch erhebt, die kurzfristige Dynamik einer Ökonomie korrekt zu erfassen.

    Google Scholar 

  35. Man rufe sich in Erinnerung, daß Arbeitsproduktivität und Reallohnquote im KPR2-Modell instationäre Größen sind (vgl. (3.2.2/5)) und daher keine wohldefinierten Spektren besitzen.

    Google Scholar 

  36. Ich bin Mark Watson zu Dank verpflichtet für die freundliche Überlassung von GAUSS-Prozeduren. Seine Programme liegen den folgenden Analysen mit nur geringfügigen Änderungen zugrunde: Insbesondere habe ich die Routinen um einige von Watson nicht berücksichtigte Statistiken ergänzt und notwendige Anpassungen für die Anwendung auf Wachstumszyklen vorgenommen. Seine Version der Bry-Boschan-Prozedur (s. u.) habe ich unmodifiziert übernommen, sieht man davon ab, daß ein kleinerer Programmierfehler korrigiert wurde, der zu inkorrekten Datierungen des Referenzzyklus führen konnte.

    Google Scholar 

  37. Die Arbeit an diesem Werk war bereits in den späten dreißiger Jahren abgeschlossen. Der zweite Weltkrieg verhinderte ein früheres Erscheinen. Vgl. Klein und Moore (1985, S. 4 und S. 16).

    Google Scholar 

  38. Die folgende Beschreibung des methodischen Instrumentariums von Burns und Mitchell führt einige dem Leser vielleicht unvertraute Konzepte ein. Um die Lesbarkeit des Textes nicht zu stark zu erschweren, ist die Erläuterung der entsprechenden Begriffe jedoch zunächst relativ knapp gehalten und nicht in jedem Detail präzise. Genauere Definitionen der verwandten termini technici werden am Ende dieses Unterabschnitts zusammengestellt.

    Google Scholar 

  39. Allerdings kann, wie später auszuführen sein wird, die von Burns und Mitchell vorgenommene Normierung der untersuchten Variablen als eine unvollständige Trendbereinigung (die Elimination des Interzyklustrends) aufgefaßt werden.

    Google Scholar 

  40. Traditionell wird die Konjunkturanalyse des NBER mit saisonbereinigten Daten (Census X11-Methode) durchgeführt. Obwohl Forschungen der jüngeren Zeit deutlich gezeigt haben, daß das Arbeiten mit saisonbereinigten Daten zu nicht unerheblichen statistischen Fehlschlüssen Anlaß geben kann (vgl. z. B. Maravall (1995)), soll diese Konvention hier nicht problematisiert werden.

    Google Scholar 

  41. Dieses Vorgehen ist offensichtlich sehr stark von subjektiven Einschätzungen der beteiligten Konjunkturforscher abhängig und seine Resultate daher u. U. nicht unkontrovers. Die naheliegende Alternative, den Konjunkturzyklus durch die Betrachtung nur eines Maßes für die aggregierte ökonomische Leistung (wie z. B. das Bruttoinlandsprodukt) zu definieren, wird daher auch von anderen Staaten und z. B. der OECD vorgezogen (Klein und Moore (1985, S. 54)). Man muß freilich berücksichtigen, daß zuverlässige Messungen der aggregierten ökonomischen Aktivität zur Zeit des Entstehens von “Measuring Business Cycles” noch nicht verfügbar waren, vgl. Simkins (1994).

    Google Scholar 

  42. Burns und Mitchell untersuchen nicht nur das Verhalten einzelner Zeitreihen über den Referenzzyklus sondern auch über die dieser Zeitreihe eigenen Zyklen, sog. specific cycles. Dieser Ansatz wird hier nicht weiter verfolgt, da specific cycles z. T. stark von Referenzzyklen abweichen (z. B. bei Konsumdaten) und ihre Aussagekraft für konjunkturelle Fragestellungen daher unklar ist. Im folgenden werden die Terme “Zyklus” und “Referenzzyklus” synonym verwandt.

    Google Scholar 

  43. Man beachte aber, daß Phase II um einen Monat mit Phase I und Phase IV um einen Monat mit Phase V überlappt. King und Plosser (1994, S. 414) behaupten, daß alle Phasen überschneidungsfrei seien, haben aber offenbar Burns und Mitchell (1946, S. 144 ff., S. 161) nicht sorgfältiggelesen.

    Google Scholar 

  44. Tatsächlich kann die Transformation in cycle relatives als eine (unvollständige) Form der Trendbereinigung aufgefaßt werden: Sie eliminiert den Interzyklustrend, nicht aber den Intrazyklustrend. Entfernt wird also eine Trendfunktion, die konstant während des Zyklus ist, aber Sprungstellen zwischen den Zyklen aufweist.

    Google Scholar 

  45. Dies sind keine Amplituden im streng physikalischen Sinne, da sie (in der hier beschriebenen Form) auch negative Werte annehmen können.

    Google Scholar 

  46. Anders King und Plosser, die die Zyklusamplitude als Aufschwungamplitude minus Abschwungamplitude definieren. Dies kann zu anderen Resultaten führen, z. B. bei Konsumdaten, deren Abschwungamplitude oft positiv ist. Meine hier gegebene Definition ist konsistent mit Burns und Mitchell, die ihrige nicht. Allerdings betrachten Burns und Mitchell auch für die Aufschwung- und Abschwungamplitude nur Absolutbeträge, worauf ich hier verzichte, um nicht sinnvolle Information zu vernichten. Vgl. Burns und Mitchell (1946, S. 131 ff.).

    Google Scholar 

  47. Jede Stadienkonformität wird mit ihrer Länge (in Monaten) gewichtet.

    Google Scholar 

  48. Wie unten gezeigt wird, scheint im ersten Quartal 1975 gerade ein neuer Konjunkturzyklus begonnen zu haben. Schränkt man die Stichprobe auf den Unterzeitraum 1975–1994 ein, kann die erste Beobachtung nicht als ein Wendepunkt identifiziert werden und der im Prinzip vollständige Konjunkturzyklus wird nicht als solcher erkannt.

    Google Scholar 

  49. Ich habe eine in GAUSS geschriebene Version des Bry-Boschan-Programms benutzt, die mir freundlicherweise von Mark Watson zur Verfügung gestellt wurde.

    Google Scholar 

  50. Bry und Boschan bearbeiteten Quartalsdaten, indem sie bei Stromgrößen den Quartalswert gleichmäßig auf die drei Monatswerte aufteilten, bei Bestandsgrößen und Preisen aber einfach jedem Monat den Quartalswert zuwiesen. Ich folge dieser Praxis hier. Eine Anpassung des Programms an Quartalsdaten ist zwar im Prinzip möglich, würde aber eine Reihe von willkürlichen Festsetzungen erfordern, z. B. bei der Konstruktion von Gewichten für eine “Spencer-Kurve” für Quartalsdaten. Ein solches Vorgehen scheint darüber hinaus nicht ratsam zu sein, da die Vergleichbarkeit mit dem NBER-Ansatz beeinträchtigt wäre ohne daß überzeugende Anhaltspunkte für dessen offensichtliche Nachteiligkeit vorlägen.

    Google Scholar 

  51. Es gibt kleine Abweichungen zwischen Bry und Boschans Beschreibung ihres Vorgehens und ihrem Computerprogramm. Tabelle 3.4/1 bezieht sich auf den tatsächlich programmierten Code.

    Google Scholar 

  52. Vgl. z. B. die Übersicht in Tichy (1994, S. 45), wo unterschiedliche Studien zitiert werden, die den Kurzzyklus Anfang der achtziger Jahre nicht identifizieren.

    Google Scholar 

  53. Dies ist für die Zwecke dieser Arbeit auch deshalb empfehlenswert, weil es sicherlich unsinnig und unzweckmäßig wäre, bei den anschließenden Simulationen von RBC-Modellen die dort generierten fiktiven Konjunkturverläufe einer erfahrungsbasierten Einzelkritik zu unterziehen.

    Google Scholar 

  54. Die Wendepunkte beziehen sich auf das Niveau der Zeitreihe, vgl. Tichy (1994).

    Google Scholar 

  55. Die Amplitude im Zyklus ist definiert als Summe der Absolutwerte der Amplituden in der Aufschwung- und der Abschwungphase. Man beachte, daß diese Eigenschaft sich nicht auf die mittleren Amplituden überträgt. Denn hier ist die mittlere Amplitude im Zyklus ein Durchschnitt über die Summe von Absolutbeträgen, während mittlere Auf- und Abschwungamplitude Durchschnitte über Werte sind, die nicht notwendigerweise alle dasselbe Vorzeichen aufweisen.

    Google Scholar 

  56. Dies ist nicht nur auf Zyklus 3 sondern auch auf Zyklus 1 (1967–1975) zurückzuführen. Haben die Investitionen einen Vorlauf (wie z. B. im einfachen Akzeleratormodell), so ist ein solches Phänomen nicht überraschend.

    Google Scholar 

  57. Obwohl das Bruttoinlandsprodukt den Referenzzyklus definiert, müssen die Konformitäten des Bruttoinlandsprodukts nicht unbedingt den Wert hundert annehmen. Für die Stadienkonformitäten ist dies klar: Steigt das BIP im Aufschwung, so bedeutet dies noch nicht, daß das BIP in jedem Aufschwungstadium steigt; es kann ohne weiteres in einem Aufschwungstadium fallen. Denn ein Rückgang des BIPs in einer Aufschwungphase wird von der Bry-Boschan-Prozedur nicht bereits als Ende des Aufschwungs aufgefaßt, sofern dieser Rückgang nicht mindestens fünf Monate anhält. Ein ähnlicher Sachverhalt kann dann sogar zu einem recht skurrilen Phänomen führen: Eliminert die Bry-Boschan-Prozedur zwei in Schritt V.A der Tabelle 3.4/1 identifizierte Wendepunkte aufgrund unzulänglicher Zyklus- oder Phasenlänge (Schritt V.D und V.E), so kann in dem verbleibenden größeren Zyklus das BIP im “Aufschwung” fallen oder im “Abschwung” steigen. (Interessierten Lesern stellt der Verfasser gern einen künstlichen Datensatz zur Verfügung, der diese Eigenschaft aufweist). Das Phänomen ist offensichtlich ein Schwachpunkt der von Bry und Boschan entwickelten computergestützten Datierungsmethode. Es sei jedoch darauf hingewiesen, daß derartige Konstellationen ziemlich selten sind. In den anschließend beschriebenen Simulationen tritt das Phänomen in ungefähr einem Prozent der Fälle auf und führt dann dazu, daß insbesondere die durchschnittliche Abschwungkonformität des Outputs nicht unbedingt stets gleich hundert ist.

    Google Scholar 

  58. Auf der Abszisse werden die Stadien I–IX, also business-cycle-Zeiteinheiten abgetragen. Diese Darstellung folgt Simkins (1994). Man könnte auch reale Zeiteinheiten abtragen, wie dies z. B. King und Plosser (1994) in ansonsten analogen Darstellungen tun. Für deutsche Daten ist die mittlere Dauer der einzelnen Stadien (in Monaten) allerdings sehr unterschiedlich: Für die Stadien I–IX ermittelt man 3, 21, 21, 21, 3, 4, 5, 4 und 3 Monate. In realen Zeiteinheiten würde die Graphik also den Aufschwungstadien sehr viel Raum geben, während die Abschwungstadien äußerst gedrängt erschienen: Allein der Darstellung des Stadiums IV würde mehr Platz gewidmet als allen folgenden Stadien.

    Google Scholar 

  59. Überhaupt scheint sich in jüngster Zeit in der Literatur ein erneutes Interesse an dem Burns-Mitchell-Ansatz abzuzeichnen. Neben den erwähnten Arbeiten benutzt Watson (1994) die Burns-Mitchell-Methodologie, um die Stabilisierungspolitik der Nachkriegszeit zu analysieren und Artis, Kontolemis und Osborn (1995) untersuchen internationale Aspekte der Konjunkturentwicklung für die G7-Staaten mit demselben Instrumentarium.

    Google Scholar 

  60. In den Graphiken weise ich “Konfidenzgrenzen” aus, die analog als Simulationsmittelwert plus/minus zwei geschätzte Standardfehler der simulierten Statistik definiert sind.

    Google Scholar 

  61. Ich habe die zuvor beschriebenen Kalibrierungen benutzt, die sich auf den Zeitraum 1975–1994 stützen, da nur dieser Zeitraum mit einer Steady-State-Interpretation vereinbar scheint. Angesichts der Tatsache, daß ansonsten die Untersuchungen dieses Unterabschnitts den gesamten Datensatz 1960–1994 nutzen, mag man dies für kritikwürdig halten. Es ist jedoch nicht wahrscheinlich, daß sich die Ergebnisse wesentlich verändern würden, wenn man die Kalibrierung auf 1960–1994 bezöge. Mit derselben Methodik wie zuvor erhielte man α = 0.70, β = 0.999, γ = 1.0056, ν = -0.31 und einen Steady-State-Anteil der Arbeitszeit von 17%. Mit Ausnahme von ν sind diese Werte nicht sehr von den oben verwandten verschieden, und ν betrifft lediglich den Trend der Arbeitsstunden, nicht aber die Modelldynamik. Bei der abschließenden Diskussion der im folgenden zu beschreibenden Resultate werde ich im übrigen eine tiefere Begründung beisteuern, warum die Ergebnisse der Adelman-Tests qualitativ nahezu invariant sind gegenüber einer Vielzahl von ökonomisch plausiblen Parametrisierungen des Modells.

    Google Scholar 

  62. Unter einer “Historie” verstehe ich hinfort eine simulierte Realisation des beschriebenen RBC-Modells mit 140 Beobachtungen. Die Realisation entsteht durch Simulation von (3.1/65) und (3.1/66) und Umrechnung auf den Wachstumspfad, d. h. die Ausgangswerte der Adelman-Tests sind trendbehaftete Niveauwerte. Die zugrundeliegenden stochastischen Störungen sind normalverteilte (Pseudo-)Zufallszahlen, die mit dem Zufallszahlengenerator von GAUSS, Version 3.2, erzeugt wurden. Einige dieser künstlichen Reihen wiesen weniger als zwei obere oder weniger als zwei untere Wendepunkte auf und ermöglichten daher u. U. nicht die Berechnung der vorgestellten Burns-Mitchell-Maße. Ich habe diese Reihen im folgenden nicht berücksichtigt. Dies führt zu einem Selektivitätsbias, dessen Korrektur, wie ich unten zeigen werde, meine Resultate noch verstärken würde.

    Google Scholar 

  63. Freilich um den Preis einer dann größeren Diskrepanz bei der Länge der durchschnittlichen Rezession.

    Google Scholar 

  64. Mintz selbst benutzte eine andere Terminologie. Ihr Begriff des “growth cycle” ist daher konzeptionell nicht mit dem hier verwandten Wachstumszyklus identisch, obwohl sie derartig definierte Zyklen ebenfalls analysiserte.

    Google Scholar 

  65. Man beachte, daß es sich um Wachstumsraten pro Quartal, nicht pro Jahr, handelt. Die Umrechnung auf Monatswerte ändert daran nichts; es wird für jeden Monat die Wachstumsrate des jeweiligen Quartals ausgewiesen, d. h. diese Wachstumsrate wird interpretiert als das Wachstum der zurückliegenden drei Monate.

    Google Scholar 

  66. Einige stark ausgeprägte Tiefpunkte werden vom Bry-Boschan-Programm nicht als Wendepunkte des Wachstumszyklus identifiziert, weil die Mindestanforderungen bezüglich der Phasenlängen nicht erfüllt sind. So z. B. im zweiten Quartal 1984, wo die auftretende Wachstumsstörung vermutlich auf den sechswöchigen Arbeitskampf in der Metallindustrie zurückzuführen ist.

    Google Scholar 

  67. Es handelt sich natürlich um die Amplituden der Wachstumsraten der jeweiligen Variablen. Der sprachlichen Vereinfachung wegen verzichte ich auf eine exakte Formulierung.

    Google Scholar 

  68. Die hier simulierten Reihen wurden unabhängig von den simulierten Reihen im Adelman-Test der Niveauwerte erzeugt. Diese Vorgehensweise erfolgte, um weitestgehend ausschließen zu können, daß die Testresultate von Besonderheiten einer speziellen Stichprobenstruktur abhängen.

    Google Scholar 

  69. Die folgende Diskussion bezieht sich stets auf prozentuale Abweichungen vom Steady-State, ohne daß ich dies jeweils gesondert hervorheben werde.

    Google Scholar 

  70. Daß die Konsumausgaben weniger stark steigen als der Zuwachs des gegenwärtigen Einkommens ist gerade Keynes’ “Fundamental-Psychologisches Gesetz”.

    Google Scholar 

  71. Eine wichtige Ausnahme ist der Konsum, der aufgrund des Konsumglättungsverhaltens weniger stark auf Technologieschocks als auf Änderungen im Kapitalbestand (d. h. im Vermögen) reagiert.

    Google Scholar 

  72. Die nachfolgende Diskussion bezieht sich ausschließlich auf die in der statistischen Literatur besonders gut erforschten Stichprobeneigenschaften von AR(1)-Prozessen. Die Konsumreihe des RBC-Modells ist jedoch, nach Approximation (3.5/9), ein ARIMA(1,1,1), dessen Stichprobeneigenschaften weit komplizierter und vielleicht auch noch nicht abschließend geklärt sind. Hassler (1994) hat die asymptotische Verteilung geschätzter Autokorrelationen von I(1)-Prozessen hergeleitet und gezeigt, daß bei einem einfachen random walk die geschätzten Autokorrelationen mit zunehmender Ordnung relativ schnell fallen, obwohl die wahren Autokorrelationen asymptotisch gegen Eins konvergieren. (In endlichen Stichproben sind die wahren Autokorrelationen integrierter Prozesse nicht zeitinvariant). Hassler zeigt darüber hinaus, daß ein integrierter Moving-Average-Prozeß IMA(1,1) mit negativer MA-Autokorrelation noch stärker nach unten verzerrte geschätzte Autokorrelationen aufweist als ein random walk, und daß umgekehrt die Verzerrung bei einem integrierten autoregressiven ARI(1,1) mit positiver Autokorrelation geringer ist als beim random walk. Aus diesen Eigenschaften kann man die Vermutung herleiten, daß der in (3.5/9) auftretende ARIMA(1, 1,1) eine geringere Verzerrung der geschätzten Autokorrelationen hat als der reine random walk, denn die positive Autokorrelation des AR-Teils wirkt der negativen Autokorrelation des MA-Teils entgegen, und da die Wurzel des AR-Teils größer ist als die Wurzel des MA-Teils, ist anzunehmen, daß der erste Effekt dominiert.

    Google Scholar 

  73. In allen Simulationen dieser Arbeit wurden normalverteilte Pseudo-Zufallszahlen mit dem GAUSS-Zufallszahlengenerator, GAUSS-Version 3.2, erzeugt.

    Google Scholar 

  74. Die “simulierte Spektraldichtung” muß mit der “wahren Spektralschätzung” statt mit der “wahren” spektralen Dichtefunktion verglichen werden, um die abzuleitenden Schlußfolgerungen unabhängig von den Verzerrungs- und Glättungseigenschaften des Schätzverfahrens zu machen.

    Google Scholar 

  75. Es existiert natürlich eine Vielzahl von alternativen Schätzmethoden, namentlich die verallgemeinerte Momentenschätzung (GMM), die z. B. von Singleton (1988) und Burnside (1995) propagiert wird. Diese hat, wie Wickens (1995) hervorhebt, den Vorzug, daß die tiefen Parameter unmittelbar aus den Euler-Gleichungen, d. h. vor der Linearisierung des Modells geschätzt werden. Allerdings ist ihre Implementation nicht trivial, da in den Euler-Gleichungen zahlreiche schwierig oder nicht unmittelbar zu beobachtende Variablen auftreten (Kapitalbestand, erwarteter Realzins etc.). Zudem ist die GMM-Schätzung in den im nächsten Kapitel zu betrachtenden Modellen mit Rationierungsmechanismen problematisch, weil in den Euler-Gleichungen zusätzliche Lagrange-Parameter auftreten, wenn eine Marktseite rationiert ist. Für die in jüngster Zeit zur Schätzung nichtlinearer dynamischer Modelle vorgeschlagenen simulationsgestützten Schätzer (vgl. Gouriéroux, Monfort und Renault (1993), Smith (1993)) präsentiert Coenen (1996) eine Monte-Carlo-Studie, die suggeriert, daß deren Qualität erheblich geringer ist als die der ML-Schätzung.

    Google Scholar 

  76. Ich illustriere im folgenden die Schätzung der Modellparameter anhand der prozentualen Abweichungen der Modellvariablen vom Steady State des KPR1-Modells. Diese sind, wie ich in Kapitel 3 gezeigt habe, stationäre und invertierbare Prozesse. Da Wachstumsraten und gross ratios ebenfalls stationäre Größen sind, könnte man eine Schätzung auch auf diesen basieren lassen. Allerdings sind im KPR1-Modell Wachstumsraten und gross ratios überdifferenziert und daher nicht invertierbar. Eine Einheitswurzel im MA-Teil kann aber unter Umständen zu Schwierigkeiten im Konvergenzverhalten der ML-Schätzung führen, so daß sich im KPR1-Modell die prozentualen Abweichungen vom Steady-State für die Schätzung anbieten.

    Google Scholar 

  77. Man kann die exakte Likelihood-Funktion schätzen, indem man Kalman-Rekursionen auf die State-Space-Darstellung (3.1/63) und (3.1/64) anwendet, vgl. Lütkepohl (1991) und Hamilton (1995). Allerdings zeigt Nelson (1988), daß ML-Schätzungen von State-Space-Modellen, in denen Variablen einen stochastischen Trend haben, starken Verzerrungen unterliegen können. Aufgrund der von Phillips (1987, 1988) entwickelten Theorie “fast integrierter” Zeitreihen steht zu vermuten, daß dieses Problem auch bei stationären Variablen auftritt, die durch Lag-Polynome mit Wurzeln nahe am Einheitskreis charakterisiert werden. Insofern ist eine Schätzung der tiefen Parameter, die unmittelbar auf der State-Space-Darstellung des KPR-Modells aufbaut, vermutlich nicht zu empfehlen.

    Google Scholar 

  78. Der englische terminus technicus ist “shallow parameters”, vgl. z. B. Cooley und LeRoy (1985). Von den deutschen Übersetzungsmöglichkeiten des Wortes “shallow” — u. a. seicht, flach, oberflächlich — wirkt letztere wohl am angemessensten. Man beachte, daß “reduzierte-Form-Parameter” den Sachverhalt nicht sinnvoll beschreibt, da auch in einer strukturellen Schreibweise dieses VARMAs die “strukturellen” Parameter Oberflächenparameter sind, die in funktionaler Form von den tiefen Parametern abhängen.

    Google Scholar 

  79. Alle ML-Schätzungen dieser Arbeit beruhen auf in GAUSS 3.2 geschriebenen Routinen des Verfassers. Diese Routinen nutzen das GAUSS-Modul MAXLIK für die eigentliche Maximierung der Log-Likelihood-Funktion.

    Google Scholar 

  80. Zum Teil waren derartige Schätzungen auf einem 486er PC mit 66 Mhz 1 akttrequenz nach acht Stunden noch nicht konvergiert.

    Google Scholar 

  81. Das von mir durchgehend benutzte Konvergenzkriterium stellt auf das UAUSS-Konzept des “relativen Gradienten” ab. Der “relative Gradient” besteht komponentenweise aus den numerisch berechneten Elastizitäten der Zielfunktion bezüglich der geschätzten Parameter. Ich habe Konvergenz unterstellt, sobald der relative Gradient in jeder Komponente kleiner als 0.0001 war, was ein nach meinen Erfahrungen absolut hinlängliches Kriterium darstellt.

    Google Scholar 

  82. Wie aus der VARMA-Darstellung (3.5/5) hervorgeht, weisen die Residuen derartiger Regressionen eine MA-Struktur auf, sofern das KPR-Modell der datengenerierende Prozeß ist. Diese erfordert im Prinzip erneut ein iteratives Schätzverfahren, was bei dieser Vorabschätzung aber vermieden werden soll. Alternativ kann die MA-Struktur durch eine hohe Zahl verzögert endogener Variabler approximiert werden.

    Google Scholar 

  83. Ich habe mit dem optimalen Abbruchzeitpunkt experimentiert und mich für hundert Iterationen entschieden, da von jenen Schätzungen, die nach hundert Iterationen noch nicht konvergiert waren, die weitaus meisten auch nach tausend Iterationen noch keine Konvergenz erzielt hatten.

    Google Scholar 

  84. Das Konzept der Konsistenz einer Schätzfunktion ist im Rahmen fehlspezifizierter Modelle natürlich nicht mehr unbedingt sinnvoll.

    Google Scholar 

  85. Ich verzichte im folgenden auf die Berücksichtigung von Reallohn- und Realzinsreihen, da bei der empirischen Umsetzung der hier diskutierten Schätzungen eine Einbeziehung der Faktorpreise zu den in Kapitel 2 diskutierten Erfassungs- und Meßbarkeitsproblemen führen würde.

    Google Scholar 

  86. Ein weiterer Nachteil dieses Schätzverfahrens besteht darin, daß die ML-Iterationen im fehlspezifizierten Modell nur sehr langsam konvergieren.

    Google Scholar 

  87. Ich spreche von einer gewichteten Summe, da das folgende Argument für jede mit positiven Gewichten gewichtete Summe der univariaten Likelihood-Funktionen Gültigkeit hat. Ich betrachte im Verlauf dieser Arbeit allerdings nur den Spezialfall einer einfachen Summe, d. h. den Fall von auf Eins festgesetzten Gewichten.

    Google Scholar 

  88. Die Varianz der Schocks wurde sowohl im KPR1- als auch im KPR2-Modell mit Blick auf die Wachstumsrate des Outputs verankert. Diese Entscheidung war offenbar unzureichend, da sie die Varianz der anderen Wachstumsraten außer acht ließ. Sie führt dazu, daß für die meisten anderen Variablen die vom Modell implizierte Varianz der jeweiligen Wachstumsrate kleiner ist als in der Empirie beobachtet, vgl. Tabelle 2.1.2/3, Tabelle 3.2.1/2 und Tabelle 3.2.2/1. Es wäre sinnvoller gewesen, diesem Sachverhalt Rechnung zu tragen, indem eine höhere Varianz kalibriert worden wäre, die zwar zu einem Überschießen der Varianz bei der Wachstumsrate des Outputs geführt hätte, dafür aber zugleich eine bessere Anpassung an die Varianzen anderer Wachstumsraten hätte gewährleisten können.

    Google Scholar 

  89. Dies ist um so bemerkenswerter, als das KPR2-Modell ja das sparsamer parametrisierte ist.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 1998 Physica-Verlag Heidelberg

About this chapter

Cite this chapter

Lucke, B. (1998). Das prototypische RBC-Modell. In: Theorie und Empirie realer Konjunkturzyklen. Studies in Contemporary Economics. Physica, Heidelberg. https://doi.org/10.1007/978-3-642-52081-5_3

Download citation

  • DOI: https://doi.org/10.1007/978-3-642-52081-5_3

  • Publisher Name: Physica, Heidelberg

  • Print ISBN: 978-3-7908-1148-3

  • Online ISBN: 978-3-642-52081-5

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics