Skip to main content

Schätz- und Testansätze für die Theorie der Kreditrationierung und ihre Relevanz für die Entwicklungsländer

  • Chapter
Kreditrationierung in Entwicklungsländern

Part of the book series: Empirische Finanzmarktforschung / Empirical Finance ((EFF))

  • 24 Accesses

Zusammenfassung

Im vorhergehenden Teil wurden theoretische Modelle dargestellt, die die Rationierung der Investitionskredite bei symmetrischer und asymmetrischer Informationsverteilung erklären. In diesem Teil soll nach einer Bestandsaufnahme der Schätzmethoden die empirische Gültigkeit der Rationierungshypothese für die Entwicklungsländer anhand des Fallbeispiels Marokko analysiert werden.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 44.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 59.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

References

  1. In dieser Arbeit werden Ansätze betrachtet, die auf eine direkte Überprüfung der dargestellten Theorie bzw. der Hypothesen aus dieser Theorie abzielen. Daneben sind auch Ansätze entwickelt worden, die über die Analyse des Investitionsverhaltens von Unternehmen indirekt auf Kreditrationierung schließen. Die Vorgehensweise besteht darin, die Investitionsfunktion der Unternehmen in Abhängigkeit von der Vorteilhaftigkeit der Investition und der eigenen Finanzmittel zu formulieren und die Koeffizienten — oft für einzelne nach Größen klassifizierte Unternehmensgruppen — entsprechend zu schätzen. Dabei wird die Vorteilhaftigkeit nach der Tobinschen g, nach der Akzelerator- oder der neoklassischen Theorie der Nachfrage modelliert. Im Falle einer Kreditrationierung ist entgegen der Modigliani-Miller-These von der Irrelevanz finanzieller Faktoren wie Dividendenzahlungen, Kapitalstruktur, cash flow usw. ein hoher Einfluß der Eigenmittel auf die Investitionsentscheidung zu erwarten, da die Kreditrationierung eine Verteuerung der Finanzierungskosten mit sich bringt. Je höher dieser Einfluß für eine bestimmte Unternehmensklasse ist, desto höher ist die Finanzrestriktion, der sie ausgesetzt ist. Fazzari et al. (1988), Whited (1992) schätzen die Effekte der eigenen Finanzmittel für das Investitionsverhalten für die USA; Devereux/Schiantarelli (1990) für Großbritannien, Hoshi et al. (1991) für Japan, Schaller (1993) für Kanada und Eiston/Albach (1995) für die BRD. Ein Überblick findet sich in Barran (1994, S. 9ff.). Für die Entwicklungsländer sind für Kolumbien die Arbeiten von Tybout (1983, 1984), für Pakistan die Arbeit von Nabi (1989), für Brasilien, Kolumbien, Indien, Korea und die Türkei die Arbeit von Dailami/Giugale (1991), für Indonesien die Arbeit von Harris et al. (1994), für Ecuador die Arbeit von Jaramillo et al. (1996) erschienen. Alle diese Arbeiten schätzen einen signifikanten Effekt der Liquiditätsvariablen auf die Investition und schließen auf Kreditrationierung.

    Google Scholar 

  2. Bei einer Aggregation der Nachfrage D und des Angebots S über mehrere heterogene Teilmärkte, auf denen eine Überschußnachfrage und ein Überschußangebot koexistieren, führt die einzelwirtschaftlich gültige Minimumregel für die Transaktionsmenge Q, Q = min(D, S) zu einem Aggregat der Form Q = min(D, S), so daß hier die Minimumregel eine Fehlspezifikation darstellt. Muellbauer (1978) hat als erster die Bedeutung der Aggregationsfehler im Rahmen der Rationierungstheorie für den Arbeitsmarkt hervorgehoben und die tatsächliche Transaktionsmenge abgeleitet. Hajivassiliou (1983) u. a. hat eine Möglichkeit für die Schätzung solcher Modelle aufgezeigt. Die praktische Relevanz der Aggregationsfehler bei der Schätzung ist nach Quandt (1986) gering. Quandt (1986) hat durch eine Monte-Carlo-Studie gezeigt, daß insbesondere bei einer geringen Anzahl von Teilmärkten, wie dies in den Entwicklungsländern die Regel sein wird, oder bei kleinen Stichproben die ML-Schätzung eines wegen der Minimumregel fehlspezifizierten Modells gute Resultate liefert.

    Google Scholar 

  3. Die Bach-Huizenga- Analyse wurde gerade wegen der Klassifizierung der Banken und der Annahme einer konstanten relativen Nachfrage bei den verschiedenen Kreditnehmergruppen kritisiert. Siehe hierzu Carson (1961), Tussing (1963) und die Repliken von Bach/Huizenga (1961b, 1963).

    Google Scholar 

  4. Unter statistischen Gesichtspunkten führt diese Vernachlässigung der Nachfrage und die Anwendung der OLS auf ein Eingleichungsmodell zu inkonsistenter Schätzung, da hier ein unvollständiges Modell mit einer Gleichung und mehreren interdependenten Variablen (Kreditvolumen, Zinssatz) geschätzt wird. Auf diese Schwäche weisen Silber und Polakoff selbst hin, gehen aber von einer gültigen Schätzung aus: “ Since ordinary least squares (OLS) was used as the estimating procedure, all the estimated coefficients in the equations are inconsistent in the strict statistical sense. However, in light of the small differences other investigators have found between OLS and (say) two-stage least squares (TSLS) estimates, it is unlikely that our results would be substantially altered had TSLS been used.”(Silber/Polakoff, 1970, S. 90).

    Google Scholar 

  5. Gupta (1972) stellt in einem theoretischen Modell den Zusammenhang zwischen der postulierten Diskriminierung von Kleinunternehmern und Kreditwürdigkeit her. Danach hängt das Kreditrisiko einer Investition positiv von ihrem erwarteten Ertrag und negativ von der Leverage des Unternehmens ab. Ausgehend von der Annahme einer höheren Profitabilität und einer beobachteten kleineren Leverage bei größeren Unternehmern ist das Kreditrisiko der kleineren Unternehmen hoch, was zu einer Diskriminierung dieser Unternehmen führt. Auch wenn die aufgestellte Annahme der höheren Profitabilität größerer Unternehmen nicht unumstritten ist, zeigen die jüngsten empirischen Arbeiten zur Unternehmensfinanzierung (siehe weiter oben Fußnote 1 dieses Kapitels), daß Rationierung vor allem kleine Unternehmen trifft. Eine 1994 im Auftrag des Deutschen Bundesministeriums für Bildung, Wissenschaft, Forschung und Technologie vom Zentrum für Europäische Wirtschaftsforschung durchgeführte Umfrage zeigt, daß der Zugang zu Fremdkapital für kleinere Firmen in der BRD eingeschränkt ist (siehe Harhoff/Licht et al. [1996]).

    Google Scholar 

  6. In vielen Entwicklungsländern dürfen Kredite an sog. vorrangige Sektoren oft nicht gekündigt werden (vgl. Weltbank, 1989, S. 95). Überfällige Kredite müssen durch Umschuldungen kapitalisiert werden.

    Google Scholar 

  7. Thies (1989) analysiert anhand einer linearen Regression die Determinanten dieser Verringerung der Kreditrationierung. Nach seiner Studie ist die Abschaffung der Zinsregulierung in den USA (die Regulation Q) der wesentliche Faktor dieser Veränderung.

    Google Scholar 

  8. Der Ansatz läßt sich analog für eine Untersuchung der Rationierung der Kredite für Privatpersonen anwenden. In diesem Fall wird versucht, die Rationierung in Abhängigkeit vom Einkommen und Vermögen, Geschlecht, Alter, Familienstand, usw. zu analysieren. Siehe hierzu z. B. die Untersuchung Maddalas (1983a, S. 24) für Hypothekarkredite. Im Rahmen der entwicklungspolitischen Forschung hat Zeller (1994) diesen Ansatz zur Untersuchung der Determinanten der Kreditnachfrage und Kreditrationierung für Kredite an Privatpersonen und Personengruppen auf dem Agrarmarkt Madagaskars während der Periode 10.1990–09.1992 angewendet. Die Rationierung wird in seiner Schätzung hauptsächlich durch das Vermögen und den Leverage der Kreditnachfrager bestimmt.

    Google Scholar 

  9. Winker (1996) führt diese Schätzung sowohl für die Variablen “fehlendes Eigenkapital” und “fehlendes Fremd-kapital” als auch für eine durch eine ODER-Verknüpfung gebildete Variable “fehlendes Gesamtkapital” durch. Die Ergebnisse der drei Schätzungen bleiben im wesentlichen unverändert (siehe Winker, 1996, Tab. 2.7, S. 95).

    Google Scholar 

  10. Bei einer Spezifikation seines Modells, in der die Firmengröße statt mit Anzahl der Beschäftigten mit 3 Größenklassendummies berücksichtigt wird, wird die Heterogenität auch in Form von stochastischen Effekten in einem Probitmodell berücksichtigt. Diese Effekte weisen eine sehr geringe Signifikanz in seiner Schätzung aus, so daß er in allen übrigen Schätzungen die stochastischen Effekte nicht berücksichtigt (siehe Winker, 1996, S. 91).

    Google Scholar 

  11. Zur Schätzung von Modellen für qualitativ abhängige Variablen mit Paneldaten und Berücksichtigung der Heterogenität siehe Maddala (1987) und Ronning (1991, S. 189ff.)

    Google Scholar 

  12. Eine Einführung in die Theorie der integrierten und kointegrierten Zeitreihen geben Campbell/Perron (1991), Banerjee/Hendry (1992) und Banerjee et al. (1993). SpezieE für die integrierten Reihen siehe Diebold/Nerlove (1990), Stock (1994a); für die Kointegrationsanalyse (und Vektorautoregression) Watson (1994). Für einen geschichtlichen Abriß der Theorie siehe Hendry (1986).

    Google Scholar 

  13. Eine Störvariable u t wird als white noise (“weißes Rauschen”) bezeichnet, wenn u t eine unabhängige und identisch verteilte Zufallsvariable mit Erwartungswert E(u t ) = 0 und zeitinvarianten Varianzen und Kovarianzen und E(u t u τ) = 0 für tτ ist.

    Google Scholar 

  14. Diese Implikation wird in der Kointegrationstheorie als Granger-Repräsentationstheorem bezeichnet, wonach eine Kointegrationsbeziehung eine vektorautoregressive-, moving-average- und eine Fehlerkorrekturdarstellung impliziert (vgl. Engle/Granger, 1987, S. 255f.).

    Google Scholar 

  15. Die Modellierung einer Zeitreihe in Form eines AR(1) Prozesses zur Überprüfung der Nichtstationarität ist nicht unproblematisch, wenngleich sie auch die meist erforschte und angewendete Modellierung ist. Sie bedingt eine asymmetrische Behandlung der Zeitreihen bei der Null- und der Alternativhypothese: Unter der Nullhypothese (ρ = 1) weisen z. B. für ein Modell mit Drift (math) die Daten einen Trend auf, wobei α den Trend angibt. Unter der alternativen Hypothese (ρ > 1) sind die Daten stationär um das Niveau E(r t ) = α/(1 - ρ), wobei jetzt α das Niveau bestimmt (vgl. Banerjee et al., 1993, S. 100f. u. Schmidt/Phillips, 1992, S. 258). Bhargava (1986) hat eine alternative Modellierung für den Einheitswurzeltest als Lösung vorgeschlagen. Sie basiert auf der Formulierung r t = α + x t , x t = ρ x t-1 + u t . Zu Schätzmethoden für derartige Modelle siehe Bhargava (1986), Schmidt/Phillips (1992), Schmidt/Lee (1991) und Lee/Schmidt (1994).

    Google Scholar 

  16. Bei der Analyse der Stationarität einer Zeitreihe werden in diesem Überblick Testmethoden vorgestellt, die Nichtstationarität als Nullhypothese formulieren. Alternativ kann die Stationarität einer Zeitreihe durch Tests gegen die Einheitswurzel (Tests mit Stationarität als Nullhypothese) geprüft werden. Solche Tests basieren auf einer moving-average-Darstellung der Zeitreihe der Form Der Test gegen die Einheitswurzel ist ein Test für die Hypothese H 0: da in diesem Fall x t = x 0 ist und damit r t = x 0 + u t . Für diese Tests siehe Kwiatkowski et al. (1992), Stock (1994b). Für den Fall, daß zusätzlich ein AR-Prozeß in r t berücksichtigt wird, so daß (3.2) die Form (math) annimmt, siehe Leybourne/McCabe (1994).

    Google Scholar 

  17. Alternativ kann ein Test gegen die Einheitswurzel auf die Differenzen (math) angewendet werden; für solche Tests siehe Tanaka (1990), Saikkonen/Luukkonen (1993) und Arellano/Pantula (1995). Ein Überblick findet sich bei Stock (1994a, S. 2796ff.) und Fuller (1996, S. 629ff.).

    Google Scholar 

  18. Die Annahme der Nullhypothese in Gleichung (3.1) anhand der t-Statistik mit den von Fuller und Dickey abgeleiteten kritischen Werten unterstellt, daß die Daten einem random walk ohne Drift folgen. Ist der wahre datenerzeugende Prozeß ein random walk mit Drift, müssen die kritischen Werte von Schmidt (1990, Tabellen 1–8) verwendet werden.

    Google Scholar 

  19. Die von Choi vorgeschlagene Teststatistik ist nicht deckungsgleich mit dem üblichen Durbin-Hausman-(Spezifikations)Test (math) Choi-Test ist eine Statistik vom Durbin-Hausman-Typ in dem Sinne, daß zwei Schätzer gegenübergestellt werden.

    Google Scholar 

  20. Wie erwähnt sind die Test-Statistiken, auch der Durbin-Watson-Test, bei autoregressiven Modellen verzerrt. Daher müssen zur Überprüfung der Autokorrelation andere Test-Statistiken herangezogen werden. Die Box-Pierce bzw. die Box-Ljung-Statistik stellen zwei einfach durchzuführende Statistiken zur Überprüfung der Autokorrelation in einer Zeitreihe dar. Sie basieren auf den Statistiken (math) wobei r τ die Stichprobenkorrelation zum Lag τ ist Problematisch bei diesen Statistiken ist die Wahl der Laglänge p, die den Ausgang der Statistik verzerren kann (vgl. Harvey, 1994, S. 216f.); siehe auch Maddala (1992, S. 540ff.).

    Google Scholar 

  21. Die in (3.4) und (3.5) angegebene Statistik weicht geringfügig von der von Phillips (1987) und Phillips/Perron (1988) angegebenen Statistik ab. Statt (math) wird dort (math) mit r 0 = 0, verwendet. Der Vorteil der in (3.4) und (3.5) formulierten Statistik ist ihre Allgemeingültigkeit, unabhängig davon, ob α t = 0, α t = α oder α t = α 0 + α 1 t (vgl. Hamilton, 1994, Fußnote 9, S. 511).

    Google Scholar 

  22. Das (theoretische) Spektrum eines Prozesses x t mit Erwartungswert E(x t ) = μ definiert alle Autokovarianzen des Prozesses γ j - E(x t - μ)(x t-j - μ) für eine bestimmte Frequenz w und wird formal durch die Fouriertrans-formation der Kovarianzen angegeben: Das für eine bestimmte Stichprobe T definierte empirische Spektrum der Zeitreihe wird als Periodogramm bezeichnet und wird angegeben durch Entsprechendes gilt für das Spektrum eines (k × 1)-Vektors Xt mit Erwartungswert u. Die Kovarianzen sind nun durch die (k × k)-Matrix Γ j = E[(x t - u)(x t-j - u)′] gegeben; das Spektrum durch Das Spektrum s des Prozesses läßt sich konsistent durch eine Glättung des entsprechenden Periodogramms schätzen. Zur Frequenz Null nimmt die Schätzung die Form an: mit κ als Gewichtung, die auch als Kern bezeichnet wird. Als Glättung können alternativ der Bartlett-, Parzen-und quadratische Kern angewendet werden. Sie sind für z = j/ (l + 1) mit l als eine bestimmte, oft ad hoc gesetzte Laglänge jeweils definiert durch: Für eine Darstellung der Fourier- und Spektralanalyse siehe z. B. Anderson (1994, Kap. 9) u. Fuller (1996, Kap. 3 u. 4).

    Google Scholar 

  23. Bei der Darstellung der Kointegrationsanalyse in einer Einzelgleichung wird von einer a priori festgelegten Kausalbeziehung zwischen den Variablen d t (exogene Variable) und r t (endogene Variable) ausgegangen. Die möglichen Interdependenzbeziehungen zwischen den Variablen werden ausgeblendet. Will man die langfristigen Beziehungen zwischen den Variablen unter Berücksichtigung dieser Interdependenzen analysieren, dann ist die Kointegrationsanalyse anhand der OLS-Schätzwerte nicht mehr anwendbar. Diese Interdependenzen können durch die Maximum-Likelihood-Prozedur von Johansen (1988,1991) und Johansen/Juselius (1990) untersucht werden. Die Johansen-Prozedur ermöglicht durch eine full-information-maximum-likelihood-Schätzung (FIML-Schätzung) der Fehlerkorrekturdarstellung der Kointegrationsbeziehung, die Anzahl aller unabhängigen Kointegrationsbezie-hungen in einem Gleichungssystem, dem sog. Kointegrationsrang, und die Kointegrationsparameter zu bestimmen. Einen alternativen Ansatz, die Reintegration in einem interdependenten System zu analysieren, hat jüngst Bierens (1997) vorgeschlagen. Wie die Johansen-Prozedur, basiert auch die Bierens-Prozedur auf der Lösung eines Eigenwertproblems, kommt aber ohne Annahmen über den datenerzeugenden Prozeß aus.

    Google Scholar 

  24. Unter einer Scheinregression (“spurious regression”) versteht man die Regression nichtstationärer oder unabhängiger I(1) Prozesse untereinander. Granger/Newbold (1974) und insbesondere Phillips (1986) haben gezeigt, daß bei der Scheinregression das Bestimmtheitsmaß R 2 und die Regressionsparameter die Abwesenheit der Beziehung zwischen den Variablen nicht widerspiegeln und gegen Null tendieren, sondern Zufallsvariablen mit nichtdegenerierter Verteilung sind, die mitunter höhere Werte aufweisen und fälschlicherweise eine signifikante Abhängigkeit anzeigen.

    Google Scholar 

  25. Die von Phillips/Ouliaris (1990) abgeleiteten Werte für den Fall ohne Trend und Drift, mit Drift, mit Drift und Trend in der Kointegrationsgleichung sind unter der Annahme Ed t ) = 0 abgeleitet worden (siehe Phillips/Ouliaris, 1990, S. 167). Weist dagegen die Variable d t einen Trend auf, Ed t ) = α, enthält die Kointegrationsgleichung (3.7) aber nur einen Drift, ist dieser Fall nach Hansen (1992) ebenso wie der mit Trend in der Kointegrationsgleichung zu behandeln. Die Statistik ist aEerdings nicht mit den kritischen Werten für die Anzahl der Regressoren n, sondern mit n — 1 zu führen. In dem — so wie hier behandelten — Spezialfall n = 1 sind diese Werte nicht in Phillips/Ouliaris (1990), sondern in Hansen (1992, S. 104) zu finden.

    Google Scholar 

  26. Für eine Darstellung der Theorie der linearen Approximation (lineare Prognose) siehe z. B. Schlitt-gen/Streitberg (1997, S. 517ff.) und Hamilton (1994, S. 74ff.).

    Google Scholar 

  27. Park (1992) hat mit der canonical cointegrating regression einen ähnlichen Kointegrationstest entwickelt, bei dem nicht nur wie in Phillips/Hansen (1990) die endogene Variable transformiert und danach die Regressionskoeffizienten korrigiert werden, sondern sowohl die endogenen als auch die exogenen Variablen transformiert werden, um danach direkt OLS-effiziente Koeffizienten zu erhalten. Beide Vorgehensweisen sind eng miteinander verwandt und asymptotisch äquivalent. Hier wird sich die Darstellung auf die Phillips-Hansen-Methode beschränken.

    Google Scholar 

  28. Siehe hierzu die Monte-Carlo-Ergebnisse für die bias in den Tabellen 1–3 in Stock/Watson (1993, S. 796f.).

    Google Scholar 

  29. Die Theorie der Kreditrationierung macht keine unmittelbaren Aussagen über die Beziehungen zwischen Geldmarkt- und Kreditzins. Die Beziehungen zwischen Geld- und Depositenzins einerseits und Geld- und Kreditzins andererseits bleiben so unberücksichtigt. Scholnick (1991) versucht im Rahmen eines sog. kombinierten Modells, diese Beziehungen zu erklären. Nach diesem Modell wird langfristig der Kreditzins nur durch den Geldmarktsatz (die Grenzkosten der Liquiditätsversorgung) bestimmt. Das Ausfallrisiko des Kredites kann daher nur kurzfristige Folgen haben, und damit wird Kreditrationierung nicht als gleichgewichtiges, sondern als transitori-sches Phänomen betrachtet (vgl. Scholnick, 1991, S. 7). Sein Ansatz bleibt insofern unbefriedigend, als er diese Beziehungen per Annahme einführt.

    Google Scholar 

  30. Das folgende Aktienbeispiel von Hamilton (1994, S. 306f.) verdeutlicht diesen Unterschied: Der Kurs einer Aktie wird nach der Theorie von ihrer Dividende bestimmt (Kurs als Barwert zukünftiger Dividenden). Würde man die Kausalitätsbeziehungen nach dem Granger-Kausalitätskonzept prüfen, würde sich eine umgekehrte Kausalitätsrichtung zeigen: nicht die Dividenden würden den Kurs “verursachen”, sondern umgekehrt der Kurs die Dividenden. Der Kurs ist daher für die Prognose zukünftiger Dividenden eine geeignete Variable.

    Google Scholar 

  31. Neben dem F-Test sind eine Reihe anderer Tests für die Überprüfung der Kausalität vorgeschlagen worden, u. a. der von Sims (1972), Pierce/Haugh (1977), Geweke (1982, 1984) und Geweke et al. (1983). Die komparative Monte-Carlo-Studie von Geweke et al. (1983) zeigt, daß der F-Test bessere Ergebnisse liefert, so daß die in dieser Arbeit vorgenommene Darstellung sich auf diesen Test beschränkt.

    Google Scholar 

  32. Untersuchungsgegenstand bei Sofianos et al. (1990) ist in erster Linie der Transmissionsmechanismus der Geldpolitik. Sie disaggregieren daher die Kredite, je nachdem, ob sie im Rahmen vereinbarter Kreditlinien vergeben werden oder nicht (“commitment loans” und “noncommitment loans”), um die verschiedenen Transmissionswege (jeweils Zinsen- und Kreditverfügbarkeit) aufzuzeigen. Für die Theorie der Kreditrationierung sind nur Kredite der zweiten Art relevant, worauf sich auch die hier dargestellten Ergebnisse beziehen. Kredite, die auf bestimmten vorab getroffenen Verpflichtungen beruhen, sind per definitionem — wie auch die Ergebnisse Sofianos et al. (1990) zeigen — von einer Rationierung nicht betroffen.

    Google Scholar 

  33. Einen Überblick über ökonometrische Ungleichgewichtsmodelle bieten Quandt (1982), Maddala (1983a, Kap. 10; 1986) und Gourieroux/Laffont/Monfort (1984). Eingehend werden Ungleichgewichtsmodelle in Bowden (1978a) und Quandt (1988) behandelt.

    Google Scholar 

  34. Modell A kann geschrieben werden in Form von Dabei ist δ t eine (1,0)-Variable, die die Regime angibt: Die Bezeichnung “stochastische Regimezuordnung” im Modell beruht darauf, daß diese Variable stochastisch definiert ist.

    Google Scholar 

  35. Folgende empirische Analysen können dazu aufgeführt werden: Maddala/Nelson (1974) illustrieren ihren Beitrag mit einer Schätzung der Variablenkoeffizienten für den US-amerikanischen Wohnungsbaumarkt; Portes/Winter (1980) schätzen Nachfrage von und Angebot an Konsumgütern in den früher zentral verwalteten Volkswirtschaften der ehemaligen DDR, Ungarns, Polens und der ehemaligen Tschechoslowakei; Stenius (1986, S. 89ff.) verwendet die Spezifikation zu einer vergleichenden Analyse des finnischen Rentenmarktes. Für die Analyse der Rationierung von Investitionskrediten sind — wie weiter unten ausführlich dargestellt wird — bisher die Arbeiten von Laffont/Garcia (1977), Artus (1984), King (1986) und Winker (1996) erschienen.

    Google Scholar 

  36. Treten Schwierigkeiten beim Maximierungsvorgang auf, dann müssen alternative Schätzmethoden für das Modell A versucht werden. Als alternative Schätzverfahren kommen in Betracht: (1) die Anwendung des EM-Algorithmus (siehe Hartley (1977) u. Quandt[1988, S. 55ff.]), (2) die nichtlineare Kleinst-Quadrate-Methode (siehe Nasim/Satchell (1982), Stalder (1984); Quandt (1988, S. 45ff.) für einen Überblick) und (3) die Pseudo-Maximum-Likelihood-Schätzer von Gourieroux/Monfort/Trognon (1984) (siehe Laroque/Salanié (1994) für einen Überblick und einen Monte-Carlo-Simulationsvergleich ihrer Eigenschaften).

    Google Scholar 

  37. Wegen der schweren Handhabbarkeit der auf der Normal vert eilung basierenden Likelihoodfunktion ist es auch denkbar, mit relativ einfach integrierbaren, der Normalverteilung ähnlichen Dichtefunktionen wie der Sargan-Dichte oder der logistischen Dichte zu arbeiten. Für die Sargan-Dichte haben Goldfeld/Quandt (1981, S. 154) in einer Monte-Carlo-Studie gezeigt, daß die Schätzer aus einer Sargan-Likelihoodfunktion schwer von den Schätzern aus der Normal-Likelihoodfunktion zu unterscheiden sind. Stenius (1986, S. 113f.) erhält in ihrer Fallanalyse des finnischen Rentenmarktes ganz andere Schätzer für eine normale und eine logistische Likelihoodfunktion.

    Google Scholar 

  38. In einer klassischen linearen Regression y t = α + βx t + u t gilt für den Parameter β: β = (math). Siehe z. B. Schneeweiß (1990, S. 44).

    Google Scholar 

  39. Harvey (1975) schlägt vor, die Varianz der rekursiven Residuen mit T - k - 1 statt wie Brown et al. (1975) mit T - k zu berechnen, um die Testgüte zu erhöhen.

    Google Scholar 

  40. Asymptotisch ist die Testgüte des Cusum-Tests und des Cusumsq-Tests von der Art des Strukturbruchs abhängig und mitunter hoch (siehe Ploberger (1989), Ploberger/Krämer [1990]). Für kleine Stichproben weisen allerdings die Tests, wie die verschiedenen Monte-Carlo-Studien von Garbade (1977), Hackl (1980) und McCa-be/Harrison (1980) zeigen, eine niedrige Testgüte auf.

    Google Scholar 

  41. Gubitz (1984) verwendet diese Spezifikation bei der Analyse des Geldmarktes in Frankreich und in der BRD; Stenius/Viren (1984) für die Analyse des Arbeitsmarktes in den USA; Bauer (1984) und Hujer (1986) für die Analyse des Arbeitsmarktes in der BRD; Stenius (1986, S. 89ff.) für die Analyse des finnischen Rentenmarktes. Avery (1982) wendet den Ansatz für eine Analyse des US-amerikanischen Marktes für Konsumentenkredite mit Befragungsdaten an. Für die Analyse von Investitionskrediten sind Schätzungen mit diesem Ansatz bisher nicht bekannt.

    Google Scholar 

  42. Eine effektive Methode zur Bestimmung der Wurzel einer nichtlinearen Funktion f(x) = 0, wie sie (3.56) darstellt, besteht in der Anwendung der iterativen Methode der “false position” (vgl. Pizer, 1975, S. 189ff.). Nach der Festlegung einer Intervallgrenze (math), in der die Wurzel vermutet wird, wird nach dem Algorithmus x i+1 = (math) verfahren. Der neue Wert x i+1 wird als die neue Intervallgrenze herangezogen und die Prozedur wiederholt, bis die Konvergenz mit einer Toleranzgrenze ε|f(x i+1)| < e erreicht wird. Modelle dieser Form wurden von Eaton/Quandt (1983) und Stenius (1986, S. 105) jeweils bei der Schätzung von Rationierungsmodellen für den US-amerikanischen Arbeitsmarkt und den finnischen Markt für staatüche Rentenpapiere angewendet.

    Google Scholar 

  43. Ein Spezialfall des Modells A für die Entwicklungsländer liegt vor, wenn die angebotene Kreditmenge festgeschrieben wird. Die entsprechende Likelihoodfunktion läßt sich aus (3.33) ableiten und wird in Hartley (1976) explizit behandelt.

    Google Scholar 

  44. Die oben beschriebene Unbeschränktheit dieser Modelle rührt von den bei der Modellierung sehr gering verwendeten Informationen her. So tritt das Problem in den nun zu behandelnden Modellen mit expliziter Berücksichtigung von Preisinformationen nicht auf (vgl. Quandt, 1988, S. 40).

    Google Scholar 

  45. Eine andere Möglichkeit, in einem ökonometrischen Modell Preise endogen zu berücksichtigen, besteht darin, aus einer Zielfunktion der Banken Bestimmungsvariablen der Preisfestsetzung abzuleiten. Eine aus der Minimierung einer quadratischen Verlustfunktion resultierende Preisgleichung und die entsprechende Likelihoodfunktion haben Goldfeld/Quandt (1986) abgeleitet. Sich auf diesen Beitrag stützend leitet Winker (1996, S. 190ff.) eine Preisgleichung aus der Zielfunktion Ertragsmaximierung für ein Rationierungsmodell für Kredite in der BRD ab.

    Google Scholar 

  46. Alternativ kann die Preisanpassungsgleichung stochastisch formuliert werden. Die Analyse (und die Schätzung des Modells für den marokkanischen Kreditmarkt) wird mit einer deterministischen Formulierung vorgenommen. Die Schätzung eines Modells mit stochastischer Preisanpassung ist aufgrund fehlender Regimezuordnung analog zu Modell A. Für die Ableitung der entsprechenden Likelihoodfunktion siehe Quandt (1978) und Quandt (1988, S. 33).

    Google Scholar 

  47. Die von Fair/Jaffee (1972, S. 506) vorgeschlagene Vorgehens weise, in der ersten Stufe theoretische Werte für d t und s t nur aus Beobachtungen zu gewinnen, wo jeweils d t > 0 bzw. d t < 0 gilt, und sonst den theoretischen Wert gleich Null zu setzen, liefert inkonsistente Schätzparameter. Einen formalen Beweis führt Amemiya (1974, S. 760) an. Siehe auch Quandt (1988, S. 44f.).

    Google Scholar 

  48. Fair/Kelejian (1974, S. 182f.) haben vorgeschlagen, die Likelihoodfunktion zu verwenden, die aus den bedingten Dichten resultiert: Die Schätzung anhand dieser Funktion ist jedoch ineffizient, da die a-priori-Information über die Stichprobentrennung im Gegensatz zu (3.77) nicht ausgenutzt wird. Der Unterschied wird ersichtlich, wenn (3.77) wie folgt geschrieben wird: (Vgl. Amemiya, 1974, S. 761f. und Maddala/Nelson, 1974, S. 1020f.)

    Google Scholar 

  49. Quandt (1978, S. 440) hat argumentiert, daß in einem Rationierungsmodell wie dem hier dargestellten Modell C dieser Nullhypothesentest ungeeignet ist, da die Likelihoodfunktion eines marktgeräumten Modells nicht aus dem Rationierungsmodell abgeleitet werden kann und die Hypothese damit nicht genistet ist. Dies trifft jedoch nicht zu. Für λ →l ∞ wird die Likelihoodfunktion des Rationierungsmodells C in ein Walras-Modell überführt (vgl. Maddala, 1986, S. 1665).

    Google Scholar 

  50. In den empirischen Arbeiten wird meist eine Anpassungsgleichung mit endogenem Preis Δp t = λ(D t - S t ) bzw. Δp t = λ(D t - S t ) + u 3t verwendet. Rosen/Quandt (1978) und Eaton/Quandt (1983) verwenden die Spezifikation zur Analyse des US-amerikanischen Arbeitsmarktes; Nishimizu et al. (1982) schätzen mit der Spezifikation die Nachfrage- und Angebotsparameter für den Investitionsgütermarkt in Japan; Bauer (1985) analysiert den Arbeitsmarkt in der BRD. Für den Kreditmarkt sind — wie weiter unten ausführlich behandelt wird — bisher die Arbeiten von Laffont/Garcia/1977), Sealey (1979), Ito/Ueda (1981), Frei/Schips (1986), Martin (1991) erschienen.

    Google Scholar 

  51. Eine ähnliche Likelihoodfunktion erhält man, wenn man statt der tatsächlichen Periodenpreise die rational erwarteten Preise in den Verhaltensgleichungen verwendet. Chanda/Maddala (1983) verwenden diese Variante des Modells in der Angebotsfunktion und leiten die entsprechende Likelihoodfunktion ab.

    Google Scholar 

Download references

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 1999 Springer Fachmedien Wiesbaden

About this chapter

Cite this chapter

Oulad-Youssef, N. (1999). Schätz- und Testansätze für die Theorie der Kreditrationierung und ihre Relevanz für die Entwicklungsländer. In: Kreditrationierung in Entwicklungsländern. Empirische Finanzmarktforschung / Empirical Finance. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-08667-3_4

Download citation

  • DOI: https://doi.org/10.1007/978-3-663-08667-3_4

  • Publisher Name: Deutscher Universitätsverlag, Wiesbaden

  • Print ISBN: 978-3-8244-6958-1

  • Online ISBN: 978-3-663-08667-3

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics