Zusammenfassung
Im vorhergehenden Teil wurden theoretische Modelle dargestellt, die die Rationierung der Investitionskredite bei symmetrischer und asymmetrischer Informationsverteilung erklären. In diesem Teil soll nach einer Bestandsaufnahme der Schätzmethoden die empirische Gültigkeit der Rationierungshypothese für die Entwicklungsländer anhand des Fallbeispiels Marokko analysiert werden.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
References
In dieser Arbeit werden Ansätze betrachtet, die auf eine direkte Überprüfung der dargestellten Theorie bzw. der Hypothesen aus dieser Theorie abzielen. Daneben sind auch Ansätze entwickelt worden, die über die Analyse des Investitionsverhaltens von Unternehmen indirekt auf Kreditrationierung schließen. Die Vorgehensweise besteht darin, die Investitionsfunktion der Unternehmen in Abhängigkeit von der Vorteilhaftigkeit der Investition und der eigenen Finanzmittel zu formulieren und die Koeffizienten — oft für einzelne nach Größen klassifizierte Unternehmensgruppen — entsprechend zu schätzen. Dabei wird die Vorteilhaftigkeit nach der Tobinschen g, nach der Akzelerator- oder der neoklassischen Theorie der Nachfrage modelliert. Im Falle einer Kreditrationierung ist entgegen der Modigliani-Miller-These von der Irrelevanz finanzieller Faktoren wie Dividendenzahlungen, Kapitalstruktur, cash flow usw. ein hoher Einfluß der Eigenmittel auf die Investitionsentscheidung zu erwarten, da die Kreditrationierung eine Verteuerung der Finanzierungskosten mit sich bringt. Je höher dieser Einfluß für eine bestimmte Unternehmensklasse ist, desto höher ist die Finanzrestriktion, der sie ausgesetzt ist. Fazzari et al. (1988), Whited (1992) schätzen die Effekte der eigenen Finanzmittel für das Investitionsverhalten für die USA; Devereux/Schiantarelli (1990) für Großbritannien, Hoshi et al. (1991) für Japan, Schaller (1993) für Kanada und Eiston/Albach (1995) für die BRD. Ein Überblick findet sich in Barran (1994, S. 9ff.). Für die Entwicklungsländer sind für Kolumbien die Arbeiten von Tybout (1983, 1984), für Pakistan die Arbeit von Nabi (1989), für Brasilien, Kolumbien, Indien, Korea und die Türkei die Arbeit von Dailami/Giugale (1991), für Indonesien die Arbeit von Harris et al. (1994), für Ecuador die Arbeit von Jaramillo et al. (1996) erschienen. Alle diese Arbeiten schätzen einen signifikanten Effekt der Liquiditätsvariablen auf die Investition und schließen auf Kreditrationierung.
Bei einer Aggregation der Nachfrage D und des Angebots S über mehrere heterogene Teilmärkte, auf denen eine Überschußnachfrage und ein Überschußangebot koexistieren, führt die einzelwirtschaftlich gültige Minimumregel für die Transaktionsmenge Q, Q = min(D, S) zu einem Aggregat der Form Q = min(D, S), so daß hier die Minimumregel eine Fehlspezifikation darstellt. Muellbauer (1978) hat als erster die Bedeutung der Aggregationsfehler im Rahmen der Rationierungstheorie für den Arbeitsmarkt hervorgehoben und die tatsächliche Transaktionsmenge abgeleitet. Hajivassiliou (1983) u. a. hat eine Möglichkeit für die Schätzung solcher Modelle aufgezeigt. Die praktische Relevanz der Aggregationsfehler bei der Schätzung ist nach Quandt (1986) gering. Quandt (1986) hat durch eine Monte-Carlo-Studie gezeigt, daß insbesondere bei einer geringen Anzahl von Teilmärkten, wie dies in den Entwicklungsländern die Regel sein wird, oder bei kleinen Stichproben die ML-Schätzung eines wegen der Minimumregel fehlspezifizierten Modells gute Resultate liefert.
Die Bach-Huizenga- Analyse wurde gerade wegen der Klassifizierung der Banken und der Annahme einer konstanten relativen Nachfrage bei den verschiedenen Kreditnehmergruppen kritisiert. Siehe hierzu Carson (1961), Tussing (1963) und die Repliken von Bach/Huizenga (1961b, 1963).
Unter statistischen Gesichtspunkten führt diese Vernachlässigung der Nachfrage und die Anwendung der OLS auf ein Eingleichungsmodell zu inkonsistenter Schätzung, da hier ein unvollständiges Modell mit einer Gleichung und mehreren interdependenten Variablen (Kreditvolumen, Zinssatz) geschätzt wird. Auf diese Schwäche weisen Silber und Polakoff selbst hin, gehen aber von einer gültigen Schätzung aus: “ Since ordinary least squares (OLS) was used as the estimating procedure, all the estimated coefficients in the equations are inconsistent in the strict statistical sense. However, in light of the small differences other investigators have found between OLS and (say) two-stage least squares (TSLS) estimates, it is unlikely that our results would be substantially altered had TSLS been used.”(Silber/Polakoff, 1970, S. 90).
Gupta (1972) stellt in einem theoretischen Modell den Zusammenhang zwischen der postulierten Diskriminierung von Kleinunternehmern und Kreditwürdigkeit her. Danach hängt das Kreditrisiko einer Investition positiv von ihrem erwarteten Ertrag und negativ von der Leverage des Unternehmens ab. Ausgehend von der Annahme einer höheren Profitabilität und einer beobachteten kleineren Leverage bei größeren Unternehmern ist das Kreditrisiko der kleineren Unternehmen hoch, was zu einer Diskriminierung dieser Unternehmen führt. Auch wenn die aufgestellte Annahme der höheren Profitabilität größerer Unternehmen nicht unumstritten ist, zeigen die jüngsten empirischen Arbeiten zur Unternehmensfinanzierung (siehe weiter oben Fußnote 1 dieses Kapitels), daß Rationierung vor allem kleine Unternehmen trifft. Eine 1994 im Auftrag des Deutschen Bundesministeriums für Bildung, Wissenschaft, Forschung und Technologie vom Zentrum für Europäische Wirtschaftsforschung durchgeführte Umfrage zeigt, daß der Zugang zu Fremdkapital für kleinere Firmen in der BRD eingeschränkt ist (siehe Harhoff/Licht et al. [1996]).
In vielen Entwicklungsländern dürfen Kredite an sog. vorrangige Sektoren oft nicht gekündigt werden (vgl. Weltbank, 1989, S. 95). Überfällige Kredite müssen durch Umschuldungen kapitalisiert werden.
Thies (1989) analysiert anhand einer linearen Regression die Determinanten dieser Verringerung der Kreditrationierung. Nach seiner Studie ist die Abschaffung der Zinsregulierung in den USA (die Regulation Q) der wesentliche Faktor dieser Veränderung.
Der Ansatz läßt sich analog für eine Untersuchung der Rationierung der Kredite für Privatpersonen anwenden. In diesem Fall wird versucht, die Rationierung in Abhängigkeit vom Einkommen und Vermögen, Geschlecht, Alter, Familienstand, usw. zu analysieren. Siehe hierzu z. B. die Untersuchung Maddalas (1983a, S. 24) für Hypothekarkredite. Im Rahmen der entwicklungspolitischen Forschung hat Zeller (1994) diesen Ansatz zur Untersuchung der Determinanten der Kreditnachfrage und Kreditrationierung für Kredite an Privatpersonen und Personengruppen auf dem Agrarmarkt Madagaskars während der Periode 10.1990–09.1992 angewendet. Die Rationierung wird in seiner Schätzung hauptsächlich durch das Vermögen und den Leverage der Kreditnachfrager bestimmt.
Winker (1996) führt diese Schätzung sowohl für die Variablen “fehlendes Eigenkapital” und “fehlendes Fremd-kapital” als auch für eine durch eine ODER-Verknüpfung gebildete Variable “fehlendes Gesamtkapital” durch. Die Ergebnisse der drei Schätzungen bleiben im wesentlichen unverändert (siehe Winker, 1996, Tab. 2.7, S. 95).
Bei einer Spezifikation seines Modells, in der die Firmengröße statt mit Anzahl der Beschäftigten mit 3 Größenklassendummies berücksichtigt wird, wird die Heterogenität auch in Form von stochastischen Effekten in einem Probitmodell berücksichtigt. Diese Effekte weisen eine sehr geringe Signifikanz in seiner Schätzung aus, so daß er in allen übrigen Schätzungen die stochastischen Effekte nicht berücksichtigt (siehe Winker, 1996, S. 91).
Zur Schätzung von Modellen für qualitativ abhängige Variablen mit Paneldaten und Berücksichtigung der Heterogenität siehe Maddala (1987) und Ronning (1991, S. 189ff.)
Eine Einführung in die Theorie der integrierten und kointegrierten Zeitreihen geben Campbell/Perron (1991), Banerjee/Hendry (1992) und Banerjee et al. (1993). SpezieE für die integrierten Reihen siehe Diebold/Nerlove (1990), Stock (1994a); für die Kointegrationsanalyse (und Vektorautoregression) Watson (1994). Für einen geschichtlichen Abriß der Theorie siehe Hendry (1986).
Eine Störvariable u t wird als white noise (“weißes Rauschen”) bezeichnet, wenn u t eine unabhängige und identisch verteilte Zufallsvariable mit Erwartungswert E(u t ) = 0 und zeitinvarianten Varianzen und Kovarianzen und E(u t u τ) = 0 für t ≠ τ ist.
Diese Implikation wird in der Kointegrationstheorie als Granger-Repräsentationstheorem bezeichnet, wonach eine Kointegrationsbeziehung eine vektorautoregressive-, moving-average- und eine Fehlerkorrekturdarstellung impliziert (vgl. Engle/Granger, 1987, S. 255f.).
Die Modellierung einer Zeitreihe in Form eines AR(1) Prozesses zur Überprüfung der Nichtstationarität ist nicht unproblematisch, wenngleich sie auch die meist erforschte und angewendete Modellierung ist. Sie bedingt eine asymmetrische Behandlung der Zeitreihen bei der Null- und der Alternativhypothese: Unter der Nullhypothese (ρ = 1) weisen z. B. für ein Modell mit Drift (math) die Daten einen Trend auf, wobei α den Trend angibt. Unter der alternativen Hypothese (ρ > 1) sind die Daten stationär um das Niveau E(r t ) = α/(1 - ρ), wobei jetzt α das Niveau bestimmt (vgl. Banerjee et al., 1993, S. 100f. u. Schmidt/Phillips, 1992, S. 258). Bhargava (1986) hat eine alternative Modellierung für den Einheitswurzeltest als Lösung vorgeschlagen. Sie basiert auf der Formulierung r t = α + x t , x t = ρ x t-1 + u t . Zu Schätzmethoden für derartige Modelle siehe Bhargava (1986), Schmidt/Phillips (1992), Schmidt/Lee (1991) und Lee/Schmidt (1994).
Bei der Analyse der Stationarität einer Zeitreihe werden in diesem Überblick Testmethoden vorgestellt, die Nichtstationarität als Nullhypothese formulieren. Alternativ kann die Stationarität einer Zeitreihe durch Tests gegen die Einheitswurzel (Tests mit Stationarität als Nullhypothese) geprüft werden. Solche Tests basieren auf einer moving-average-Darstellung der Zeitreihe der Form Der Test gegen die Einheitswurzel ist ein Test für die Hypothese H 0: da in diesem Fall x t = x 0 ist und damit r t = x 0 + u t . Für diese Tests siehe Kwiatkowski et al. (1992), Stock (1994b). Für den Fall, daß zusätzlich ein AR-Prozeß in r t berücksichtigt wird, so daß (3.2) die Form (math) annimmt, siehe Leybourne/McCabe (1994).
Alternativ kann ein Test gegen die Einheitswurzel auf die Differenzen (math) angewendet werden; für solche Tests siehe Tanaka (1990), Saikkonen/Luukkonen (1993) und Arellano/Pantula (1995). Ein Überblick findet sich bei Stock (1994a, S. 2796ff.) und Fuller (1996, S. 629ff.).
Die Annahme der Nullhypothese in Gleichung (3.1) anhand der t-Statistik mit den von Fuller und Dickey abgeleiteten kritischen Werten unterstellt, daß die Daten einem random walk ohne Drift folgen. Ist der wahre datenerzeugende Prozeß ein random walk mit Drift, müssen die kritischen Werte von Schmidt (1990, Tabellen 1–8) verwendet werden.
Die von Choi vorgeschlagene Teststatistik ist nicht deckungsgleich mit dem üblichen Durbin-Hausman-(Spezifikations)Test (math) Choi-Test ist eine Statistik vom Durbin-Hausman-Typ in dem Sinne, daß zwei Schätzer gegenübergestellt werden.
Wie erwähnt sind die Test-Statistiken, auch der Durbin-Watson-Test, bei autoregressiven Modellen verzerrt. Daher müssen zur Überprüfung der Autokorrelation andere Test-Statistiken herangezogen werden. Die Box-Pierce bzw. die Box-Ljung-Statistik stellen zwei einfach durchzuführende Statistiken zur Überprüfung der Autokorrelation in einer Zeitreihe dar. Sie basieren auf den Statistiken (math) wobei r τ die Stichprobenkorrelation zum Lag τ ist Problematisch bei diesen Statistiken ist die Wahl der Laglänge p, die den Ausgang der Statistik verzerren kann (vgl. Harvey, 1994, S. 216f.); siehe auch Maddala (1992, S. 540ff.).
Die in (3.4) und (3.5) angegebene Statistik weicht geringfügig von der von Phillips (1987) und Phillips/Perron (1988) angegebenen Statistik ab. Statt (math) wird dort (math) mit r 0 = 0, verwendet. Der Vorteil der in (3.4) und (3.5) formulierten Statistik ist ihre Allgemeingültigkeit, unabhängig davon, ob α t = 0, α t = α oder α t = α 0 + α 1 t (vgl. Hamilton, 1994, Fußnote 9, S. 511).
Das (theoretische) Spektrum eines Prozesses x t mit Erwartungswert E(x t ) = μ definiert alle Autokovarianzen des Prozesses γ j - E(x t - μ)(x t-j - μ) für eine bestimmte Frequenz w und wird formal durch die Fouriertrans-formation der Kovarianzen angegeben: Das für eine bestimmte Stichprobe T definierte empirische Spektrum der Zeitreihe wird als Periodogramm bezeichnet und wird angegeben durch Entsprechendes gilt für das Spektrum eines (k × 1)-Vektors Xt mit Erwartungswert u. Die Kovarianzen sind nun durch die (k × k)-Matrix Γ j = E[(x t - u)(x t-j - u)′] gegeben; das Spektrum durch Das Spektrum s des Prozesses läßt sich konsistent durch eine Glättung des entsprechenden Periodogramms schätzen. Zur Frequenz Null nimmt die Schätzung die Form an: mit κ als Gewichtung, die auch als Kern bezeichnet wird. Als Glättung können alternativ der Bartlett-, Parzen-und quadratische Kern angewendet werden. Sie sind für z = j/ (l + 1) mit l als eine bestimmte, oft ad hoc gesetzte Laglänge jeweils definiert durch: Für eine Darstellung der Fourier- und Spektralanalyse siehe z. B. Anderson (1994, Kap. 9) u. Fuller (1996, Kap. 3 u. 4).
Bei der Darstellung der Kointegrationsanalyse in einer Einzelgleichung wird von einer a priori festgelegten Kausalbeziehung zwischen den Variablen d t (exogene Variable) und r t (endogene Variable) ausgegangen. Die möglichen Interdependenzbeziehungen zwischen den Variablen werden ausgeblendet. Will man die langfristigen Beziehungen zwischen den Variablen unter Berücksichtigung dieser Interdependenzen analysieren, dann ist die Kointegrationsanalyse anhand der OLS-Schätzwerte nicht mehr anwendbar. Diese Interdependenzen können durch die Maximum-Likelihood-Prozedur von Johansen (1988,1991) und Johansen/Juselius (1990) untersucht werden. Die Johansen-Prozedur ermöglicht durch eine full-information-maximum-likelihood-Schätzung (FIML-Schätzung) der Fehlerkorrekturdarstellung der Kointegrationsbeziehung, die Anzahl aller unabhängigen Kointegrationsbezie-hungen in einem Gleichungssystem, dem sog. Kointegrationsrang, und die Kointegrationsparameter zu bestimmen. Einen alternativen Ansatz, die Reintegration in einem interdependenten System zu analysieren, hat jüngst Bierens (1997) vorgeschlagen. Wie die Johansen-Prozedur, basiert auch die Bierens-Prozedur auf der Lösung eines Eigenwertproblems, kommt aber ohne Annahmen über den datenerzeugenden Prozeß aus.
Unter einer Scheinregression (“spurious regression”) versteht man die Regression nichtstationärer oder unabhängiger I(1) Prozesse untereinander. Granger/Newbold (1974) und insbesondere Phillips (1986) haben gezeigt, daß bei der Scheinregression das Bestimmtheitsmaß R 2 und die Regressionsparameter die Abwesenheit der Beziehung zwischen den Variablen nicht widerspiegeln und gegen Null tendieren, sondern Zufallsvariablen mit nichtdegenerierter Verteilung sind, die mitunter höhere Werte aufweisen und fälschlicherweise eine signifikante Abhängigkeit anzeigen.
Die von Phillips/Ouliaris (1990) abgeleiteten Werte für den Fall ohne Trend und Drift, mit Drift, mit Drift und Trend in der Kointegrationsgleichung sind unter der Annahme E(Δd t ) = 0 abgeleitet worden (siehe Phillips/Ouliaris, 1990, S. 167). Weist dagegen die Variable d t einen Trend auf, E(Δd t ) = α, enthält die Kointegrationsgleichung (3.7) aber nur einen Drift, ist dieser Fall nach Hansen (1992) ebenso wie der mit Trend in der Kointegrationsgleichung zu behandeln. Die Statistik ist aEerdings nicht mit den kritischen Werten für die Anzahl der Regressoren n, sondern mit n — 1 zu führen. In dem — so wie hier behandelten — Spezialfall n = 1 sind diese Werte nicht in Phillips/Ouliaris (1990), sondern in Hansen (1992, S. 104) zu finden.
Für eine Darstellung der Theorie der linearen Approximation (lineare Prognose) siehe z. B. Schlitt-gen/Streitberg (1997, S. 517ff.) und Hamilton (1994, S. 74ff.).
Park (1992) hat mit der canonical cointegrating regression einen ähnlichen Kointegrationstest entwickelt, bei dem nicht nur wie in Phillips/Hansen (1990) die endogene Variable transformiert und danach die Regressionskoeffizienten korrigiert werden, sondern sowohl die endogenen als auch die exogenen Variablen transformiert werden, um danach direkt OLS-effiziente Koeffizienten zu erhalten. Beide Vorgehensweisen sind eng miteinander verwandt und asymptotisch äquivalent. Hier wird sich die Darstellung auf die Phillips-Hansen-Methode beschränken.
Siehe hierzu die Monte-Carlo-Ergebnisse für die bias in den Tabellen 1–3 in Stock/Watson (1993, S. 796f.).
Die Theorie der Kreditrationierung macht keine unmittelbaren Aussagen über die Beziehungen zwischen Geldmarkt- und Kreditzins. Die Beziehungen zwischen Geld- und Depositenzins einerseits und Geld- und Kreditzins andererseits bleiben so unberücksichtigt. Scholnick (1991) versucht im Rahmen eines sog. kombinierten Modells, diese Beziehungen zu erklären. Nach diesem Modell wird langfristig der Kreditzins nur durch den Geldmarktsatz (die Grenzkosten der Liquiditätsversorgung) bestimmt. Das Ausfallrisiko des Kredites kann daher nur kurzfristige Folgen haben, und damit wird Kreditrationierung nicht als gleichgewichtiges, sondern als transitori-sches Phänomen betrachtet (vgl. Scholnick, 1991, S. 7). Sein Ansatz bleibt insofern unbefriedigend, als er diese Beziehungen per Annahme einführt.
Das folgende Aktienbeispiel von Hamilton (1994, S. 306f.) verdeutlicht diesen Unterschied: Der Kurs einer Aktie wird nach der Theorie von ihrer Dividende bestimmt (Kurs als Barwert zukünftiger Dividenden). Würde man die Kausalitätsbeziehungen nach dem Granger-Kausalitätskonzept prüfen, würde sich eine umgekehrte Kausalitätsrichtung zeigen: nicht die Dividenden würden den Kurs “verursachen”, sondern umgekehrt der Kurs die Dividenden. Der Kurs ist daher für die Prognose zukünftiger Dividenden eine geeignete Variable.
Neben dem F-Test sind eine Reihe anderer Tests für die Überprüfung der Kausalität vorgeschlagen worden, u. a. der von Sims (1972), Pierce/Haugh (1977), Geweke (1982, 1984) und Geweke et al. (1983). Die komparative Monte-Carlo-Studie von Geweke et al. (1983) zeigt, daß der F-Test bessere Ergebnisse liefert, so daß die in dieser Arbeit vorgenommene Darstellung sich auf diesen Test beschränkt.
Untersuchungsgegenstand bei Sofianos et al. (1990) ist in erster Linie der Transmissionsmechanismus der Geldpolitik. Sie disaggregieren daher die Kredite, je nachdem, ob sie im Rahmen vereinbarter Kreditlinien vergeben werden oder nicht (“commitment loans” und “noncommitment loans”), um die verschiedenen Transmissionswege (jeweils Zinsen- und Kreditverfügbarkeit) aufzuzeigen. Für die Theorie der Kreditrationierung sind nur Kredite der zweiten Art relevant, worauf sich auch die hier dargestellten Ergebnisse beziehen. Kredite, die auf bestimmten vorab getroffenen Verpflichtungen beruhen, sind per definitionem — wie auch die Ergebnisse Sofianos et al. (1990) zeigen — von einer Rationierung nicht betroffen.
Einen Überblick über ökonometrische Ungleichgewichtsmodelle bieten Quandt (1982), Maddala (1983a, Kap. 10; 1986) und Gourieroux/Laffont/Monfort (1984). Eingehend werden Ungleichgewichtsmodelle in Bowden (1978a) und Quandt (1988) behandelt.
Modell A kann geschrieben werden in Form von Dabei ist δ t eine (1,0)-Variable, die die Regime angibt: Die Bezeichnung “stochastische Regimezuordnung” im Modell beruht darauf, daß diese Variable stochastisch definiert ist.
Folgende empirische Analysen können dazu aufgeführt werden: Maddala/Nelson (1974) illustrieren ihren Beitrag mit einer Schätzung der Variablenkoeffizienten für den US-amerikanischen Wohnungsbaumarkt; Portes/Winter (1980) schätzen Nachfrage von und Angebot an Konsumgütern in den früher zentral verwalteten Volkswirtschaften der ehemaligen DDR, Ungarns, Polens und der ehemaligen Tschechoslowakei; Stenius (1986, S. 89ff.) verwendet die Spezifikation zu einer vergleichenden Analyse des finnischen Rentenmarktes. Für die Analyse der Rationierung von Investitionskrediten sind — wie weiter unten ausführlich dargestellt wird — bisher die Arbeiten von Laffont/Garcia (1977), Artus (1984), King (1986) und Winker (1996) erschienen.
Treten Schwierigkeiten beim Maximierungsvorgang auf, dann müssen alternative Schätzmethoden für das Modell A versucht werden. Als alternative Schätzverfahren kommen in Betracht: (1) die Anwendung des EM-Algorithmus (siehe Hartley (1977) u. Quandt[1988, S. 55ff.]), (2) die nichtlineare Kleinst-Quadrate-Methode (siehe Nasim/Satchell (1982), Stalder (1984); Quandt (1988, S. 45ff.) für einen Überblick) und (3) die Pseudo-Maximum-Likelihood-Schätzer von Gourieroux/Monfort/Trognon (1984) (siehe Laroque/Salanié (1994) für einen Überblick und einen Monte-Carlo-Simulationsvergleich ihrer Eigenschaften).
Wegen der schweren Handhabbarkeit der auf der Normal vert eilung basierenden Likelihoodfunktion ist es auch denkbar, mit relativ einfach integrierbaren, der Normalverteilung ähnlichen Dichtefunktionen wie der Sargan-Dichte oder der logistischen Dichte zu arbeiten. Für die Sargan-Dichte haben Goldfeld/Quandt (1981, S. 154) in einer Monte-Carlo-Studie gezeigt, daß die Schätzer aus einer Sargan-Likelihoodfunktion schwer von den Schätzern aus der Normal-Likelihoodfunktion zu unterscheiden sind. Stenius (1986, S. 113f.) erhält in ihrer Fallanalyse des finnischen Rentenmarktes ganz andere Schätzer für eine normale und eine logistische Likelihoodfunktion.
In einer klassischen linearen Regression y t = α + βx t + u t gilt für den Parameter β: β = (math). Siehe z. B. Schneeweiß (1990, S. 44).
Harvey (1975) schlägt vor, die Varianz der rekursiven Residuen mit T - k - 1 statt wie Brown et al. (1975) mit T - k zu berechnen, um die Testgüte zu erhöhen.
Asymptotisch ist die Testgüte des Cusum-Tests und des Cusumsq-Tests von der Art des Strukturbruchs abhängig und mitunter hoch (siehe Ploberger (1989), Ploberger/Krämer [1990]). Für kleine Stichproben weisen allerdings die Tests, wie die verschiedenen Monte-Carlo-Studien von Garbade (1977), Hackl (1980) und McCa-be/Harrison (1980) zeigen, eine niedrige Testgüte auf.
Gubitz (1984) verwendet diese Spezifikation bei der Analyse des Geldmarktes in Frankreich und in der BRD; Stenius/Viren (1984) für die Analyse des Arbeitsmarktes in den USA; Bauer (1984) und Hujer (1986) für die Analyse des Arbeitsmarktes in der BRD; Stenius (1986, S. 89ff.) für die Analyse des finnischen Rentenmarktes. Avery (1982) wendet den Ansatz für eine Analyse des US-amerikanischen Marktes für Konsumentenkredite mit Befragungsdaten an. Für die Analyse von Investitionskrediten sind Schätzungen mit diesem Ansatz bisher nicht bekannt.
Eine effektive Methode zur Bestimmung der Wurzel einer nichtlinearen Funktion f(x) = 0, wie sie (3.56) darstellt, besteht in der Anwendung der iterativen Methode der “false position” (vgl. Pizer, 1975, S. 189ff.). Nach der Festlegung einer Intervallgrenze (math), in der die Wurzel vermutet wird, wird nach dem Algorithmus x i+1 = (math) verfahren. Der neue Wert x i+1 wird als die neue Intervallgrenze herangezogen und die Prozedur wiederholt, bis die Konvergenz mit einer Toleranzgrenze ε|f(x i+1)| < e erreicht wird. Modelle dieser Form wurden von Eaton/Quandt (1983) und Stenius (1986, S. 105) jeweils bei der Schätzung von Rationierungsmodellen für den US-amerikanischen Arbeitsmarkt und den finnischen Markt für staatüche Rentenpapiere angewendet.
Ein Spezialfall des Modells A für die Entwicklungsländer liegt vor, wenn die angebotene Kreditmenge festgeschrieben wird. Die entsprechende Likelihoodfunktion läßt sich aus (3.33) ableiten und wird in Hartley (1976) explizit behandelt.
Die oben beschriebene Unbeschränktheit dieser Modelle rührt von den bei der Modellierung sehr gering verwendeten Informationen her. So tritt das Problem in den nun zu behandelnden Modellen mit expliziter Berücksichtigung von Preisinformationen nicht auf (vgl. Quandt, 1988, S. 40).
Eine andere Möglichkeit, in einem ökonometrischen Modell Preise endogen zu berücksichtigen, besteht darin, aus einer Zielfunktion der Banken Bestimmungsvariablen der Preisfestsetzung abzuleiten. Eine aus der Minimierung einer quadratischen Verlustfunktion resultierende Preisgleichung und die entsprechende Likelihoodfunktion haben Goldfeld/Quandt (1986) abgeleitet. Sich auf diesen Beitrag stützend leitet Winker (1996, S. 190ff.) eine Preisgleichung aus der Zielfunktion Ertragsmaximierung für ein Rationierungsmodell für Kredite in der BRD ab.
Alternativ kann die Preisanpassungsgleichung stochastisch formuliert werden. Die Analyse (und die Schätzung des Modells für den marokkanischen Kreditmarkt) wird mit einer deterministischen Formulierung vorgenommen. Die Schätzung eines Modells mit stochastischer Preisanpassung ist aufgrund fehlender Regimezuordnung analog zu Modell A. Für die Ableitung der entsprechenden Likelihoodfunktion siehe Quandt (1978) und Quandt (1988, S. 33).
Die von Fair/Jaffee (1972, S. 506) vorgeschlagene Vorgehens weise, in der ersten Stufe theoretische Werte für d t und s t nur aus Beobachtungen zu gewinnen, wo jeweils d t > 0 bzw. d t < 0 gilt, und sonst den theoretischen Wert gleich Null zu setzen, liefert inkonsistente Schätzparameter. Einen formalen Beweis führt Amemiya (1974, S. 760) an. Siehe auch Quandt (1988, S. 44f.).
Fair/Kelejian (1974, S. 182f.) haben vorgeschlagen, die Likelihoodfunktion zu verwenden, die aus den bedingten Dichten resultiert: Die Schätzung anhand dieser Funktion ist jedoch ineffizient, da die a-priori-Information über die Stichprobentrennung im Gegensatz zu (3.77) nicht ausgenutzt wird. Der Unterschied wird ersichtlich, wenn (3.77) wie folgt geschrieben wird: (Vgl. Amemiya, 1974, S. 761f. und Maddala/Nelson, 1974, S. 1020f.)
Quandt (1978, S. 440) hat argumentiert, daß in einem Rationierungsmodell wie dem hier dargestellten Modell C dieser Nullhypothesentest ungeeignet ist, da die Likelihoodfunktion eines marktgeräumten Modells nicht aus dem Rationierungsmodell abgeleitet werden kann und die Hypothese damit nicht genistet ist. Dies trifft jedoch nicht zu. Für λ →l ∞ wird die Likelihoodfunktion des Rationierungsmodells C in ein Walras-Modell überführt (vgl. Maddala, 1986, S. 1665).
In den empirischen Arbeiten wird meist eine Anpassungsgleichung mit endogenem Preis Δp t = λ(D t - S t ) bzw. Δp t = λ(D t - S t ) + u 3t verwendet. Rosen/Quandt (1978) und Eaton/Quandt (1983) verwenden die Spezifikation zur Analyse des US-amerikanischen Arbeitsmarktes; Nishimizu et al. (1982) schätzen mit der Spezifikation die Nachfrage- und Angebotsparameter für den Investitionsgütermarkt in Japan; Bauer (1985) analysiert den Arbeitsmarkt in der BRD. Für den Kreditmarkt sind — wie weiter unten ausführlich behandelt wird — bisher die Arbeiten von Laffont/Garcia/1977), Sealey (1979), Ito/Ueda (1981), Frei/Schips (1986), Martin (1991) erschienen.
Eine ähnliche Likelihoodfunktion erhält man, wenn man statt der tatsächlichen Periodenpreise die rational erwarteten Preise in den Verhaltensgleichungen verwendet. Chanda/Maddala (1983) verwenden diese Variante des Modells in der Angebotsfunktion und leiten die entsprechende Likelihoodfunktion ab.
Rights and permissions
Copyright information
© 1999 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Oulad-Youssef, N. (1999). Schätz- und Testansätze für die Theorie der Kreditrationierung und ihre Relevanz für die Entwicklungsländer. In: Kreditrationierung in Entwicklungsländern. Empirische Finanzmarktforschung / Empirical Finance. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-08667-3_4
Download citation
DOI: https://doi.org/10.1007/978-3-663-08667-3_4
Publisher Name: Deutscher Universitätsverlag, Wiesbaden
Print ISBN: 978-3-8244-6958-1
Online ISBN: 978-3-663-08667-3
eBook Packages: Springer Book Archive