Zusammenfassung
Im Abschnitt 4.7 des vorangegangenen Kapitels wurde gezeigt, daß mit der Einführung des sogenannten Kompensationskriteriums quantitative Wohlfahrtsvergleiche durchgeführt werden können. Voraussetzung dafür ist, daß für die beiden zu vergleichenden Situationen die Gleichgewichtslösungen explizit berechnet werden, was anhand eines einfachen Beispiels in Abschnitt 4.7.1.3 und 4.7.1.4 exemplarisch vorgeführt wurde. Die Komplexität des Sachverhaltes bewirkt, daß die explizite Berechnung solcher Gleichgewichte bereits bei einfachsten Modellparametern mit einem hohen Rechenaufwand verbunden ist. Zentrale Aufgabe dieses Kapitels ist es daher, das für die Gleichgewichtsberechnung speziell entwickelte Computerprogramm vorzustellen.
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsPreview
Unable to display preview. Download preview PDF.
Literaturverzeichnis
Die von T. HANSEN (1968) und SCARF (1973) entwickelten Algorithmen werden in diesem Kapitel noch ausführlich behandelt werden. Erwähnt sei, daß sie nicht auf die Berechnung von Walras-Gleichgewichten beschränkt sind. So können etwa auch Nash-Gleichgewichte für n-Personen-Spiele berechnet werden; vgl. SCARF (1973), 8. Kapitel.
SHOVEN/WHALLEY (1972) präsentierten bspw. auf dieser Basis eine simulationsgestützte Analyse des “Harberger-Effektes”. HARBERGER (1962) führte eine Inzidenzanalyse des amerikanischen Körperschaftsteuersystems durch. Zentrale Aussage seiner Untersuchung war, daß wegen der Diskriminierung des Kapitaleinsatzes im Körperschaftssektor die Grenzproduktivität des Kapitals dort höher ist als im Nicht-Körperschaftssektor. Daraus resultiert ein suboptimales Produktionsniveau. Für eine darüberhinausgehende Analyse der Allokationsstörungen einer diskriminierenden Körperschaftsteuer vgl. WENGER (1989), S. 220 ff. Der große Vorteil von Shoven/Whalley bestand darin, daß sie im Unterschied zu Harberger keine Differentialanalyse anwenden mußten. Dies ermöglichte ihnen die Berücksichtigung einer viel größeren Parametervielfalt. Für eine detaillierte Darstellung der Harberger-Analyse wird auf CORNWALL (1984), S. 142 ff., McLURE (1975), SHOVEN/WHALLEY (1972), S. 291 ff., und SINN (1985), S. 153 ff., verwiesen. Eine allgemeine Darstellung der Steuerinzidenzanalyse findet sich in ATKINSON/STIGLITZ (1987), Lecture 6.
SHOVEN/WHALLEY (1984) bieten einen Überblick des vielfältigen Einsatzes dieser Simulationsmethode. Thematisch beschränkt sich dieser aber auf die Bereiche der Steuerwirkungs-und Außenhandelstheorie. Eine methodisch ähnliche Vorgehensweise wählen Newbery/Stiglitz, um die Wohlfahrtseffekte von Güterpreisstabilisierungsmaßnahmen zu analysieren; vgl. NEWBERY/STIGLITZ (1981), Kapitel 21.
Für die Entwicklung eines Tâtonnement-Prozesses ohne Auktionator siehe M. WALKER (1984).
SCARF (1960).
Eine Demonstration der globalen Instabilität findet sich auch in ARROW/HAHN (1971), S. 299 ff.
Ein Lehrbuchbeispiel hierfür sind die sogenannten Giffen-Güter; vgl. VARIAN (1985), S. 124.
Allerdings wurde später darauf hingewiesen, daß globale Instabilität zumeist nur in extremen Konstellationen auftreten kann; vgl. HIROTA (1981) und SCARF (1981).
SONNENSCHEIN (1973) demonstrierte, daß selbst lokale Stabilität beim Tatonnement-Prozeß nicht gesichert sein muß.
Zu diesem Ergebnis kamen zuerst ARROW/HURWICZ (1958) und ARROW/BLOCK/HURWICZ (1959). Für eine zusammenfassende Darstellung siehe HAHN (1982) oder MALLIARIS/BROCK (1989), Kapitel 3 bis 5. Vgl. auch die Ausführungen im Abschnitt 3.4.2. SMALE (1976) konnte allerdings zeigen, daß konvergente Preisanpassungsprozesse auch dann entwickelt werden können, wenn Ökonomien mit multiplen Gleichgewichtslösungen betrachtet werden.
Für eine ausführliche Diskussion der Bedeutung von Liapunow-Funktionen vgl. MALLIARIS/BROCK (1989), Kapitel 5.
In Abschnitt 3.4.2 wurde bereits ausgeführt, daß bei konstanter relativer Risikoaversion bzw. logarithmischer Nutzenfunktion mit abnehmender relativer Risikoaversion die Jakobische Matrix negativ définit ist. Es darf darüberhinaus vermutet werden, daß bei den übrigen in dieser Arbeit verwendeten Nutzenfunktionen die Jakobische Matrix zumeist negativ définit sein wird. Die Begründung liegt darin, daß die betrachteten Güter letztlich immer zustandsbezogene Einkommenseinheiten sind, wodurch Komplementaritäten zumindest für den Fall vollständiger Marktstrukturen ausgeschlossen sind. Somit bleibt als Grund für Instabilität nur ein den Substitutionseffekt überkompensierender Einkommenseffekt.
Zu beachten ist, daß λ>0 sein muß.
Das Dreieck in Abbildung 5.1 repräsentiert die in die Ebene projizierte Hyperfläche des dreidimensionalen Einheitssimplex.
Für die beiden Abbildungen 5.1 und 5.2 wurde ein unterschiedlicher Maßstab gewählt.
Vgl. ORTEGA/RHEINBOLDT (1970), S. 181 ff.
So wird die Matrix der ersten Ableitungen bezeichnet.
Vgl. ORTEGA (1972), S. 163.
Das Theorem von Newton/Baluev lautet, daß eine Iteration der Form (5.2.2) dann global konvergent ist, falls die reellwertige, vektorielle Funktion f(x) konkav, f’ (x) nicht singular und die Elemente der inversen Jakobischen Matrix f’−1(x) nicht negativ sind. Da ϕ(p*) stetig ist, sind diese Bedingungen unter der Annahme, die Güter sind Bruttosubstitute, erfüllt; vgl. dazu Abschnitt 3.4.2. Für einen Beweis des Theorems von Newton/Baluev vgl. ORTEGA (1972), S. 163 ff. Zu den Implikationen der Annahme, die Güter seien Bruttosubstitute, vgl. HILDENBRAND/KIRMAN (1988), S. 225.
SCARF (1967a), (1967b), (1971) und (1973).
T.HANSEN (1968).
SPERNER (1928).
LEMKE (1965).
KUHN (1968).
Selbstverständlich wurde die Anwendung dieses Algorithmus auch auf Berechnungen von Kakutani-Fix-punkten ermöglicht; vgl. SCARF (1973), Kapitel 4. Wie bereits in Abschnitt 3.4.1 erwähnt, reicht für die vorliegende Ökonomie die Verwendung des Brouwer’schen Fixpunkttheorems aus. Die Verallgemeinerung von Kakutani kann ausgeklammert werden.
Vgl. Abschnitt 3.4.1.1.
Vgl. SCARF (1973), S. 12.
Für eine exakte Darstellung der Methode vgl. SCARF (1973), Kapitel 2, 6 und 7. Eine gute Zusammenfassung findet sich in CORNWALL (1984), 3. Kapitel, und in SCARF (1982).
Vgl. SCARF (1973), Kapitel 2.
KUHN (1968).
T. HANSEN (1968).
Vgl. SCARF (1982), S. 1029.
Kuhn stützte sich in der Entwicklung der Methode auf Vorarbeiten von TUCKER (1945) und FREUDENTHAL (1942).
Die Darstellung folgt in stark verkürzter Weise jener aus CORNWALL (1984), S. 191 f. Dort findet sich eine exakte Definition der hier vorgeführten Triangulationsregeln.
Der Vollständigkeit wegen sei angemerkt, daß im Fall j=K+l gilt: j+l=l.
Im vorliegenden Fall gilt: B = (−1,1,0),(0,−1,1),(1,0,−1).
Dies läßt sich anhand des nachfolgenden Beispiels überprüfen. Betrachtet man Abbildung 5.3, dann sieht man, daß ausgehend vom Eckpunkt y33 genau 6=3!=(K+1)! neue Eckpunkte erzeugt werden können.
Eine wiederholte Anwendung der Regel führt selbstverständlich zu einer Mehrfacherzeugung bestimmter Koordinaten.
Wegen der Möglichkeit einer Mehrfacherzeugung eines Eckpunktes ist die gewählte Indexierung nicht eindeutig.
Die Begriffsprägung findet sich in WIEG ARD (1985).
Wie sich noch zeigen wird, kann es aus Gründen der Recheneffizienz vorteilhaft sein, die Schrittweite nicht zu klein zu wählen und dafür mittels verschiedener Interpolationsmethoden die letzten Approximationsschritte durchzuführen.
In etwas allgemeinerer Einbettung hat KUHN (1968) unabhängig von Hansen eine sehr ähnliche Methode entwickelt.
Für eine allgemeine Darstellung der Form eines solchen konstruierten Simplex vgl. T. HANSEN (1968), S. 30 ff.
Für eine Herleitung vgl. SCARF (1973), Kapitel 6.
Allerdings liegt dieser Eckpunkt auf einer Seite des erweiterten Einheitssimplex. In diesem Beispiel ging es nur darum, zu verdeutlichen, daß die Austauschregel (5.2.4) das Simplex “sprengen” kann. Es ist leicht vorstellbar, daß bei entsprechender Änderung der konkreten Zahlen ebenso das erweiterte Einheitssimplex “gesprengt” werden kann.
Demnach gehören K Seiten des erweiterten Simplex zu U. Erinnert man sich an die Markierungsregel, besagte sie vorerst nur, daß ein Eckpunkt, sofern er mindestens eine negative Koordinate hat, als Markierung den Zeilenindex der ersten negativen Zeile bekommt. Entsprechend der früher gegebenen Definition eines solchen Eckuntersimplex U muß es demnach mindestens K unterschiedliche Markierungen haben.
Vgl. T. HANSEN (1968), S. 32 ff.
Der Sachverhalt läßt sich anhand von Abbildung 5.4 veranschaulichen. Stellt man sich das abgebildete Simplex als erweitertes Einheitssimplex vor und geht vom Untersimplex U3 aus, erkennt man, daß wegen der Markierungsregel nur einer von den beiden Eckpunkten y21 bzw. y12 ausgetauscht werden kann. Als neues Untersimplex kann nur U* oder U2 erzeugt werden. Beide liegen auf dem erweiterten Simplex.
Betrachtet man das in Abbildung 5.4 dargestellte Simplex als erweitertes Einheitssimplex und stellt sich vor, daß man sich im Startsimplex U1 befindet, würde man bei dem Versuch y31 auszutauschen, zwangsläufig vom Simplex “abrutschen”.
Der Start in einem Eckpunkt garantiert, daß alle durchlaufenen Untersimplexe mindestens K unterschiedliche Markierungen haben. Sind (K+l) Markierungen unterschiedlich, ist der Algorithmus beendet.
Die Behauptung ist eine für den vorliegenden Fall entsprechende Abwandlung des Theorems 2.5.1 in SCARF (1973), S. 45, und des Theorems 2.2. in T. HANSEN (1968), S. 35.
LEMKE/HOWSON (1964).
Das Beweisargument wurde auch von SCARF (1973), S. 44 ff., verwendet.
Bei K+l unterschiedlichen Markierungen wäre die Behauptung schon bewiesen.
Das gilt, weil die Zahl der durch die Triangulation erzeugten Untersimplexe endlich ist
Hier ist nochmals das bereits mehrfach erwähnte Argument zu bedenken, daß der Algorithmus im Startuntersimplex genau einen doppelt markierten Eckpunkt enthält, sofern man von jenen degenerierten Fällen absieht, in denen der Startpunkt auch gleichzeitig der Endpunkt des Algorithmus ist. In jedem weiteren Schritt wird immer einer der zwei doppelt markierten Eckpunkte ausgetauscht, so daß zwangsläufig jedes Untersimplex, sofern es sich nicht um das “Zielsimplex” handelt, genau zwei gleich markierte Eckpunkte enthalten muß.
Ausgehend von b kann man sowohl zu a, c als auch d gelangen.
LEMKE (1965).
Vgl. SCARF (1973), S. 48.
Betrachtet man das erweiterte Simplex aus Abbildung 5.4 und vergibt dort Markierungen nach Belieben, ist es unvermeidbar, daß mindestens ein Untersimplex mit drei unterschiedlichen Markierungen entsteht. Allerdings darf jeweils nur ein Markierungsindex doppelt vergeben werden und den Eckpunkten mit negativen Koordinaten muß der Zeilenindex der ersten negativen Koordinate zugewiesen werden. 61 SPERNER(1928).
Die Äquivalenz der beiden Aussagen wurde in sehr anschaulicher Form von SCARF (1982), S. 1021 ff., gezeigt.
Das Ergebnis wurde später von KUHN (1968) und EAVES (1970) in abgewandelter Form bestätigt.
DIERKER (1972) bewies, daß für eine große Klasse von Ökonomien, sogenannte reguläre Ökonomien, die Anzahl der Gleichgewichte ungerade ist. Eine Ökonomie wird als regulär bezeichnet, falls sie eine stetig differenzierbare Überschußnachfragefunktion besitzt, deren Jakobische Matrix den Rang K (=Anzahl der Güter minus eins) hat; siehe dazu DIERKER (1982).
Der zweite Teil der Markierungsregel wird nicht immer gleich gewählt. Selbstverständlich wäre auch denkbar, daß nur die absoluten Überschußnachfragen als Kriterium herangezogen würden. Nach einigen Versuchen mußte allerdings festgestellt werden, daß die hier verwendete Regel, die sich an jener von T. HANSEN (1968), S. 31, anlehnt, recheneffizienter ist.
Es kann für den Fall K=2 und m=3 vorgeführt werden. Ein Eckpunkt habe die Koordinaten (−1/3,0,4/3). Kraft der Definition des erweiterten Simplex kommt als zulässiger, benachbarter Eckpunkt ohne negative Koordinate nur (1,0,0) in Frage. Da es mindestens einen Eckpunkt ohne negative Koordinate geben muß, ist die Behauptung einfach nachzuvollziehen.
Selbstverständlich kann der Algorithmus auch für die Berechnung von Fixpunkten im Kakutani-Sinn herangezogen werden; vgl. SCARF (1973), S. 85 ff. Die in den letzten zwanzig Jahren entwickelten Anwendungen des Algorithmus gehen weit über den rein ökonomischen Bereich hinaus. Einen Eindruck der Vielseitigkeit der vorgeschlagenen Anwendungen liefert KARAMARDIAN (1977). Hervorzuheben ist die Anwendung im Bereich der Lösung nichtlinearer Gleichungssysteme; vgl. dazu ALLGOWER (1974).
Bei der Berechnung von Gleichgewichten auf vollständigen Märkten fällt das Rechenzeitproblem nicht stark ins Gewicht.
MERRILL (1972).
Parallel zu Merrill entwickelte auch Eaves einen Algorithmus mit ähnlichen Eigenschaften; EAVES (1972). Merrill’s Methode wurde später auch in dem von Kuhn/McKinnon entwickelten Sandwich-Algorithmus verwendet; KUHN/McKINNON (1975). Eine ausführliche Darstellung der Algorithmen findet sich in CORNWALL (1984), S. 220 ff.
Die Darstellungen orientieren sich an SCARF (1982), S. 1054 ff.
Vgl. SCARF (1982), S. 1057 f.
Vgl. (5.2.10) in Abschnitt 5.2.7.
Versuche haben gezeigt, daß bei einer Parameterkonstellation von 1=20, S=10 und K=9, unter Verwendung des Scarf-Algorithmus die Berechnung für die unvollständige Marktstruktur auf einem Computer mit einem 80387er-Prozessor 3 Stunden und 57 Minuten braucht. Unter Verwendung des Merrill-Algorithmus kann diese Rechenzeit auf 26 Minuten reduziert werden. Es entspricht einer Verbesserung um den Faktor 9.12.
Eine ausführliche Darstellung von Lösungsmethoden nichtlinearer Gleichungssysteme findet sich in ORTEGA/RHEINBOLDT (1970).
Zum Konzept einer Taylor’schen Expansion—auch Taylor’sche Entwicklung genannt—vgl. HEUSER (1984), S. 353 ff.
(5.2.6) entspricht genau der Näherungsmethode (5.2.2) in Abschnitt 5.2.2.
Dieses Verfahren wurde für den eindimensionalen Fall von Raphson 1690 entwickelt. Da Newton bereits 1685 mit ähnlichen Verfahren gearbeitet hat, spricht man vom Newton/Raphson-Verfahren.
Vgl. ISAACSON/KELLER (1973), S. 120.
Vgl. Abschnitt 5.4.
Zur Umgehung dieser Probleme wurden verschiedene vereinfachte Verfahren entwickelt, bspw. die Sehnenmethode. Für die vorliegende Problemstellung sind diese Verfahren zumeist ungeeignet. Eine ausführliche Darstellung derselben findet sich in ORTEGA/RHEINBOLDT (1970), Part III.
Vgl. ORTEGA/RHEINBOLDT (1970), S. 219 ff.
Für eine ausführliche Darstellung vgl. ORTEGA/RHEINBOLDT (1970), S. 219 ff.
Eine weitere bekannte Methode wäre das Gauss/Jordan-Verfahren. Für eine ausführliche Darstellung dieser Lösungsverfahren vgl. ISAACSON/KELLER (1973), S. 30 ff., oder CHURCHHOUSE (1981), Kapitel 3.
Sie unterscheidet sich vom Gauss’schen Eliminationsverfahren insofern, als im selben Iterationsschritt bei der Auflösung der i-ten Gleichung, die bei der Auflösung der j-ten Gleichungen, mit j<i, neu gewonnenen Werte bereits eingesetzt werden; vgl. ORTEGA (1972), S. 118 f.
Vgl. ORTEGA (1972), Kapitel 7 und 8.
Vgl. ORTEGA (1972), S. 148 f.
Vgl. ORTEGA (1972), Kapitel 8, und HEUSER (1984), Kapitel 63.
Vgl. ORTEGA (1972), S. 145 f.
Der richtungsbestimmende Operator in (5.2.6) wäre die Matrix G, wenn die Iteration in der folgenden Form umgeschrieben würde: xt+1=Gxt.
Für eine Definition vgl. ISAACSON/KELLER (1973), S. 10 ff.
Diese Bedingung ist allerdings nicht notwendig. So kann gezeigt werden, daß in bestimmten Fällen auch ein Spektralradius von genau 1 Konvergenz erzeugt; vgl. ORTEGA (1972), S. 151 ff.
Er verarbeitet in Turbo-Pascal 5.0 Zahlen vom Typ Real im Bereich 2.9* 10−39 bis 1.7* 1038 mit 12-stel-liger Genauigkeit. Zwar gibt es noch Zahlentypen mit größerer Genauigkeit und größerem Wertebereich, sie verbrauchen aber einen um den Faktor 5/3 größeren Speicherplatz.
Der Lösungsbereich stellt eine offene, beschränkte Menge dar.
Natürlich läßt sich auch für das Newton/Jacobi-Verfahren eine lokale Konvergenzaussage treffen; vgl. ORTEGA (1972), S. 152.
Vgl. Abschnitt 5.2.7.
Ganz im Unterschied zum Gauss’schen Eliminationsverfahren, welches wegen seiner Rundungsfehler-Problematik ein sehr schlechtes Konvergenzverhalten an den Tag legte. Es ist bekannt, daß das Rundungsfehlerproblem beim Gauss/Seidel-Verfahren weit weniger ins Gewicht fällt; vgl. ISAACSON/KELLER (1973), S. 64.
Eine Genauigkeit der Lösung bei der Berechnung der Überschußnachfrage von 10−4 erweist sich als ideal. Bei einer größeren Ungenauigkeit nimmt die Wahrscheinlichkeit zu, daß das Endsimplex des Algorithmus den Gleichgewichtspreisvektor nicht enthält. Bei größerer Genauigkeit wird die Rechenzeit zu lang.
Die in der Gleichung angeführten Symbole für das partielle, stetige Differential, sind als diskretes Differential zu interpretieren.
Die Werte variierten stark in Abhängigkeit der konkreten Funktionen und sind als Mittelwerte zu verstehen.
Verwendet wurde ein Olivetti Personal Computer, M380/XP1, ausgestattet mit einem 80387er numerischen Coprozessor und 1.2 MB Arbeitsspeicher. Das Programm wurde in Turbo-Pascal, Version 5.0, geschrieben und vom Betriebssystem MS-DOS 3.3 unterstützt.
Eine umfassende Darstellung der Speicherbelegung findet sich in O’Brien (1989), S. 63 ff. Für eine einführende Darstellung des Programmablaufs von EDV-Anlagen vgl. H. HANSEN (1987), S. 214 ff.
Allerdings werden 10 Kilobyte durch die interne Verwaltung besetzt, so daß eigentlich nur 54 Kilobyte zur Verfügung stehen. Ein Kilobyte entspricht 1024 Byte, d.h 64KB=65536B.
Die Overlay-Technik ermöglicht, jene Teile des Programmcodes, die nur zeitweise zur Verfügung stehen müssen, “übereinander” zu speichern. Der Programmcode kann somit insgesamt deutlich größer sein; vgl O’Brien (1989), S. 79 ff.
Zur dynamischen Programmierung vgl. O’Brien (1989), Kapitel 8. Grundsätzlich besteht auch hier die Möglichkeit, Datenteile, die nur zeitweise zur Verfügung stehen müssen, “übereinander” zu speichern.
Sind die Elemente der Matrix und ihrer Inversen Zahlen vom Typ Real, bedürfen sie eines Speicherplatzes von 732*2*6=63948 Byte.
Zwischenzeitlich wurde die neue MS-DOS-Version 5.0 auf den Markt gebracht, mit der eine größere Speicherbelegung möglich ist.
Diese Größe liegt allerdings weit jenseits dessen, was noch in vernünftiger Zeit zu bewältigen wäre. Die Modellrechnungen zeigten, daß in einem Bereich von I>75 unverhältnismäßig lange Rechenzeiten entstehen. Es ist auch der Grund, weshalb der Einsatz der neuen DOS-Version 5.0 keinen bedeutenden Vorteil gebracht hätte.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 1993 Physica-Verlag Heidelberg
About this chapter
Cite this chapter
Kaserer, C. (1993). Ein computergestütztes Modell zur Durchführung quantitativer Wohlfahrtsvergleiche. In: Optionsmärkte und Risikoallokation. Physica-Schriften zur Betriebswirtschaft, vol 45. Physica-Verlag HD. https://doi.org/10.1007/978-3-642-99771-6_6
Download citation
DOI: https://doi.org/10.1007/978-3-642-99771-6_6
Publisher Name: Physica-Verlag HD
Print ISBN: 978-3-7908-0704-2
Online ISBN: 978-3-642-99771-6
eBook Packages: Springer Book Archive