Zusammenfassung
Im folgenden werden die wichtigsten Verfahren und Varianten zur Bestimmung des Value at Risk hinsichtlich grundsätzlicher Vor- und Nachteile gewürdigt. Dabei spielt der Aspekt der Aggregierbarkeit eine wichtige Rolle. Ohne die Ergebnisse späterer Analysen vorwegzunehmen, werden in den folgenden Kapiteln offensichtlich verfahrensbedingte Vor- und Nachteile im Hinblick auf die Aggregierbarkeit angesprochen. Diese Erkenntnisse bilden die Grundlage für die letztlich zu beurteilende Frage, ob und wie das Gesamtbankrisikopotential mit Hilfe des Value at Risk sinnvoll und aussagekräftig bestimmt werden kann.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Siehe Wilson, Th. (Gap, 1994), S. 78–80; Meegan, C. (Value-at-risk, 1995), S. 14 ff. und J. P. Morgan (Technical Document, 1995), S. 14–21.
Diese Form der Value-at-Risk-Berechnung wird deshalb auch als analytische Methode bezeichnet. Vgl. Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 25–27.
Vgl. J. P. Morgan (Technical Document, 1995), S. 15; siehe auch Kapitel 2.3.4.5.
Vgl. hierzu Beckström, R. A./Campbell, A. R. (Value-at-Risk, 1995), S. 37 f. und S. 40 ff. Meegan, C. (Value-at-risk, 1995), S. 14 f. und Wilson, Th. (Gap, 1994), S. 79 f.; ders. (Risk Capital, 1996), S. 216 f. sowie Zangari, P. (Streamlining, 1997), S. 29 ff.
Hier wird ein Erwartungswert von null unterstellt, was zur Reduktion des Schätzfehlers (Noise) bei der Volatilitätsberechnung i. a. sinnvoll ist. Bei längeren Zeithorizonten ist diese Annahme aber problematisch (s. Kapitel 5.2.4). Vgl. hierzu Hendricks, D. (Evaluation, 1995), S. 6, FN 6 sowie Figlewski, St. (Volatility, 1996), S. 37 ff. und J. P. Morgan (Monitor I, 1996), S. 4.
Vgl. hierzu Meegan, C. (Value-at-risk, 1995), S. 15.
Dies unterscheidet das Verfahren von der historischen Simulation (siehe Kapitel 3.3.1).
Unterstellt wird genaugenommen nicht unbedingt, daß der renditegenerierende Prozeß eine Normalverteilung ist, sondern, daß sich die resultierenden Wertänderungen durch eine Normalverteilung gut oder wenigstens hinreichend genau approximieren lassen.
Vgl. hierzu Wilson, Th. (Gap, 1994), S. 79 f. und Meegan, C. (Value-at-risk, 1995), S. 18. Zur Definition des Random Walk siehe Kapitel 4.1. Hinsichtlich der Normalverteilung ist darauf zu achten, was konkret als normalverteilt angenommen wird: Die Preise oder Kurse, die Wertänderungen als diskrete oder stetigen Renditen, die zugrundeliegenden Marktrisikofaktoren, die standardisierten Renditen usw. Üblicherweise wird von einer Normalverteilung der resultierenden Wertänderungen als stetige Renditen ausgegangen. Unter RiskMetricsTM wird angenommen, daß die standardisierten Renditen normalverteilt sind, und zwar standardnormal-verteilt N(0, 1). Vgl. hierzu Zangari, P. (Improved methodology, 1996), S. 7 f.
Vgl. Wilson, Th. C. (Risk Capital, 1996), S. 216 f.
Vgl. Maddala, G. S. (Econometrics, 1992), S. 19 f. und Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 26.
Zur multivariaten Normalverteilung als gemeinsamer Verteilung unabhängig normalverteilter Zufallsvariablen und der Tatsache, daß Lineartransformationen multivariat normalverteilter Zufallsvariablen wieder normalverteilt sind, siehe Schlittgen, R./Streitberg, B. H. J. (Zeitreihen-analyse, 1995), S. 500–506. Die multivariate Normalverteilung kann als Verteilung einer beliebigen linearen Transformation unabhängig normalverteilter Zufallsvariablen definiert werden. Vgl. ebd., S. 505. Fraglich ist im gegebenen Kontext die zeitliche Unabhängigkeit der Verteilung der eingehenden Zufallsvariablen. Korreliertheit steht einer Normalverteilung der Portfoliorenditen bei der Linearkomnimation dagegen nicht entgegen, sofern die Korrelationen stationär, d. h. konstant sind. Aber auch dies ist i. a. nicht der Fall.
Eine Summe von vielen unabhängigen, beliebig verteilten Zufallsvariablen gleicher Größenordnung ist nach dem Zentralen Grenzwertsatz approximativ normalverteilt, und zwar um so besser angenähert, je größer ihre Anzahl ist. Vgl. Sachs, L. (Statistik, 1992), S. 109. Fraglich ist im genannten Kontext, ob die Anzahl der Positionen bzw. Risikofaktoren groß genug ist, um der oben genannten Bedingung des Zentralen Grenzwertsatzes zu genügen. Für die Gesamtbank wird man geneigt sein, die Bedingung der großen Zahl als erfüllt anzusehen. Allerdings muß die Unabhängigkeit der Positionen ernsthaft in Frage gestellt werden, da bspw. die Kapitalmarktzinsentwicklung eine Vielzahl von Positionen gleichermaßen tangiert. Die Güte der Approximation hängt aber letztlich von der konkreten Portfoliostruktur ab und ist schwer allgemein einzuschätzen.
Vgl. hierzu und zum folgenden Zangari, P. (Streamlining, 1997), S. 29 ff. Auf entsprechende Modelle wird in Kapitel 2.3.3.4 und 3.5.5 eingegangen. An dieser Stelle genügt es festzustellen, daß für die Anpassung stochastischer Modelle an univariate Zeitreihen und die damit verbundene Parameterschätzung komplexe, aber ausgereifte Verfahren zur Verfügung stehen - im Gegensatz zu multivariaten stochastischen Prozessen.
Wenn der Risikonutzen nicht quadratisch ist bzw. die Verteilungen nicht normal sind, dann ist die Standardabweichung nicht das angebrachte Risikomaß (siehe Kapitel 4.1).
Vgl. Beckström, R. A./Campbell, A. R. (Value-at-Risk, 1995), S. 38.
Dies kann bspw. mit Quantile-Quantile-Plots (QQ-Plots) erfolgen. Siehe Kapitel 3.5.1.
Siehe Zangari, P. (Streamlining, 1997), S. 33 ff. und Finger, Ch. C. (Options, 1997), S. 33 ff.
Vgl. hierzu und zum folgenden Wilson, Th. (Gap, 1994), S. 79 und ders. (Risk Capital, 1996), S. 216 f. Bezogen auf ein Beispiel einer großen Anzahl von Konsumentenkleinkrediten zur Ermittlung des Ausfallrisikos.
Vgl. Wilson, Th. (Gap, 1994), S. 79.
Vgl. Wilson, Th. (Gap, 1994), S. 79 und Meegan, C. (Value-at-risk, 1995), S. 16 und Wilson, Th. C. (Risk Capital, 1996), S. 217.
Vgl. Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 7 f. und S. 22 ff.
Vgl. hierzu und zum folgenden Wilson, Th. (Gap, 1994), S. 79 und Meegan, C. (Value-at-risk, 1995), S. 15 f.
Die Cholesky-Zerlegung geht auf den Geodäten Cholesky zurück. Vgl. Schwarz, H. R. (Numerische Mathematik, 1986), S. 39 u. S. 486. Schwarz verweist auf Benoit (Cholesky, 1924), S. 67–77 als Originalquelle. Die Cholesky-Zerlegung ist nur unter restriktive Prämissen durchführbar. Vor allem ist eine positiv definite Kovarianz-Matrix zu gewährleisten. Dies ist bei großen Portfolios nicht immer möglich. Darüber hinaus bestehen Probleme im Hinblick auf den Rang der Matrix bei gleitenden Durchschnittsverfahren und insbesondere bei der exponentiellen Glättung. Besonders kritisch wird die Voraussetzung positiv definiter Kovarianz-Matrizen, wenn GARCH-Modelle zur Generierung der Kovarianz-Matrizen herangezogen werden. Die direkte Schätzung großer multivariater Kovarianz-Matrizen scheint derzeit ein unüberwindliches rechnerisches Problem darzustellen. Auf diese Detailprobleme wird hier nicht näher eingegangen. Siehe hierzu J.P. Morgan/Reuters (Technical Document, 1996), S. 253 ff.; Alexander, C./Leigh, C. T. (Covariance Matrices, 1997), S. 52 ff. und Jorion, P. (Value at Risk, 1997), S. 242 ff.
Die vollständige Cholesky-Zerlegung benötigt bei einer n-dimensionalen Matrix 16 (n3 + 3n 2 – 4n) wesentliche Operationen; die Berechnung von n Quadratwurzeln fällt nicht ins Gewicht. Vgl. Schwarz, H. R. (Numerische Mathematik, 1986), S. 39 f. Bei 100 Risikofaktoren sind dies 181 600; bei 1 000 Risikofaktoren 168,166 Mio. Operationen.
Die hier entscheidende Annahme der Normalverteilung wurde auch im Verlauf der Diskussion über die angemessene Ausgestaltung bankaufsichtlicher Risikomeßsysteme kritisch bewertet, letztlich aber die vereinfachten parametrischen Verfahren gestattet. Vgl. Schulte-Mattler, H./ Traber, U. (Marktrisiko, 1995), S. 127 FN 29.
Siehe Kapitaladäquanzrichtlinie, Anhang III, Ziff. 7. Vgl. hierzu und zum folgenden auch Schulte-Mattler, H./Traber, U. (Quantifizierung, 1995), S. 626 ff. und dies. (Marktrisiko, 1995), S. 124 ff. Die Alternativen zum Standardverfahren bestehen auch beim Basler Marktrisikopapier, siehe BIZ (Eigenkapitalvereinbarung, 1996), A.3 II S. 26 sowie Teil B, S. 39 ff. Dort wird das Risikopotential explizit „value at risk“ genannt (vgl. ebd. B.4a, S. 45).
Kapitaladäquanzrichtlinie, Anhang III, Ziff. 7.
Die sich durch die überlappenden Zeiträume der gleitenden Renditen entstehende positve Autokorrelation wird nicht berücksichtigt. Sie kann zu verzerrten Risikoschätzungen führen.
In der Kapitaladäquanzrichtlinie wird allerdings eine zusätzliche Untergrenze (2% bzw. 1% Floor) für die Eigenkapitalunterlegung festgelegt.
Siehe Schulte-Mattler, H./Trâber, U. (Marktrisiko, 1995), S. 131.
Es gilt hier hinsichtlich der Normalverteilungsannahme zwei grundlegend verschiedene Betrachtungsweisen zu unterscheiden. Im einfachsten Fall wird unterstellt, daß die Renditen einer stationären Verteilung mit im Zeitablauf stabilen Parametern folgen, mit anderen Worten, daß es eine bestimmte Normalverteilung gibt, deren Parameter mit Hilfe von Stichproben geschätzt werden können. Die beobachteten, oftmals starken Schwankungen der geschätzten Parameter im Zeitablauf werden dabei als unvermeidliche Stichprobenfehler betrachtet. Da die Instabilität der Parameter ein bedeutendes Kennzeichen zahlreicher Renditezeitreihen ist, wird bei modernen Verfahren versucht, diesem Phänomen durch bedingte Parameterschätzungen gerecht zu werden. Die unterschiedlichen Schätzverfahren der Volatilität wurden in Kapitel 2.3.4.4 dargestellt. Im folgenden ist der für die Volatilitäts-und Parameterschätzung wesentliche Unterschied zunächst nicht von Belang. Die Normalverteilungshyothese und alternative Verteilungsannahmen werden aufgrund ihrer zentralen Bedeutung für den Value at Risk ausführlich in Kapitel 4 behandelt.
Der Varianz-Kovarianz-Ansatz kann grundsätzlich zur Berücksichtigung weiterer Parameter der Verteilung wie Schiefe oder Exzeß erweitert werden. Bspw. ist die Schiefe der Renditeverteilung eines Portfolios eine Funktion der Schiefe aller Positionen plus der Ko-Schiefe.
Vgl. hierzu Beckström, R. A./Campbell, A. R. (Value-at-Risk, 1995), S. 44.
Vgl. hierzu bspw. Hendricks, D. (Evaluation, 1995), S. 7 ff.
Unter Bezug auf die Portfolio Selection nach Markowitz; siehe Kapitel 2.3.3.
Vgl. Wilson, (Gap, 1994), S. 79. Da die genannten Kapitalmarkttheorien mit Erwartungswerten arbeiten, ist der Aussage zur Theoriekonformität nur mit Einschränkungen zu folgen.
Bei 100 Positionen sind dies 5 050 Parameter, von denen 4 950 Kovarianzen darstellen. Bei 1 000 verschiedenen Positionen sind bereits 500 500 Parameter zu schätzen! Vgl. Meegan, C. (Value-at-risk, 1995), S. 16. Siehe auch Kapitel 3.2.3.1.
Vgl. Beckström, R. A./Campbell, A. R. (Value-at-Risk, 1995), S. 44 f.
Vgl. Meegan, C. (Value-at-risk, 1995), S. 16 und Wilson, Th. (Gap, 1994), S. 79.
Siehe v. a. Ross, St. A. (Arbitrage Theory, 1976), S. 341–360. Vgl. grundlegend Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), S. 128 ff. und zum folgenden auch Zimmermann, H. (Performance-Messung, 1992), S. 69 f.
Dies läßt sich mit den Ergebnissen von Elton/Gruber rechtfertigen, daß komplexere Modelle zwar die vergangene Entwicklung besser beschreiben, bei der Prognose der zukünftigen Entwicklung aber häufig mehr noise als Information einbringen. Vgl. Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), Kapitel 8, hier S. 174 m. w. N.
Vgl. Sharpe, W. F. (Simplified Model, 1963), S. 277 ff. Im Original wird es als Diagonalmodell bezeichnet. Vgl. hierzu und zum folgenden Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 11 ff. und Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), S. 128 ff.
Vgl. hierzu und zum folgenden Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), S. 55 ff. und S. 129 ff.
Vgl. Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 10, Tab. 1.2.
Vgl. Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), S. 130 ff.; hier S. 135 und Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 11–15; hier S. 14.
Vgl. hierzu und zum folgenden Uhlir, H./Steiner, P. (Wertpapieranalyse, 1994), S. 170 ff.; Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 32 ff. und Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), 152 ff.
Das Marktmodell greift auf die Rendite des Marktportfolios zurück. Das Marktportf olio enthält theoretisch alle Titel eines Marktes gewichtet mit ihren entsprechenden Anteilen. Dies ist grundsätzlich problematisch, da bspw. die konkrete Bestimmung des relevanten Marktportfolios bzw. die Auswahl des entsprechenden Index unklar ist. Die in der Praxis herangezogenen Indizes enthalten i. a. bei weitem nicht alle Anlagemöglichkeiten und/oder nicht in der richtigen Gewichtung. Dies beeinträchtigt die Repräsentativität der Schätzungen. Siehe hierzu auch Steiner, M./Kleeberg, J. (Indexauswahl, 1991), S. 171 ff. und Steiner, M./Nowak, Th. (Risikofaktoren, 1994), S. 347 ff.
Ebenso wie beim CAPM erfolgt die Trennung von marktbezogenen (systematischen) und einzelpositionsbezogenen (unsystematischen) Renditekomponenten.
Hinsichtlich der Residuen u, werden die beim Indexmodell genannten Prämissen aufrechterhalten.
Damit soll jedoch nicht behauptet werden, daß die erweiterte, multiple Regression zu besseren Ergebnissen führen muß. Daß ein weiter hinzutretender Faktor keinen Erklärungsgehalt besitzt, kann grundsätzlich nicht gewährleisten, daß es nicht einen Faktor nächst höherer Ordnung mit bedeutendem Erklärungsgehalt gibt.
Vgl. hierzu Steiner, M.Bruns, Ch. (Wertpapiermanagement, 1995), S. 34 f. Ausführlich zur Zuverlässigkeit der Schätzparameter des Marktmodelles Uhlir, H./Steiner, P. (Wertpapieranalyse, 1994), S. 178 ff. m. w. N. Bemerkenswert ist vor allem, daß die Schätzgüte der Betas durch Portfoliobildung verbessert werden kann, d. h. die bei einzelnen Werten zu beobachtende Unzuverlässigkeit der Betas abgebaut werden kann.
Vgl. Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 15. Die Unterstellung unkorrelierter Residuen ist kritisch zu sehen, da es nicht unbedingt angebracht ist, davon auszugehen, daß positionsspezifische Renditeschwankungen keinen Einfluß auf andere Positionen nehmen. Der Gegenbeweis wäre bspw. bei Aktien innerhalb einer Branche oder bei verflochtenen Unternehmen leicht zu erbringen.
Siehe hierzu BIZ (Rückvergleiche, 1996) bzw. im Original BIS (Backtesting, 1996) und auch Kupiec, P. H. (Verifying, 1995) und Cmkovic, C./Drachman, J. (Model Risk, 1996), S. 138–143 sowie Schröder, F./Schulte-Mattler, H. (CD-Verfahren, 1997), S. 420–425.
Vgl. Dimson, E./Marsh, P. (Stress Tests, 1996), S. 18 in bezug auf Aktienportfolios. Der vereinfachte Portfolio-Ansatz mit der Prämisse, daß alle Aktien ein Beta von eins aufweisen, führt zu vergleichbar guten Resultaten wie die historische Simulation.
Vgl. hierzu und zum folgenden Meegan, C. (Value-at-risk, 1995), S. 16 ff. Siehe auch Alexander, C./Leigh, C. T. (Covariance Matrices, 1997), S. 50 ff.
Vgl. Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 25 und Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 33 ff.
Vgl. J. P. Morgan (Technical Document, 1995), S. 14:,potential loss = sensitivities to rate changes * potential changes in rates“
Vgl. hierzu und zum folgenden Kruschwitz, L./Wolke, Th. (Convexity, 1994), S. 384. Grundlegend zur Taylor-Entwicklung siehe Schlittgen, R./Streitberg, B. H. J. (Zeitreihenanalyse, 1995), S. 512–516.
Die über die Convexity erfolgende Schätzung, bzw. der ermittelte Schätzfehler der Modified Duration ist allerdings seinerseits ungenau, weil die Tenne dritten und höheren Grades vernachlässigt werden.
Sie gelten als das Schwerpunktrisiko der Kreditinstitute, obwohl ihr Einfluß auf die Ertragslage mit der zunehmenden Erschließung neuer Geschäftsfelder zurückgeht.
Vgl. hierzu und zum folgenden Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 273 ff. sowie Oberman, R. (Risk-Management, 1991), S. 46 ff.
Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 107 f. Der dritte mögliche Ansatz, der auf Nominalbeträgen basiert (principal mapping), kommt im Kontext des Value at Risk nicht in Frage. Dabei wird die durchschnittliche Fälligkeit der Zinspositionen herangezogen, was zur erheblichen Verzerrung der Risikodarstellung führt. Vgl. Jorion, P. (Value at Risk, 1997), S. 211 ff. Unterschieden werden analog produktspezifischer und Cash-flow-spezifischer Ansatz. Vgl. Groß, H./Knippschild, M. (Risikocontrolling, 1995), S. 88 f.
Im Original Hicks, J. R. (Value, 1939); hier Hicks, J. R. (Value, 1946), S. 184–188. Hicks berechnete die Elastizität des Barwertes eines Zahlungsstromes in bezug auf eine Diskontrate und ermittelte die „Average Period of the stream; for it is the average length of time for which the various payments are deferred from the present, when the times of deferment are weighted by the discounted values of the payments.“ [ebd. S. 186].
Die Duration wurde von F. R. Macaulay als Vergleichsmaßstab verschiedener Anleihen konzipiert, welcher die wesentlichen Faktoren Restlaufzeit, Kuponhöhe und jeweilige Rendite erfaßt und in einer einzigen Zahl ausdrückt. Vgl. Macaulay, F. R. (Interest rates, 1938), S. 44 ff. Wesentliche Beiträge zum Konzept der Duration stammen von Samuelson und Redington. Siehe Samuelson, P. A. (Effect, 1945), S. 21 ff. und Redington, F. M. (Review, 1952), S. 288 ff. Sie selbst ist kein Sensitivitätsmaß im eigentlichen Sinne, sondern in erster Linie eine zeitbezogene Kennzahl für das Management von Anleihen und Anleihenportfolios und kann mit Einschränkungen zur Immunisierung von Portfolios gegenüber Zinsänderungen herangezogen werden. Duration und Immunisierung wurden in der Literatur umfassend behandelt. Zur Wirkungsweise der Immunisierung mit Hilfe der Macaulay Duration und zur Kritik am Duration-Konzept siehe stellvertretend für viele Fisher, L./Weil, R. (Risk, 1971), S. 415–425; Rudolph, B. (Zinsänderungsrisiken, 1979), S. 190 ff.; ders. (Zinsänderungsrisiken, 1987), S. 317–332; Rudolph, B./Wondrak, B. (Zinsänderungsrisiken, 1985), Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 242 f.; Loistl, O. (Wertpapiermanagement, 1996), S. 258–267; ausführlich Uhlir, H./Steiner, P. (Wertpapieranalyse, 1994), S. 70–103.
Zur Modified Duration vgl. Rudolph, B. (Zinsänderungsrisiken, 1979), S. 200 ff.; Eller, R. (Modified Duration, 1991), S. 322 ff.; ders. (Risikomanagement, 1996), S. 47 ff.; Eller, R./Spindler, Ch. (Zins-und Währungsrisiken, 1994), S. 43 f. sowie Kruschwitz, L./ Wolke, Th. (Convexity, 1994), S. 382 ff. und Fabozzzi, F. J. (Bond Markets, 1996), S. 60 ff.
Der Ausdruck in großen Klammem entspricht der Macaulay-Duration D, multipliziert mit P, dem Preis bzw. Barwert des Zinstitels (der Barwert im Nenner fällt durch Multiplikation mit P weg).
Vgl. hierzu Rudolph, B. (Kontrollrechnungen, 1981), S. 549 und bspw. Hockmann, H. J. et al. (Anleihenportfolios, 1991), S. 148 f.; Bühler, A./Hies, M. (Key-Rate-Duration, 1995), S. 112 f. sowie Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 41 f.
Die Modified Duration bildet den inversen Preis-Rendite-Zusammenhang und die Eigenschaften von optionsfreien Zinspositionen zutreffend ab. Sie ist um so größer, je länger die Restlaufzeit ist und i. a. um so größer, je niedriger der Kupon ist. Vgl. Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 43 f. und Fabozzi, F. J. (Interest Rate Risk, 1996), S. 43 ff.
Als Alternative zur Modified Duration wird in der Praxis häufig der Price Value of a Basis Point verwendet. Dieser bezeichnet die absolute Preisänderung einer Zinsposition, wenn sich die Rendite um einen Basispunkt (0,01%) ändert. Es wird unmittelbar die absolute Preissensitivität (Marktrisikofaktorsensitivität) gemessen, im Gegensatz zur Modified Duration, welche die prozentuale Preisänderung bei einer Renditeänderung um 100 Basispunkte angibt. In der Handhabung macht dies keinen Unterschied, doch ist die unterschiedliche Behandlung von Stückzinsen zu beachten. Vgl. Fabozzzi, F. J. (Bond Markets, 1996), S. 57; ders. (Interest Rate Risk, 1996), S. 46 ff.; Eller, R./Spindler, Ch. (Zins-und Währungsrisiken, 1994), S. 44 ff. und Eller, R. (Risikomanagement, 1996), S. 53 f.
Da die Modified Duration für größere Renditeänderungen erhebliche Schätzfehler liefert, ist die Verwendung von 100 Basispunkten nicht nur eine Konvention, sondern ein sinnvoller Einsatz der Modified Duration als Risikomaß ist nur innerhalb dieser Grenze möglich. Vgl. bspw. Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 46.
Anzumerken ist, daß Macaulay bei der Berechnung der Duration den jeweiligen halbjährlichen Effektivzins (semi-annual yield to maturity) der bonds, nicht den „Marktzins“ verwendet. Vgl. Macaulay, F. R. (Interest rates, 1938), S. 48 und S. 51. Kritisch hierzu bspw. Ingersoll, J. E./Skelton, J./Weil, R. L. (Duration, 1978), S. 631.
Bei variabel verzinslichen Positionen ist die Höhe der Zahlungen nicht deterministisch. Bei der Ermittlung der Duration eines Floaters wird daher auf die Zinsanpassungstermine statt auf die Endfälligkeit zurückgegriffen. Die Duration eines Floaters vor einem Zinsanpassungstermin ist demnach nahe null. Alternativ ließen sich die zukünftigen Zahlungen prognostizieren und dann bei der Ermittlung der Duration berücksichtigen. Die Duration eines Reverse Floaters ist vergleichsweise komplizierter zu ermitteln. Liegen Optionen vor, kann auf die Effective Duration zurückgegriffen werden, auf die später eingegangen wird. Vgl. Fabozzi, F. J. (Interest Rate Risk, 1996), S. 51 ff. und ders. Fabozzzi, F. J. (Bond Markets, 1996), S. 343 ff.
Vgl. hierzu und zum folgenden Eller, R. (Risikomanagement, 1996), S. 60 ff. sowie Landwehr, H. A. (Moderne Instrumente, 1994), S. 144 f. Ähnlich auch Fabozzi, F. J. (Interest Rate Risk, 1996), S. 99.
Als Marktwert findet bei kupontragenden Zinspositionen (wie Bundesanleihen) der Dirty Price, also der Kurswert zuzüglich aufgelaufener Stückzinsen Verwendung.
Als erste haben Fisher und Weil ein Verfahren zur Lösung dieses Problems vorgeschlagen, indem die Barwerte der Zahlungsreihe mit Forward-Rates (genauer zinsstrukturbezogenen Nullkupon-Abzinsungsfaktoren) bestimmt werden.Vgl. Fisher, L./Weil, R. (Risk, 1971), S. 415 f. Allerdings gehen sie von einer Parallelverschiebung der Zinsstrukturkurve aus: „The assumption says that if forward interest rates change, all rates change by the same for all t.“ Ebd. S. 416. Sie weisen ausdrücklich auf diese Vereinfachung hin: The assumptions about shifts in interest rates does not hold in reality. A more accurate description is ib(t) = i,(t) + A(t), where i(t) is not constant.” Ebd. S. 417. Vgl. hierzu auch Schierenbeck, H. (Bankmanagement, 1994), S. 535 und Schulte-Mattler, H./Traber, U. (Quantifizierung, 1995), S. 162.
Die Key-Rate-Duration ist definiert als die Preissensitivität einer Anleihe aufgrund der Veränderung einer speziellen Rendite (der Key-Rate), wobei alle anderen Renditen konstant gehalten werden. Sie ist somit die partielle Preiselastizität in bezug auf die Veränderung der Key-Rates. Key-Rates stellen Zinssätze (und zwar Renditen) dar, die für bestimmte Laufzeiten t (etwa 1, 2,..., 10 Jahre Restlauf zeit) definiert werden. Verändert man die einzelnen Key-Rates, was als Key-Rate-Shift bezeichnet wird, lassen sich c. p. die Auswirkung einer bestimmten Zinsstrukturänderung auf den Barwert isoliert analysieren.
Es gibt zahlreiche Weiterentwicklungen der Duration zur Berücksichtigung der Auswirkungen von nicht-parallelen Verschiebungen und Veränderungen der Zinsstruktur. Neben der Key-RateDuration [vgl. Ho, T. S. (Key Rate Durations, 1992), S. 29–44; Bühler, A./Hies, M. (Key-Rate-Duration, 1995), S. 112–118 und Deutsch, H.-P. (Risiko, 1996), S. 145] sind die Functional Duration [vgl. Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 54–56] oder Partial Duration [siehe bspw. Reitano, R. R. (Immunization, 1992), S. 36–43] zu nennen. Betrachtet man das Reinvermögen eines Kreditinstitutes, d. h. den Wert des Eigenkapitals als Differenz der Markt-bzw. Barwerte der Aktiva und Passiva (i. S. v. Liquidationswerten), so kann bei finanzmathematisch korrekter Bewertung die Reinvermögensänderung als Barwertänderung aufgrund einer Änderung des Bewertungszinssatzes ermittelt werden.
Vgl. Schmidt, H. (Marktzinsrisiken, 1981), S. 249–286, insb. S. 252 ff.; Keine, F.-M. (Risikoposition, 1986), S. 339 ff.; Bangert, M. (Zinsrisiko-Management, 1987), S. 116 ff.; Professoren-Arbeitsgruppe (Begrenzung, 1987), S. 294 ff.; Herzog, W. (Zinsänderungsrisiken, 1990), S. 65 ff.; Bösl, K. (Risikobegrenzung, 1993), S. 179 ff.; grundlegend auch Rudolph, B. (Zinsänderungsrisiken, 1979), S. 202 ff. und ders. (Kontrollrechnungen, 1981), S. 549 ff.
Anders als bei der Zinsbindungsbilanz wird nicht nur die offene Festzinsposition, sondern das gesamte Festzinsgeschäft betrachtet. Unter der unrealistischen Prämisse einer sofortigen Anpassung der Konditionen bleibt jedoch der Marktwert variabel verzinslicher Zinspositionen von einer Marktzinsänderung unbeeinflußt. Die sachgerechte Erweiterung auf alle Zinspositionen und die Aufhebung der anderen Prämissen ist möglich, soll hier aber nicht dargestellt werden.
Der Solvenzeffekt bildet die Kapitalwertänderung bei einer Marktzinsänderung ab. Ein negativer Solvenzeffekt bedeutet eine Reinvermögensminderung. Bei einer Marktzinserhöhung (Marktzinssenkung) haben die Wertverluste (hat der Wertzuwachs) der Aktivpositionen den Wertzuwachs (die Wertverluste) der Passivpositionen übertroffen (nicht kompensiert). Dies ist typischerweise beim Festzinsüberhang der Fall.
Der Datenbedarf ist vergleichsweise groß, da sämtliche Zins-und Tilgungsbeträge und ihre Zeitpunkte ermittelt werden müssen.
Siehe hierzu, stellvertretend für viele, Rudolph, B. (Zinsänderungsrisiken, 1979), S. 202 ff.; Schmidt, H. (Marktzinsrisiken, 1981), S. 249–286, v. a. S. 252 ff.; Kugler, A. (Ansätze, 1985), S. 259 f., Keine, F.-M. (Risikoposition, 1986), S. 339 ff.; Bangert, M. (Zinsrisiko-Management, 1987), S. 116 ff.; Professoren-Arbeitsgruppe (Begrenzung, 1987), S. 294 ff.; Bessler, W. (Zinsrisikomanagement, 1989), S. 202 ff.; Herzog, W. (Zinsänderungsrisiken, 1990), S. 65 ff. und Bösl, K. (Risikobegrenzung, 1993), S. 179 ff.
Siehe hierzu auch Hanweck, G. A./Shull, B. (Interest rate volatility, 1996), S. 73 ff.
Vgl. Deutsch, H.-P. (Risiko, 1996), S. 129 und S. 141 ff.
Die Annahme der strikt linearen Beziehung läßt sich durch die Einbeziehung weiterer Terme der Taylor-Reihe schrittweise aufheben.
Bei Fremdwährungspositionen tritt als Risikofaktor die Wechselkursschwankung hinzu, die jedoch aufgrund des linearen Zusammenhangs von Positionswert und Wechselkursentwicklung weitgehend unproblematisch ist. Jeder relevante Wechselkurs wird als eigener Risikofaktor betrachtet, und entsprechend gehen die Korrelationen sämtlicher Wechselkurse in die Berechnung ein. Vgl. Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 25 ff.
Vgl. Estrella, A. et al. (Price Risk, 1994), S. 30 ff.; Jorion, P. (Value at Risk, 1997), S. 187 f. und Schulte-Mattler, H. (Delta-plus-Ansatz, 1996), S. 502 f. sowie auch BAK (Entwurf Grundsatz I, 1997), § 28, S. 39 f. und BAK (Erläuterungen Grundsatz I, 1997), § 28, S. 109 ff. Zur Ermittlung des Bund-Futures-Äquivalentes siehe Bürger, P. (Risikocontrolling, 1995), S. 252 f.
Vgl. hierzu Allen, M. (Role Model, 1994), S. 73 ff. und Meegan, C. (Value-at-risk, 1995), S. 16 f. Der Delta-normal-Ansatz basiert also auf einer Risikofaktorenzerlegung des Portfolios. Die Risikofaktoren werden als (Faktor-)Deltas bezeichnet, daher die angloamerikanische Bezeichnung als delta-normal approach.
Daher wird er von Allen auch als Korrelationsmethode (correlation method) bezeichnet. Vgl. Allen, M. (Role Model, 1994), S. 73 ff.
Vgl. hierzu und zum folgenden Allen, M. (Role Model, 1994), S. 73 ff.; Meegan, C. (Value-atrisk, 1995), S. 16 ff. und Wilson, Th. (Gap, 1994), S. 79 f.
Dabei gibt die Konstante za, wie zuvor, das einseitige Konfidenzintervall der Standardnormalverteilung an. t ist die reguläre Liquidationsperiode und aa =. js’E 5 gibt die Standardabweichung der Portfoliorenditen an, die als Funktion des Portfoliodelta berechnet wird. S ist ein M x 1-Vektor der Faktorsensitivitäten, und E ist die M x M-Kovarianzmatrix der Risikofaktoren, nicht der einzelnen Assets oder Positionen.
Eine Variante des Delta-normal-Ansatzes ist der von Alexander vorgeschlagene Delta-normalGARCH-Ansatz, bei dem mit einer zeitveränderlichen Portfoliovarianz bzw. dynamischen Korrelationen, allg. dynamischen Faktordeltas, die auf der Basis eines GARCH-Modelles spezifiziert werden, gearbeitet wird. Dadurch könnte ein Kritikpunkt, die statische Eigenschaft des Value-at-Risk-Konzeptes, entschärft werden. Die Berechnung des Value at Risk unter Verwendung des GARCH-Mode lles (oder seiner Varianten) wird rechnerisch zu anderen Ergebnissen führen, ist im übrigen methodisch aber nicht anders einzuschätzen als der Deltanormal-Ansatz. Lediglich das Verfahren der Volatilitätsschätzung unterscheidet sich. Die vergleichsweise Schätzgüte dieser Variante ist primär eine empirische Frage, auf die hier zunächst nicht näher eingegangen wird. Vgl. Alexander, C. (Correlation, 1994), S. 63.
Vgl. hierzu und zum folgenden Allen. M. (Role Model, 1994), S. 73, Meegan, C. (Value-at-risk, 1995), S. 17 und Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 26 f.
Dies ergibt sich unmittelbar aus der Verwendung der Linearkombination normalverteilter Variablen, die wiederum eine Normalverteilung ergeben soll, damit die gezeigten Konfidenzniveaus durch die zö Multiplikatoren der Standardabweichung ausgedrückt werden können.
Vgl. Allen, M. (Role Model, 1994), S. 73.
Vgl. Meegan, C. (Value-at-risk, 1995), S. 17; Wilson, Th. (Gap, 1994), S. 79 f.
Vgl. Wilson, Th. (Gap, 1994), S. 79 f. und Meegan, C. (Value-at-risk, 1995), S. 17.
Vgl. J. P. Morgan (Technical Document, 1995), S. 14.
Vgl. hierzu Allen, M. (Role Model, 1994), S. 73 ff.
Vgl. Estrella, A. et al. (Price Risk, 1994), S. 27 ff.; Longerstaey, J./Zangari, P. (VAR framework, 1996), S. 50 ff.; Jorion, P. (Value at Risk, 1997), S. 191 f.
Zur formalen Herleitung der Convexity siehe Anhang 10–3. Zum Satz von Taylor s. S. 147. Vgl. Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 49 ff.; Fabozzzi, F. J. (Bond Markets, 1996), S. 67 f. sowie Kruschwitz, L./Wolke, Th. (Convexity, 1994), S. 384; Heidom, Th. (Finanzmathematik, 1994), S. 45; Kruschwitz, L./Wolke, Th. (Convexity, 1994), S. 384; Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 247 f.
Auch diese Approximation bei nicht-marginalen Zinsänderungen ist wiederum mit einem Schätzfehler behaftet, da die höheren Terme der Taylor-Reihe vernachlässigt werden.
Im Vergleich zur Formel der Duration (s. a. Anhang 10–2) ist im Zähler lediglich der Term (t+1) hinzugefügt und der Nenner mit (1+r)2 multipliziert worden.
Vgl. hierzu Eller, R. (Modified Duration, 1991), S. 323 ff.; Doerks, W./Hübner, St. (Konvexität, 1993), S. 103 ff. und Scherer, B. G. (Konvexitätsstrategien, 1995), S. 622 ff.
Vgl. hierzu und zum folgenden Steiner, M.Bruns, Ch. (Wertpapiermanagement, 1993), S. 246–249; Eller, R. (Modified Duration, 1991), S. 323–325; Kruschwitz, L./Wolke, Th. (Convexity, 1994), S. 382 ff. sowie Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 37 ff. und S. 47 ff. und Fabozzzi, F. J. (Bond Markets, 1996), S. 67 ff.
Der gezeigte Schätzfehler der Modified Duration ist um so größer, je größer die Restlaufzeit der Zinsposition ist und je stärker die Renditeänderungen sind. Lediglich in einem Bereich von +/- 50 Basispunkten liefert die Modified Duration einen Maßstab für die Zinssensitivität von hinreichender Genauigkeit. Bei Renditesteigerungen wird der Wertverlust tendenziell unterschätzt, bei sinkenden Renditen wird der Gewinn unterschätzt, wobei zudem zu beachten ist, daß die Schätzfehler im positiven und negativen Bereich nicht symmetrisch sind. Wichtige Einflußfaktoren auf die Convexity sind die Höhe der Cash-flows und die Laufzeit: je höher bzw. länger, desto größer die Convexity. Da bei der Risikoanalyse mit Hilfe des Value at Risk aufgrund der üblicherweise geforderten hohen Konfidenzniveaus (>95%) von großen Renditeveränderungen auszugehen ist, ist zu prüfen, ob die Convexity vernachlässigt werden darf, oder ob die zu erwartenden Approximationsfehler nicht mehr toleriert werden können.
Nach Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 247 Abb. 5.7.
Vgl. bspw. Fabozzzi, F. J. (Bond Markets, 1996), S. 71. Altemativ kann der Price Value of a Basis Point verwendet werden.
Das Beispiel wurde in Anlehnung an Fabozzzi, F. J. (Bond Markets, 1996), S. 70 f. gewählt.
Probe: Der Rechenweg über den prozentualen Verlust im Fall der Renditeänderung um 3,29% (1,6449. 0,02) muß zum gleichen Ergebnis führen: Anteil der Modified Duration an der Wertänderung = -10,54.0,02. 1,6449 = -0,3467 = 34,67% oder 24,46 DM. Anteil der positiven Convexity an der Wertänderung = 2.180,43 • (0,02. 1,6449)2= = 0,0976 = 9,76% oder 6,88 DM. Gesamte Wertänderung = -24,91% oder -17,57 DM.
Vgl. hierzu und zum folgenden Fabozzzi, F. J. (Bond Markets, 1996), S. 343–345.
Fabozzzi, F. J. (Bond Markets, 1996), S. 345.
Vgl. hierzu und zum folgenden Fabozzzi, F. J. (Bond Markets, 1996), S. 75 f. und S. 344 sowie ders. (Interest Rate Risk, 1996), S. 51 ff. Approximiert wird hier die durchschnittliche Wertveränderung (relativ zum ursprünglichen Wert), bezogen auf eine Renditeänderung, die in Basis Punkten ausgedrückt wird. Notwendig ist allerdings die zweifache (!) Neubewertung der Zinsposition. Das Verfahren scheint daher rechnerisch ineffizient zu sein.
Vgl. hierzu und zum folgenden Fabozzi, F. J. (Interest Rate Risk, 1996), S. 51 f. und S. 64 f. sowie Hanweck, G. A./Shull, B. (Interest rate volatility, 1996), S. 70 ff.
Ein geeignetes Binomialmodell stellen bspw. Kalotay, A. J. et al. (Embedded Options, 1993), S. 35–46 vor.
Zum Begriff und zur Rechtslage siehe Rösler, P. (Vorfälligkeitsentgelt, 1997), S. 1369 ff. m. w. N. sowie Wenzel, F. (Vorfälligkeitsentgelt, 1995), S. 368 ff. und ders. (Vorfälligkeitsentgelt, 1997), S. 43 ff. und Metz, R. (Vorfälligkeitsentschädigung, 1994), S. 205 ff.
Der Schulder hat das Recht, aber nicht die Pflicht, dem Gläubiger vorzeitige Rückzahlungen zu leisten.
Vgl. hierzu und zum folgenden Hanweck, G. A./Shull, B. (Interest rate volatility, 1996), S. 70 ff.
Das Risiko der vorzeitigen Rückzahlung ist somit primär ein Reinvestitionsrisiko. Die Wiederanlage der Mittel kann nur zu niedrigeren Zinsen erfolgen, dadurch fallen in Zukunft geringere Cash-flows an. Insofern ist auch der Barwert risikobehaftet. Die Differenz zwischen dem Barwert des ursprünglichen Zahlungsstromes und dem Barwert des Zahlungsstromes der reinvestierten Mittel ergibt den Verlust des Gläubigers durch die vorzeitige Rückführung. Zudem entstehen Risiken durch die ungeplanten offenen Zinspositionen und somit ungeplantes Exposure.
Selbstverständlich kann eine Vielzahl anderer Gründe für die vorzeitige Rückführung der Mittel bestehen, hier wird nur das Zinsniveau betrachtet.
Vgl. Fabozzi, F. J. (Interest Rate Risk, 1996), S. 52.
Eigene Darstellung auf der Grundlage fiktiver Werte für die negative Convexity.
Im einfachsten Fall wird die interne Rendite jeder Zinsposition auf Basis der aktuellen Zinsstruktur zur Ermittlung der jeweiligen Modified Duration und Convexity verwendet und von einer einheitlichen Renditevolatilität über alle Restlaufzeiten ausgegangen.
Vgl. Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 249.
Vgl. Schierenbeck, H. (Bankmanagement, 1994), S. 538 und S. 543.
Bei der vollständigen Neubewertung (full valuation) werden sämtliche Cash-flows ermittelt und in ein Laufzeitengitter eingeordnet, mit entsprechenden Zerobond-Abzinsfaktoren diskontiert und dann wird die Differenz zwischen Ist-Barwert und dem potentiellen zukünftigen Barwert gebildet. Eine im Vergleich zur Approximation bessere Risikoquantifizierung durch vollständige Neubewertung gelingt allerdings nur, wenn realistische und der geforderten Wahrscheinlichkeit entsprechende Renditevolatilitäten oder Zinsszenarien verwendet werden.
Vgl. hierzu und zum folgenden Wilson, Th. (Gap, 1994), S. 75 f. und ders. (Risk Capital, 1996), S. 205 ff.; Pritsker, M. (Value at Risk Methodologies, 1996), S. 7 ff. und ausführlich Estrella, A. et al. (Price Risk, 1994), S. 30 ff. und Estrella, A. (Series Approximations, 1995).
Beim Delta-normal-Ansatz werden normalverteilte Risikofaktoränderungen unterstellt. Zusammen mit der linearen Faktorsensitivität ergibt sich eine Linearkombination normalverteilter Zufallsvariablen und somit eine multivariate Normalverteilung. Beim Delta-Gamma-Ansatz wird die Portfoliowertänderung approximiert, indem eine Summe der Linearkombination normalverteilter Zufallsvariablen und quadratischer Terme zweiter Ordnung gebildet wird. Weil die quadratischen Terme eine Chi-Quadrat-Verteilung haben, geht die Normalverteilungseigenschaft verloren. Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 9, FN 16.
Vgl. BAK (Erläuterungen Grundsatz I, 1997), § 29, S. 117 ff. Bei der Erläuterung des neuen Grundsatz I wird im Rahmen des „Delta-Plus-Ansatzes“ die Ermittlung des Anrechnungsbetrages genauer erläutert. Hier kann darauf verzichtet werden.
Angenommen wird eine nicht-singuläre Kovarianzmatrix und eine nichtsinguläre Gamma-Matrix. Zusätzlich werden im allgemeinen weitere vereinfachende Annahmen getroffen, um das Ziehen der Quadratwurzel aus der Kovarianz-Matrix rechnerisch effizient zu ermöglichen. Die Terme abseits der Hauptdiagonalen werden in der Praxis häufig auf null gesetzt, obwohl dies nicht zutreffend ist. Zur Dekomposition der Matrix siehe Longerstaey, J./Zangari, P. (VAR framework, 1996), S. 50 f. und Wilson, Th. C. (Risk Capital, 1996), S. 207 ff. sowie Pritsker, M. (Value at Risk Methodologies, 1996), S. 9 f.
Siehe hierzu ausführlich Zangari, P. (VaR methodology, 1996), S. 4 ff. und ders. (Delta-gamma methodology, 1996), S. 12 ff. m. w. N. Siehe auch Wilson, Th. C. (Risk Capital, 1996), S. 205 ff.
Um die höheren Momente zu erfassen, erfolgt eine spezifische Korrektur der Verteilung, die Transformation zu einer sog. Johnson-Verteilung. Diese Transformation soll gewährleisten, daß nach Standardisierung die Verteilung, auf deren Basis der Value at Risk ermittelt wird, der bspw. schiefen Verteilung der Portfoliowertänderung entspricht. Siehe Kapitel 3.2.3.3.4.
Vgl. hierzu und zum folgenden Zangari (Delta-gamma methodology, 1996), S. 19 ff. und J.P. Morgan/Reuters (Technical Document, 1996), S. 247 ff. sowie Wilson, Th. C. (Risk Capital, 1996), S. 205 ff. Als empirische Studie zur Genauigkeit der Delta-Gamma-Approximation ist Pritsker, M. (Value at Risk Methodologies, 1996), hier insbes. S. 52 ff. anzuführen. Zur Kritik an der Taylor-Approximation vgl. Estrella, A. (Series Approximations, 1995), S. 1 ff.
Siehe bspw. Steiner, M.Bruns, Ch. (Wertpapiermanagement, 1995), S. 417 ff.
Vgl. Estrella, A. et al. (Price Risk, 1994), S. 31 und S. 38.; Klaus, M. (Value-at-Risk-Berechnung, 1997), S. 377 ff.
Vgl. BAK (Erläuterungen Grundsatz I, 1997), § 30, S. 119 ff. Dem Vega einer erworbenen Position ist ein positives, dem einer verkauften Option ein negatives Vorzeichen zuzuordnen.
Siehe auch Steiner, M./Raulin, G. (Eigenoptionshandel, 1992), S. 470 f.; Krumnow, J. (Bankencontrolling, 1997), S. 308 f.; Schulte-Mattler, H. (Szenario-Matrix-Verfahren, 1996), S. 758 ff. und Klaus, M. (Value-at-Risk-Berechnung, 1997), S. 376 ff. und auch BAK (Erläuterungen Grundsatz I, 1997), § 31, S. 120 ff.
Vgl. BAK (Erläuterungen Grundsatz I, 1997), S. 111 f. und S. 120 ff.
Durch diese Sensitivitätsanalyse ergibt sich im Vergleich zur Simulation eine erhebliche Zeitersparnis durch den verringerten Rechenaufwand, da nicht zahlreiche stochastisch simulierte Szenarien unter Berücksichtigung von Korrelationen, sondern nur vorgegebene Parameteränderungen betrachtet werden. Der Vorteil wird allerdings mit der Vernachlässigung weiterer risiko-bestimmender Determinanten (Zeitwertverlust, laufzeitabhängige Volatilitätsänderungen) erkauft.
Siehe auch Krumnow, J. (Bankencontrolling, 1997), S. 309, Abb. 7: Beispiel für eine Spot-Vol-Matrix, basierend auf den Spot-Rates des US-Dollars und seiner Volatilität.
Vgl. hierzu und zum folgenden Zangari, P. (VaR methodology, 1996), S. 4 ff. und Longerstaey, J./Zangari, P. (VAR framework, 1996), S. 50 ff.
Die Annahmen hinsichtlich des Erwartungswertes und der Varianz usw., die für die einzelnen Renditen gelten, werden demnach nicht notwendigerweise auch für die Renditeverteilung eines Portfolios gelten, das Optionen enthält. Insbesondere wenn Optionen gewolltermaßen die Renditeverteilung bspw. nach unten begrenzen (Hedging!), dürfen die a-Quantile und ihre entsprechenden Konfidenzniveaus der Normalverteilung nicht oder nicht ohne weiteres herangezogen werden.
Siehe hierzu Zangari, P. (VaR methodology, 1996), S. 4–12 und Longerstaey, J./Zangari, P. (VAR framework, 1996), S. 49–52. Siehe auch Fallon, W. (Value-at-Risk, 1996), S. 11 ff. sowie Pritsker, M. (Value at Risk Methodologies, 1996), S. 13 f.
Grundlegend zur Cornish-Fisher Expansion siehe auch Zelen, M./Severo, N. C. (Probability functions, 1970), S. 935 f.
Vgl. hierzu und zum folgenden Zangari, P. (VaR methodology, 1996), S. 4–12.
Die kritischen Grenzen der Comish-Fisher-Approximation cva werden als Funktion der kritischen Grenzen bestimmt. Dabei werden Korrekturen sowohl für die Schiefe als auch für die Kurtosis vorgenommen. Es werden also lediglich die ersten vier zentralen Momente der Portfoliorenditeverteilung berücksichtigt, was jedoch gegenüber der simplen Verwendung der Normalverteilung einen erheblichen Genauigkeitszuwachs bedeuten kann. Die Güte der Schätzung hängt dabei allerdings unmittelbar von der richtigen Schätzung der zentralen Momente der Renditeverteilung ab. Da in der praktischen Anwendung statt der unbekannten tatsächlichen Momente der Verteilung wiederum Schätzwerte verwendet werden müssen, die auf Basis einer Stichprobe historischer Beobachtungen ermittelt werden, ergibt sich das spezielle Problem der Sicherheitsäquivalenz („certainty equivalence“). Der Schätzfehler des Samples wird somit unvermeidlich auf die Quantile und die Value-at-Risk-Schätzung übertragen.
Folglich sind die kritischen Werte der Comish-Fisher Approximation nur dann angebracht, wenn kein großer Schätzfehler vorliegt. Der Schätzfehler selbst kann allerdings nur mit Hilfe einer Simulation bestimmt werden, was wiederum aufwendig ist.
Diese Aussage stützt sich auf einen Schriftwechsel mit Zangari. Vgl. auch Longerstaey, J Zangari, P. (VAR framework, 1996), S. 52.
Vgl. hierzu ausführlich J.P. Morgan/Reuters (Technical Document, 1996), S. 129 ff. und S. 247 ff. sowie Longerstaey, J./Zangari, P. (VAR framework, 1996), S. 51 f.
Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 130. Unterstellt wird auch hier die bedingte Normalverteilung der Renditen des Underlying, mit einem Erwartungswert von null. Die „Griechen“ werden in Anhang 9–2 bis -7 erläutert. Die Tilde kennzeichnet Schätzwerte, die bspw. mit dem Black-Scholes-Optionspreismodell (s. Anhang 9–1) errechnet werden.
Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 247 ff.
Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 13 f. Dies gilt vor allem im Vergleich mit der Delta-Gamma-Monte-Carlo-Methode. Siehe Fußnote 501.
Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 6. Estrella kommt bei der Untersuchung des Black-Scholes-Optionspreismodelles zu dem Ergebnis, daß eine Gamma-Approximation nur für Preisänderungen geeignet ist, die eine Standardabweichung nicht überschreiten. Vgl. Estrella, A. (Series Approximations, 1995), S. 15. Für Streß-Tests, aber auch die Value-at-Risk-Berechnung sind Delta-Gamma-Approximationen daher unzureichend. Diese Wertung erscheint zu restriktiv, zumal die Güte der Approximation auch von der Restlaufzeit und dem Maß, in dem eine Position am Geld ist, abhängt.
Problematisch ist ohnehin, daß es aufgrund der oftmals nichtlinearen Bewertungsfunktionen nicht ausreicht, nur die ersten beiden Glieder der Taylor-Reihe, Delta und Gamma, zu berücksichtigen, sondern weitere nichtlineare Glieder und somit wichtige Risikodeterminanten zu erfassen sind. Die lokale Approximation wird schnell an die Grenzen ihrer Leistungsfähigkeit stoßen. Für verschiedene Kennzahlen sind ganz bestimmte Bandbreiten von Parameteränderungen bekannt, innerhalb derer die Gültigkeit der Ergebnisse unterstellt werden kann, so etwa für die Modified Duration der Bereich von +/- 50 Basispunkten. Der Schätzfehler der Approximation erster Ordnung kann hier, wie gezeigt, anhand der Convexity bestimmt, aber auch nur approximativ berücksichtigt werden. Vgl. Eller, R. (Risikomanagement, 1993), S. 57 517 f.;
Steiner, M.Bruns, Ch. (Wertpapiermanagement, 1995), S. 246 ff.; Eller, R. (Modified Duration, 1991), S. 322–326 sowie Kruschwitz, L./Wolke, Th. (Convexity, 1994), S. 382–387. Siehe auch Estrella, A. et al. (Price Risk, 1994), S. 27–43.
Da die lokalen Sensitivitätskennzahlen für Optionen meist verfügbar sind, trifft das Argument der leichten Implementierbarkeit auch auf die Delta-Gamma-(Theta-)Approximation zu. Vgl. Wilson, Th. (Gap, 1994), S. 79 f. und Estrella, A. et al. (Price Risk, 1994), S. 30 f.
Vgl. Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 27 Diese Aussage mag für kleinere Institute zutreffen. Die Güte der Datenbasis ist jedoch ein so entscheidender Faktor für die Qualität der Value-at-Risk-Berechnung, daß die Verwendung von Material Dritter, dessen Berechnung nur bedingt kontrollierbar oder in Extremfall nicht nachvollziehbar sein dürfte, nur in Ausnahmefällen in Frage kommen wird. Ob Preismodelle notwendig sind oder nicht, hängt zudem eher von der Zusammensetzung des Portfolios ab, als von der Variante des Value-atRisk-Konzeptes.
Vgl. Perridon, L./Steiner, M. (Finanzwirtschaft, 1995), S. 116 f.
Vgl. J. P. Morgan (Technical Document, 1995), S. 16. Dies kann bei der Implementierung dennoch erforderlich sein, um keine „unsinnigen“ Szenarien zu simulieren.
BIS (Promisel-Report, 1992), S. 22.
Vgl. hierzu und zum folgenden Allen, M. (Role Model, 1994), S. 78; Quinn, D. J. (Estimating VAR, 1995), S. 97 ff.; Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 15 ff.; Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 25–27 sowie Wilson, Th. (Gap, 1994), S. 80 und ders. (Risk Capital, 1996), S. 220 ff.
Vgl. J. P. Morgan (Technical Document, 1995), S. 14: „potential loss = value (at potentially changed rates) - value (at original rates)“, ebd.
Vgl. J. P. Morgan (Technical Document, 1995), S. 18 und auch Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 27 sowie Stambaugh, F. (Value at Risk, 1996), S. 617 f. Grundsätzlich kann auch bei der historischen Simulation auf die approximative Bewertung zurückgegriffen werden. Dies ist allerdings unüblich, da wesentliche Vorteile der historischen Simulation auf der vollständigen Neubewertung beruhen.
Die historischen Preise werden nicht unmittelbar herangezogen, da Zeitablaufeffekte sonst zu Verzerrungen des errechneten Risikos führen können.
Gegebenenfalls ist die Interpolation des Value at Risk notwendig, wenn dem gewünschten Quantil keine ganzzahlige Beobachtung entspricht. Oft wird, wie hier, einfach gerundet.
Jorion weist darauf hin, daß das unmittelbare Heranziehen des Stichproben-Quantils im Vergleich zur Verwendung der mit dem z-Wert multiplizierten Standardabweichung wesentlich größere Schätzfehler produziert und daher die schlechtere Methode ist. Vgl. Jorion, Ph. (Risk2, 1996), S. 56. Wird das Quantil anhand des gemessenen Erwartungswertes und der Standardabweichung bestimmt, so ist die Vorgehensweise mit der des aggregierten Portfolio-normalAnsatzes identisch. Es wird dann eine multivariate Normalverteilung unterstellt.
Die Simulationsmethode ist auch im Basler Marktrisikopapier vorgesehen. Siehe hierzu BIZ (Eigenkapitalvereinbarung, 1996), A.3 II. S. 26 i. v. m. B.3 S. 43 und B.4 S. 45 ff.
Vgl. hierzu und zum folgenden Schulte-Mattler, H./Traber, U. (Marktrisiko, 1995), S. 132 ff. Diese geben eine schrittweise Anleitung zur Durchführung der Simulationsmethode.
Vgl. hierzu, stellvertretend für viele, Allen, M. (Role Model, 1994), S. 78 und Stambaugh, F. (Value at Risk, 1996), S. 617.
Vgl. hierzu Wilson, Th. C. (Risk Capital, 1996), S. 221 f.
Mit der Qualität der Datenbasis sind eine Vielzahl von Detailproblemen verbunden. Ein interessanter Aspekt ist der „survivorship effect“. Die simulierten Zeitreihen enthalten meist ausschließlich Werte, die noch am Markt gehandelt werden. Dadurch können Risiken unterschätzt werden. Werte, die von Konkursen, Verstaatlichungen oder Untergang in Folge von Kriegen usw. betroffen waren und daher schlechte Performance aufwiesen, sind i. d. R. nicht mehr in der Datenbasis enthalten. Vgl. Jorion, P. (Value at Risk, 1997), S. 310 f. Problematisch sind Neuemissionen, für die keine Preishistorie existiert. Einen Eindruck von den praktischen Schwierigkeiten der Verwendung der aktuellen Portfoliozusammensetzung geben auch Dimson, E./Marsh, P. (Stress Tests, 1996), S. 11 ff.
Vgl. Bürger, P. (Risikocontrolling, 1995), S. 247; Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 101 f.; Jorion, P. (Value at Risk, 1997), S. 195 f.
Die Stützperiode kann systematisch, repräsentativ, zufällig oder willkürlich ausgewählt werden. Sie sollte dem stochastischen Charakter des Value at Risk gerecht werden. Um die Performance des Portfolios unter extremen Bedingungen zu testen, kann als Stützperiode bei der historischen Simulation auch gezielt eine Zeitspanne mit Marktanspannungen oder Marktverwerfungen, bis hin zum Crash, gewählt werden (Streß Test). Zur Berechnung des Value at Risk, der normale Marktgegebenheiten erfassen soll, wird aber i. d. R. eine gleitende Periode fixer Länge herangezogen. Dies unterscheidet die historische Simulation von Streß Tests und Worst-CaseSzenarien, bei denen bestimmte Marktsituationen gezielt ausgewählt werden. Solche Szenarien werden zwar regelmäßig überprüft, aber nicht permanent verändert. Die Eintrittswahrscheinlichkeit von Worst-Case-Szenarien kann zudem i. a. nicht exakt angegeben werden.
Vgl. hierzu und zum folgenden Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 6 f. und S. 15 ff. sowie Jorion, P. (Value at Risk, 1997), S. 193 ff. Diese Annahme treffen alle anderen Verfahren mehr oder weniger auch, da sie auf historische Daten zurückgreifen.
Wird wie bei gleitenden Durchschnitten nur jeweils die älteste durch die aktuellste Beobachtung ersetzt, so besteht ein überlappendes Sample. Gleitende Durchschnittsverfahren verwenden also überlappende Sampledaten. Diese werden ggf. unterschiedlich gewichtet, wobei dann in der Regel aktuellen Beobachtungen ein größeres Gewicht zugebilligt wird.
Nimmt man eine Handelswoche mit 5 Handelstagen an, so lassen sich aus 250 täglichen Beobachtungen ca. 50 wöchentliche, aber nur ca. 12 monatliche Renditen ermitteln.
Die Untersuchung von Bühler, W. et al. (Eigenkapitalanforderungen, 1997), S. 14 f. zeigt den typischen Fall der Reduktion der Zahl der Beobachtungen des Samples von 250 auf 25 durch die Verwendung nicht-überlappender 10-Tages-Renditen. Es ist daher nicht verwunderlich, daß das Verfahren der historischen Simulation mit zehntägiger Halteperiode und einer Stützperiode von einem Jahr, entsprechend der Marktrisikoregeln der BIZ, nicht zu überzeugenden Ergebnissen führt. Angesichts der sehr starken Verzerrung der Schätzergebnisse, die insbesondere auch bei der Beurteilung der Güte des Value-at-Risk-Verfahrens relevant ist, muß man sich fragen, ob die positive Autokorrelation nicht ggf. das kleinere Übel darstellt. Ferner ist anzumerken, daß die quantitativen Vorgaben der BIZ hier im Hinblick auf die Reliabilität wenig überzeugen konnten. Zur Ermittlung des Schätzfehlers des Quantilss siehe Jorion, Ph. (Risk2, 1996), S. 50.
Das Bootstrap-Verfahren geht auf Efron zurück. Siehe bspw. Efron, B. (Nonparametric estimates, 1981), S. 589–599 und Efron, B./Tibshirani, R. (Bootstrap Methods, 1986), S. 54–77.
Vgl. hierzu und zum folgenden Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 15 ff. sowie Wilson, Th. C. (Risk Capital, 1996), S. 221 ff.
Vgl. Jorion, P. (Value at Risk, 1997), S. 193 ff. und Krumnow, J. (Bankencontrolling, 1997), S. 304.
Vgl. Jorion, P. (Value at Risk, 1997), S. 196.
Vgl. zum Monte-Carlo-Verfahren Perridon, L./Steiner, M. (Finanzwirtschaft, 1995), S. 116 f. Die Anwendung der Simulationstechnik auf Investitionsentscheidungen und die Grundzüge des Simulationsverfahrens beschreibt Hertz, D. B. (Risk Analysis, 1964), S. 95–106, insbes. S. 99 und S. 102. Ein frühes umfassendes Werk zu Monte-Carlo-Methoden ist Hammersley, J. M./Handscomb, D. C. (Monte Carlo Methods, 1964). Dort werden auch die geschichtliche Entwicklung und der Ursprung des Begriffes „Monte-Carlo-Methode“ skizziert. Siehe dies. S. 6 ff. Zu Definition und Anwendung vgl. auch Schäfer, K. (Optionsbewertung, 1994), S. 91 ff.
In der Literatur wird das entsprechende Value-at-Risk-Verfahren auch als strukturierte Monte-Carlo-Simulation bezeichnet. Damit soll entweder zum Ausdruck gebracht werden, daß auch das Zusammenwirken der Risiken verschiedener Risikobereiche modelliert wird, oder daß eine Kombination mit approximativen Verfahren, bspw. eine Delta-Approximation statt der Neubewertung, vorgenommen wird.
Meist werden allerdings nur Pseudo-Zufallszahlen generiert. Die Fähigkeit des Zufallszahlengenerators, die gewünschten Zufallsziehungen exakt zu produzieren und etwa die Unabhängigkeit der Zufallszahlen zu gewährleisten ist i. d. R. eingeschränkt. Auch dadurch ergeben sich potentielle Verzerrungen in der Risikoschätzung. Die meiste Standardsoftware liefert einfache Zufallszahlengeneratoren, die Wiederholungen in bestimmten Zyklen aufweisen. Ist der Zyklus zu kurz, können unerwünschte Effekte, vor allem Abhängigkeiten, in die Modellierung eingebracht werden. Ein guter Zufallszahlengenerator sollte daher den üblichen Unabhängigkeitstests standhalten.
Vgl. hierzu und zum folgenden Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 25 ff.
Als einfachstes Preismodell ist die Lognormalverteilung weit verbreitet, die zu normalverteilten Renditen führt, sofern die Zufallszahlen Z einer Standardnormalverteilung entnommen werden: Kt = Kea wobei K1 der Kurs zum Zeitpunkt t; o die unbedingte Varianz ist.
Die Vorgabe des stochastischen Prozesses kann grundsätzlich auch auf der Basis ökonometrischer Modelle erfolgen, wobei eine Vielzahl exogener Einflußgrößen, wie Geld-und Fiskalpolitik, und ihr Einfluß auf die Zielgrößen, bspw. Renditen, berücksichtigt werden können. Da der Modellierungsauf wand sehr groß und die Ergebnisse dennoch in bezug auf die Stabilität der ökonomischen Hypothesen fraglich sind, werden Zeitreihenanalysen bevorzugt. Dabei erfolgt die Modellierung allerdings quasi theorielos.
Vgl. hierzu und zum folgenden Oberman, R.. (Zinsrisikopotential, 1990), S. 46 ff.; Jorion, P. (Value at Risk, 1997), S. 230 f. und Hull, J. C. (Options, 1993), S. 329 ff. sowie Jamshidian, F./Zhu, Y. (Scenario Simulation, 1997), S. 43 ff. und J.P. Morgan/Reuters (Technical Document, 1996), S. 151 ff.
Soll auch das Vega-Risiko abgebildet werden, so ist das Verfahren so zu erweitern, daB die Simulation mit alternativen Werten der Volatilität wiederholt wird. Um Rechenzeit und Kosten zu sparen, werden die erforderlichen alternativen Werte für die Volatilität meist normativ vorgegeben, analog zur Szenario-Matrix-Methode und der Spot-Volatility-Matrix.
Grundsätzlich bestehen auch hier drei Alternativen: vollständige Neubewertung (full valuation), lineare Approximation erster Ordnung und nichtlineare Approximation höherer Ordnung. Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 155. Die Monte-Carlo-Simulation wird aber i. a. mit vollständiger Neubewertung in Verbindung gebracht.
Vgl. Jorion, P. (Value at Risk, 1997), S. 239. I. d. R. geschieht diese Konvergenz mit JK, der Wurzel aus der Anzahl der Simulationsdurchläufe.
Vgl. Perridon, L./Steiner, M. (Finanzwirtschaft, 1995), S. 121.
Sollen bewußt Szenarios mit zufälligen Korrelationen generiert werden, so ist dies schwer zu implementieren, da die Generierung einzelner (Pseudo-)Zufallszahlen zwar mit der meisten Standardsoftware einigermaßen gelingt, wirklich unabhängige Ziehungen jedoch nur selten gewährleistet sind.
Zu Einzelheiten siehe Jorion, P. (Value at Risk, 1997), S. 242 ff. und J.P. Morgan/Reuters (Technical Document, 1996), S. 151 ff. und S. 253 ff. Es wird dabei i. d. R. auf die ->CholeskyFaktorisierung (siehe Anhang 11) zurückgegriffen. Die Notwendigkeit positiv definite Kovarianzmatrizen ist hier wiederum kritisch. Vgl. Alexander, C./Leigh, C. T. (Covariance Matrices, 1997), S. 52 ff. und S. 60 Endnote 4 und auch Krumnow, J. (Bankencontrolling, 1997), S. 306.
Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 159. Die realistische Modellierung der Risiken von Zinspositionen ist sehr komplex. Vorgeschlagen werden bspw. Verfahren der Principal Component Analysis. Siehe hierzu Frye, J. (Principals, 1996); und Rao, C. R. (Principal Component, 1996), S. 489–505
Vgl. J. P. Morgan (Technical Document, 1995), S. 15. Die Bezeichnung stammt von der Kombination von vollständiger Neubewertung mit der Monte-Carlo-Simulation und ist als deren Synonym gebräuchlich.
Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 10 und S. 40 ff.; s. a. Fußnote 501.
Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 15 ff. und Estrella, A. (Series Approximations, 1995), S. 16. Allen schlägt ein ähnliches Modell im Rahmen der historischen Simulation vor. Siehe Allen, M. (Role Model, 1994), S. 78.
Vgl. hierzu und zum folgenden Jorion, P. (Value at Risk, 1997), S. 199 ff. und S. 231 ff.
Wird dagegen aus Gründen der Dimensionalität auf lineare (Delta-) Approximation oder Approximation höherer Ordnung zurückgegriffen (Delta-Gamma-/Theta-/Approximation), sind alle in Kapitel 3.2.3.3 genannten Kritikpunkte anzubringen. Vgl. zu den Approximationen J.P. Morgan/Reuters (Technical Document, 1996), S. 156 f. Pritsker kommt zu dem Ergebnis, daß eine Kombination von Delta-Gamma-Approximation und Monte-Carlo-Simulation im Hinblick auf Rechengenauigkeit und Geschwindigkeit allen anderen Varianten überlegen ist. Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 3 f. und S. 39 ff.
Vgl. hierzu und zum folgenden Oberman, R. (Zinsrisikopotential, 1990), insbes. S. 50 ff und S. 112 ff.; ders. (Risk-Management, 1991), S. 53 ff.; ders. (Zinsrisikopotential, 1992), S. 564 ff. Oberman schlägt im übrigen bereits die Übertragung des Konzeptes auf Devisenpositionen und die Betrachtung auf aggregierter Ebene vor.
Modifiziert nach Oberman, R. (Risk-Management, 1991), S. 55, Abb. 7, Simulation des 3-Monats-und des 10-Jahres-Zinssatzes (Basis: US-amerikanische Zinssätze Oktober 1980).
Siehe grundlegend auch Taylor, S. J. (Modelling, 1986), S. 16 ff. und Tschemig, M. (Zinsswaps, 1996), S. 80 ff.
Siehe Hull, J. C. (Options, 1993), S. 383 ff. m. w. N. Die Ansätze unterscheiden sich grundlegend. Stark verkürzt ausgedrückt modelliert ein Weg die stochastische Entwicklung der Zinsstrukturkurve unmittelbar. Dabei werden nur wenige Parameter benötigt, die Ergebnisse können aber ökonomisch unplausibel werden (negative Zinssätze, konstante Volatilität, schlechte Abbildung der geg. Zinsstruktur. Der andere Weg bildet die aktuelle Zinsstrukturkurve exakt ab (bspw. Ho/Lee) und modelliert die dynamische Entwicklung des kurzfristigen Zinssatzes; dabei wird bspw. eine Inversion der Zinsstrukturkurve durchgespielt (Hull/White). Oder die Volatilitätsstruktur, d. h. die Volatilitäten sämtlicher zukünftiger Zinssätze, werden modelliert (Heath/Jarrow/Morton). Ein-Faktor-Modelle beziehen sich meist auf den kurzfristigen Zinssatz als einzige Variable, Zwei-Faktor-Modelle auch auf einen langfristigen Zinssatz, dem u. U. völlig anderes Verhalten unterstellt wird.
Häufig besteht ein Trade-off zwischen Rechenaufwand, Modellrestriktionen und Realitätsgerechtigkeit, z. B. in bezug auf die Unmöglichkeit negativer Zinssätze. Pfadabhängige Modelle benötigen ggf. umfangreiche Historien; pfadunabhängige Modelle haben oft den Nachteil, nicht alle Eventualitäten abzubilden. Beispiele vergleichender empirischer Studien sind: Chan, K. C. et al. (Alternative Models, 1992), S. 1209–1227 und Bühler, W. et al. (Interest Rate Options, 1995), S. 1 ff. Bühler et al. bevorzugen im Ergebnis das Zwei-Faktor-Heath-Jarrow-Morton-Modell. Chan et al. zeigen, daß bedingte Volatilitätsmodelle, die starke Abhängigkeit der Volatilität vom Zinsniveau berücksichtigen, die besten Resultate erzielen. Einfache Modelle bewähren sich dagegen eher schlecht. Die Abhängigkeit der Volatilität kurzfristiger Zinssätze vom Zinsniveau erscheint kompatibel mit der Zinsstrukturtheorie, speziell der Normalintervalltheorie von Malkiel und dem Modell mit extrapolativer und regressiver Erwartungsbildung von Modigliani/Such. Vgl. Faßbender, H. (Fristigkeitsstruktur, 1973), S. 55 ff. m. w. N., grundlegend auch Filc, W. (Kapitalmarktzins, 1992), S. 114 ff. sowie Tschemig, M. (Zinsswaps, 1996), S. 141 ff.
Stellvertretend für viele: Dyer, L. J./Jacob, D. P. (Fixed Income Option Models, 1991), S. 742–773; Uhrig, M. (Zinsoptionen, 1996), S. 15 ff. und dies. (Zinsoptionen, 1997), S. 285–309; Dewachter, H. (Interest Rate Volatility, 1996), insbes. S. 241 und Sandmann, K./Schlögl. E. (Zustandspreise, 1996), S. 813–836 sowie Tschemig, M. (Zinsswaps, 1996), S. 175 ff. 175 ff. m. w. N.
Siehe Chen, L. (Interest Rate Dynamics, 1996), S. 1 ff.
Vgl. auch Müller, B. (Portfoliomanagement, 1996), S. 269 f. und Wilkens, M. (Schätzung 1994), S. 9 ff.
Siehe Cox, J. C./Rubinstein, M. (Options Markets, 1985), S. 360 ff. m. w. N.
Beder, T. S. (VAR, 1995), S. 23.
Quellen zu Tab. 3.4–1: Vgl. stellvertretend für viele: Leong, K. (Approach, 1996), S. 11; Jorion, Ph. (Value at Risk, 1997), S. 202; Linsmeier, Th. J./Pearson, N. D. (Risk Measurement, 1996), S. 7 ff.; Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 27; Wilson, Th. C. (Risk Capital, 1996), S. 213; Becker, G. M. (Risikocontrolling, 1997), S. 54.
Quellen zu Tab. 3.4–2: Beder, T. S. (VAR, 1995), S. 12 ff.; Pritsker, M. (Value at Risk Methodologies, 1995), ders. (Value at Risk Methodologies, 1996), Mahoney, J. M. (Value-at-Risk, 1995), Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), Hendricks, D. (Evaluation, 1996), Fallon, W. (Value-at-Risk, 1996), Johanning, L. (Interne Modelle, 1996), Dimson, E./Marsh, P. (Stress Tests, 1996), Bühler, W. et al. (Eigenkapitalanforderungen, 1997), Scheuenstuhl, G./Staas, C. (Aggregate Approach, 1997), Lucas, A./Klaassen, P. (Fat Tails, 1997), Brandt, Ch. et al. (Value-at-Risk, 1997).
Eine entsprechende Studie der Bankenaufsicht wurde im Herbst 1996 durchgeführt.
Vgl. BAK (Jahresbericht 1996, 1997), S. 11 f. Vgl. auch Beder, T. S. (VAR, 1995), S. 12 ff. und Pritsker, M. (Value at Risk Methodologies, 1996), S. 1 f.
Rights and permissions
Copyright information
© 1999 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Meyer, C. (1999). Systematisierung und Vergleich verschiedener Value-at-Risk-Ansätze. In: Value at Risk für Kreditinstitute. Bank- und Finanzwirtschaft. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-08173-9_3
Download citation
DOI: https://doi.org/10.1007/978-3-663-08173-9_3
Publisher Name: Deutscher Universitätsverlag, Wiesbaden
Print ISBN: 978-3-8244-6763-1
Online ISBN: 978-3-663-08173-9
eBook Packages: Springer Book Archive