Skip to main content

Systematisierung und Vergleich verschiedener Value-at-Risk-Ansätze

  • Chapter
Value at Risk für Kreditinstitute

Part of the book series: Bank- und Finanzwirtschaft ((BAFI))

  • 379 Accesses

Zusammenfassung

Im folgenden werden die wichtigsten Verfahren und Varianten zur Bestimmung des Value at Risk hinsichtlich grundsätzlicher Vor- und Nachteile gewürdigt. Dabei spielt der Aspekt der Aggregierbarkeit eine wichtige Rolle. Ohne die Ergebnisse späterer Analysen vorwegzunehmen, werden in den folgenden Kapiteln offensichtlich verfahrensbedingte Vor- und Nachteile im Hinblick auf die Aggregierbarkeit angesprochen. Diese Erkenntnisse bilden die Grundlage für die letztlich zu beurteilende Frage, ob und wie das Gesamtbankrisikopotential mit Hilfe des Value at Risk sinnvoll und aussagekräftig bestimmt werden kann.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 49.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 74.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Siehe Wilson, Th. (Gap, 1994), S. 78–80; Meegan, C. (Value-at-risk, 1995), S. 14 ff. und J. P. Morgan (Technical Document, 1995), S. 14–21.

    Google Scholar 

  2. Diese Form der Value-at-Risk-Berechnung wird deshalb auch als analytische Methode bezeichnet. Vgl. Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 25–27.

    Google Scholar 

  3. Vgl. J. P. Morgan (Technical Document, 1995), S. 15; siehe auch Kapitel 2.3.4.5.

    Google Scholar 

  4. Vgl. hierzu Beckström, R. A./Campbell, A. R. (Value-at-Risk, 1995), S. 37 f. und S. 40 ff. Meegan, C. (Value-at-risk, 1995), S. 14 f. und Wilson, Th. (Gap, 1994), S. 79 f.; ders. (Risk Capital, 1996), S. 216 f. sowie Zangari, P. (Streamlining, 1997), S. 29 ff.

    Google Scholar 

  5. Hier wird ein Erwartungswert von null unterstellt, was zur Reduktion des Schätzfehlers (Noise) bei der Volatilitätsberechnung i. a. sinnvoll ist. Bei längeren Zeithorizonten ist diese Annahme aber problematisch (s. Kapitel 5.2.4). Vgl. hierzu Hendricks, D. (Evaluation, 1995), S. 6, FN 6 sowie Figlewski, St. (Volatility, 1996), S. 37 ff. und J. P. Morgan (Monitor I, 1996), S. 4.

    Google Scholar 

  6. Vgl. hierzu Meegan, C. (Value-at-risk, 1995), S. 15.

    Google Scholar 

  7. Dies unterscheidet das Verfahren von der historischen Simulation (siehe Kapitel 3.3.1).

    Google Scholar 

  8. Unterstellt wird genaugenommen nicht unbedingt, daß der renditegenerierende Prozeß eine Normalverteilung ist, sondern, daß sich die resultierenden Wertänderungen durch eine Normalverteilung gut oder wenigstens hinreichend genau approximieren lassen.

    Google Scholar 

  9. Vgl. hierzu Wilson, Th. (Gap, 1994), S. 79 f. und Meegan, C. (Value-at-risk, 1995), S. 18. Zur Definition des Random Walk siehe Kapitel 4.1. Hinsichtlich der Normalverteilung ist darauf zu achten, was konkret als normalverteilt angenommen wird: Die Preise oder Kurse, die Wertänderungen als diskrete oder stetigen Renditen, die zugrundeliegenden Marktrisikofaktoren, die standardisierten Renditen usw. Üblicherweise wird von einer Normalverteilung der resultierenden Wertänderungen als stetige Renditen ausgegangen. Unter RiskMetricsTM wird angenommen, daß die standardisierten Renditen normalverteilt sind, und zwar standardnormal-verteilt N(0, 1). Vgl. hierzu Zangari, P. (Improved methodology, 1996), S. 7 f.

    Google Scholar 

  10. Vgl. Wilson, Th. C. (Risk Capital, 1996), S. 216 f.

    Google Scholar 

  11. Vgl. Maddala, G. S. (Econometrics, 1992), S. 19 f. und Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 26.

    Google Scholar 

  12. Zur multivariaten Normalverteilung als gemeinsamer Verteilung unabhängig normalverteilter Zufallsvariablen und der Tatsache, daß Lineartransformationen multivariat normalverteilter Zufallsvariablen wieder normalverteilt sind, siehe Schlittgen, R./Streitberg, B. H. J. (Zeitreihen-analyse, 1995), S. 500–506. Die multivariate Normalverteilung kann als Verteilung einer beliebigen linearen Transformation unabhängig normalverteilter Zufallsvariablen definiert werden. Vgl. ebd., S. 505. Fraglich ist im gegebenen Kontext die zeitliche Unabhängigkeit der Verteilung der eingehenden Zufallsvariablen. Korreliertheit steht einer Normalverteilung der Portfoliorenditen bei der Linearkomnimation dagegen nicht entgegen, sofern die Korrelationen stationär, d. h. konstant sind. Aber auch dies ist i. a. nicht der Fall.

    Google Scholar 

  13. Eine Summe von vielen unabhängigen, beliebig verteilten Zufallsvariablen gleicher Größenordnung ist nach dem Zentralen Grenzwertsatz approximativ normalverteilt, und zwar um so besser angenähert, je größer ihre Anzahl ist. Vgl. Sachs, L. (Statistik, 1992), S. 109. Fraglich ist im genannten Kontext, ob die Anzahl der Positionen bzw. Risikofaktoren groß genug ist, um der oben genannten Bedingung des Zentralen Grenzwertsatzes zu genügen. Für die Gesamtbank wird man geneigt sein, die Bedingung der großen Zahl als erfüllt anzusehen. Allerdings muß die Unabhängigkeit der Positionen ernsthaft in Frage gestellt werden, da bspw. die Kapitalmarktzinsentwicklung eine Vielzahl von Positionen gleichermaßen tangiert. Die Güte der Approximation hängt aber letztlich von der konkreten Portfoliostruktur ab und ist schwer allgemein einzuschätzen.

    Google Scholar 

  14. Vgl. hierzu und zum folgenden Zangari, P. (Streamlining, 1997), S. 29 ff. Auf entsprechende Modelle wird in Kapitel 2.3.3.4 und 3.5.5 eingegangen. An dieser Stelle genügt es festzustellen, daß für die Anpassung stochastischer Modelle an univariate Zeitreihen und die damit verbundene Parameterschätzung komplexe, aber ausgereifte Verfahren zur Verfügung stehen - im Gegensatz zu multivariaten stochastischen Prozessen.

    Google Scholar 

  15. Wenn der Risikonutzen nicht quadratisch ist bzw. die Verteilungen nicht normal sind, dann ist die Standardabweichung nicht das angebrachte Risikomaß (siehe Kapitel 4.1).

    Google Scholar 

  16. Vgl. Beckström, R. A./Campbell, A. R. (Value-at-Risk, 1995), S. 38.

    Google Scholar 

  17. Dies kann bspw. mit Quantile-Quantile-Plots (QQ-Plots) erfolgen. Siehe Kapitel 3.5.1.

    Google Scholar 

  18. Siehe Zangari, P. (Streamlining, 1997), S. 33 ff. und Finger, Ch. C. (Options, 1997), S. 33 ff.

    Google Scholar 

  19. Vgl. hierzu und zum folgenden Wilson, Th. (Gap, 1994), S. 79 und ders. (Risk Capital, 1996), S. 216 f. Bezogen auf ein Beispiel einer großen Anzahl von Konsumentenkleinkrediten zur Ermittlung des Ausfallrisikos.

    Google Scholar 

  20. Vgl. Wilson, Th. (Gap, 1994), S. 79.

    Google Scholar 

  21. Vgl. Wilson, Th. (Gap, 1994), S. 79 und Meegan, C. (Value-at-risk, 1995), S. 16 und Wilson, Th. C. (Risk Capital, 1996), S. 217.

    Google Scholar 

  22. Vgl. Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 7 f. und S. 22 ff.

    Google Scholar 

  23. Vgl. hierzu und zum folgenden Wilson, Th. (Gap, 1994), S. 79 und Meegan, C. (Value-at-risk, 1995), S. 15 f.

    Google Scholar 

  24. Die Cholesky-Zerlegung geht auf den Geodäten Cholesky zurück. Vgl. Schwarz, H. R. (Numerische Mathematik, 1986), S. 39 u. S. 486. Schwarz verweist auf Benoit (Cholesky, 1924), S. 67–77 als Originalquelle. Die Cholesky-Zerlegung ist nur unter restriktive Prämissen durchführbar. Vor allem ist eine positiv definite Kovarianz-Matrix zu gewährleisten. Dies ist bei großen Portfolios nicht immer möglich. Darüber hinaus bestehen Probleme im Hinblick auf den Rang der Matrix bei gleitenden Durchschnittsverfahren und insbesondere bei der exponentiellen Glättung. Besonders kritisch wird die Voraussetzung positiv definiter Kovarianz-Matrizen, wenn GARCH-Modelle zur Generierung der Kovarianz-Matrizen herangezogen werden. Die direkte Schätzung großer multivariater Kovarianz-Matrizen scheint derzeit ein unüberwindliches rechnerisches Problem darzustellen. Auf diese Detailprobleme wird hier nicht näher eingegangen. Siehe hierzu J.P. Morgan/Reuters (Technical Document, 1996), S. 253 ff.; Alexander, C./Leigh, C. T. (Covariance Matrices, 1997), S. 52 ff. und Jorion, P. (Value at Risk, 1997), S. 242 ff.

    Google Scholar 

  25. Die vollständige Cholesky-Zerlegung benötigt bei einer n-dimensionalen Matrix 16 (n3 + 3n 2 – 4n) wesentliche Operationen; die Berechnung von n Quadratwurzeln fällt nicht ins Gewicht. Vgl. Schwarz, H. R. (Numerische Mathematik, 1986), S. 39 f. Bei 100 Risikofaktoren sind dies 181 600; bei 1 000 Risikofaktoren 168,166 Mio. Operationen.

    Google Scholar 

  26. Die hier entscheidende Annahme der Normalverteilung wurde auch im Verlauf der Diskussion über die angemessene Ausgestaltung bankaufsichtlicher Risikomeßsysteme kritisch bewertet, letztlich aber die vereinfachten parametrischen Verfahren gestattet. Vgl. Schulte-Mattler, H./ Traber, U. (Marktrisiko, 1995), S. 127 FN 29.

    Google Scholar 

  27. Siehe Kapitaladäquanzrichtlinie, Anhang III, Ziff. 7. Vgl. hierzu und zum folgenden auch Schulte-Mattler, H./Traber, U. (Quantifizierung, 1995), S. 626 ff. und dies. (Marktrisiko, 1995), S. 124 ff. Die Alternativen zum Standardverfahren bestehen auch beim Basler Marktrisikopapier, siehe BIZ (Eigenkapitalvereinbarung, 1996), A.3 II S. 26 sowie Teil B, S. 39 ff. Dort wird das Risikopotential explizit „value at risk“ genannt (vgl. ebd. B.4a, S. 45).

    Google Scholar 

  28. Kapitaladäquanzrichtlinie, Anhang III, Ziff. 7.

    Google Scholar 

  29. Die sich durch die überlappenden Zeiträume der gleitenden Renditen entstehende positve Autokorrelation wird nicht berücksichtigt. Sie kann zu verzerrten Risikoschätzungen führen.

    Google Scholar 

  30. In der Kapitaladäquanzrichtlinie wird allerdings eine zusätzliche Untergrenze (2% bzw. 1% Floor) für die Eigenkapitalunterlegung festgelegt.

    Google Scholar 

  31. Siehe Schulte-Mattler, H./Trâber, U. (Marktrisiko, 1995), S. 131.

    Google Scholar 

  32. Es gilt hier hinsichtlich der Normalverteilungsannahme zwei grundlegend verschiedene Betrachtungsweisen zu unterscheiden. Im einfachsten Fall wird unterstellt, daß die Renditen einer stationären Verteilung mit im Zeitablauf stabilen Parametern folgen, mit anderen Worten, daß es eine bestimmte Normalverteilung gibt, deren Parameter mit Hilfe von Stichproben geschätzt werden können. Die beobachteten, oftmals starken Schwankungen der geschätzten Parameter im Zeitablauf werden dabei als unvermeidliche Stichprobenfehler betrachtet. Da die Instabilität der Parameter ein bedeutendes Kennzeichen zahlreicher Renditezeitreihen ist, wird bei modernen Verfahren versucht, diesem Phänomen durch bedingte Parameterschätzungen gerecht zu werden. Die unterschiedlichen Schätzverfahren der Volatilität wurden in Kapitel 2.3.4.4 dargestellt. Im folgenden ist der für die Volatilitäts-und Parameterschätzung wesentliche Unterschied zunächst nicht von Belang. Die Normalverteilungshyothese und alternative Verteilungsannahmen werden aufgrund ihrer zentralen Bedeutung für den Value at Risk ausführlich in Kapitel 4 behandelt.

    Google Scholar 

  33. Der Varianz-Kovarianz-Ansatz kann grundsätzlich zur Berücksichtigung weiterer Parameter der Verteilung wie Schiefe oder Exzeß erweitert werden. Bspw. ist die Schiefe der Renditeverteilung eines Portfolios eine Funktion der Schiefe aller Positionen plus der Ko-Schiefe.

    Google Scholar 

  34. Vgl. hierzu Beckström, R. A./Campbell, A. R. (Value-at-Risk, 1995), S. 44.

    Google Scholar 

  35. Vgl. hierzu bspw. Hendricks, D. (Evaluation, 1995), S. 7 ff.

    Google Scholar 

  36. Unter Bezug auf die Portfolio Selection nach Markowitz; siehe Kapitel 2.3.3.

    Google Scholar 

  37. Vgl. Wilson, (Gap, 1994), S. 79. Da die genannten Kapitalmarkttheorien mit Erwartungswerten arbeiten, ist der Aussage zur Theoriekonformität nur mit Einschränkungen zu folgen.

    Google Scholar 

  38. Bei 100 Positionen sind dies 5 050 Parameter, von denen 4 950 Kovarianzen darstellen. Bei 1 000 verschiedenen Positionen sind bereits 500 500 Parameter zu schätzen! Vgl. Meegan, C. (Value-at-risk, 1995), S. 16. Siehe auch Kapitel 3.2.3.1.

    Google Scholar 

  39. Vgl. Beckström, R. A./Campbell, A. R. (Value-at-Risk, 1995), S. 44 f.

    Google Scholar 

  40. Vgl. Meegan, C. (Value-at-risk, 1995), S. 16 und Wilson, Th. (Gap, 1994), S. 79.

    Google Scholar 

  41. Siehe v. a. Ross, St. A. (Arbitrage Theory, 1976), S. 341–360. Vgl. grundlegend Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), S. 128 ff. und zum folgenden auch Zimmermann, H. (Performance-Messung, 1992), S. 69 f.

    Google Scholar 

  42. Dies läßt sich mit den Ergebnissen von Elton/Gruber rechtfertigen, daß komplexere Modelle zwar die vergangene Entwicklung besser beschreiben, bei der Prognose der zukünftigen Entwicklung aber häufig mehr noise als Information einbringen. Vgl. Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), Kapitel 8, hier S. 174 m. w. N.

    Google Scholar 

  43. Vgl. Sharpe, W. F. (Simplified Model, 1963), S. 277 ff. Im Original wird es als Diagonalmodell bezeichnet. Vgl. hierzu und zum folgenden Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 11 ff. und Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), S. 128 ff.

    Google Scholar 

  44. Vgl. hierzu und zum folgenden Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), S. 55 ff. und S. 129 ff.

    Google Scholar 

  45. Vgl. Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 10, Tab. 1.2.

    Google Scholar 

  46. Vgl. Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), S. 130 ff.; hier S. 135 und Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 11–15; hier S. 14.

    Google Scholar 

  47. Vgl. hierzu und zum folgenden Uhlir, H./Steiner, P. (Wertpapieranalyse, 1994), S. 170 ff.; Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 32 ff. und Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), 152 ff.

    Google Scholar 

  48. Das Marktmodell greift auf die Rendite des Marktportfolios zurück. Das Marktportf olio enthält theoretisch alle Titel eines Marktes gewichtet mit ihren entsprechenden Anteilen. Dies ist grundsätzlich problematisch, da bspw. die konkrete Bestimmung des relevanten Marktportfolios bzw. die Auswahl des entsprechenden Index unklar ist. Die in der Praxis herangezogenen Indizes enthalten i. a. bei weitem nicht alle Anlagemöglichkeiten und/oder nicht in der richtigen Gewichtung. Dies beeinträchtigt die Repräsentativität der Schätzungen. Siehe hierzu auch Steiner, M./Kleeberg, J. (Indexauswahl, 1991), S. 171 ff. und Steiner, M./Nowak, Th. (Risikofaktoren, 1994), S. 347 ff.

    Google Scholar 

  49. Ebenso wie beim CAPM erfolgt die Trennung von marktbezogenen (systematischen) und einzelpositionsbezogenen (unsystematischen) Renditekomponenten.

    Google Scholar 

  50. Hinsichtlich der Residuen u, werden die beim Indexmodell genannten Prämissen aufrechterhalten.

    Google Scholar 

  51. Damit soll jedoch nicht behauptet werden, daß die erweiterte, multiple Regression zu besseren Ergebnissen führen muß. Daß ein weiter hinzutretender Faktor keinen Erklärungsgehalt besitzt, kann grundsätzlich nicht gewährleisten, daß es nicht einen Faktor nächst höherer Ordnung mit bedeutendem Erklärungsgehalt gibt.

    Google Scholar 

  52. Vgl. hierzu Steiner, M.Bruns, Ch. (Wertpapiermanagement, 1995), S. 34 f. Ausführlich zur Zuverlässigkeit der Schätzparameter des Marktmodelles Uhlir, H./Steiner, P. (Wertpapieranalyse, 1994), S. 178 ff. m. w. N. Bemerkenswert ist vor allem, daß die Schätzgüte der Betas durch Portfoliobildung verbessert werden kann, d. h. die bei einzelnen Werten zu beobachtende Unzuverlässigkeit der Betas abgebaut werden kann.

    Google Scholar 

  53. Vgl. Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 15. Die Unterstellung unkorrelierter Residuen ist kritisch zu sehen, da es nicht unbedingt angebracht ist, davon auszugehen, daß positionsspezifische Renditeschwankungen keinen Einfluß auf andere Positionen nehmen. Der Gegenbeweis wäre bspw. bei Aktien innerhalb einer Branche oder bei verflochtenen Unternehmen leicht zu erbringen.

    Google Scholar 

  54. Siehe hierzu BIZ (Rückvergleiche, 1996) bzw. im Original BIS (Backtesting, 1996) und auch Kupiec, P. H. (Verifying, 1995) und Cmkovic, C./Drachman, J. (Model Risk, 1996), S. 138–143 sowie Schröder, F./Schulte-Mattler, H. (CD-Verfahren, 1997), S. 420–425.

    Google Scholar 

  55. Vgl. Dimson, E./Marsh, P. (Stress Tests, 1996), S. 18 in bezug auf Aktienportfolios. Der vereinfachte Portfolio-Ansatz mit der Prämisse, daß alle Aktien ein Beta von eins aufweisen, führt zu vergleichbar guten Resultaten wie die historische Simulation.

    Google Scholar 

  56. Vgl. hierzu und zum folgenden Meegan, C. (Value-at-risk, 1995), S. 16 ff. Siehe auch Alexander, C./Leigh, C. T. (Covariance Matrices, 1997), S. 50 ff.

    Google Scholar 

  57. Vgl. Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 25 und Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 33 ff.

    Google Scholar 

  58. Vgl. J. P. Morgan (Technical Document, 1995), S. 14:,potential loss = sensitivities to rate changes * potential changes in rates“

    Google Scholar 

  59. Vgl. hierzu und zum folgenden Kruschwitz, L./Wolke, Th. (Convexity, 1994), S. 384. Grundlegend zur Taylor-Entwicklung siehe Schlittgen, R./Streitberg, B. H. J. (Zeitreihenanalyse, 1995), S. 512–516.

    Google Scholar 

  60. Die über die Convexity erfolgende Schätzung, bzw. der ermittelte Schätzfehler der Modified Duration ist allerdings seinerseits ungenau, weil die Tenne dritten und höheren Grades vernachlässigt werden.

    Google Scholar 

  61. Sie gelten als das Schwerpunktrisiko der Kreditinstitute, obwohl ihr Einfluß auf die Ertragslage mit der zunehmenden Erschließung neuer Geschäftsfelder zurückgeht.

    Google Scholar 

  62. Vgl. hierzu und zum folgenden Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 273 ff. sowie Oberman, R. (Risk-Management, 1991), S. 46 ff.

    Google Scholar 

  63. Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 107 f. Der dritte mögliche Ansatz, der auf Nominalbeträgen basiert (principal mapping), kommt im Kontext des Value at Risk nicht in Frage. Dabei wird die durchschnittliche Fälligkeit der Zinspositionen herangezogen, was zur erheblichen Verzerrung der Risikodarstellung führt. Vgl. Jorion, P. (Value at Risk, 1997), S. 211 ff. Unterschieden werden analog produktspezifischer und Cash-flow-spezifischer Ansatz. Vgl. Groß, H./Knippschild, M. (Risikocontrolling, 1995), S. 88 f.

    Google Scholar 

  64. Im Original Hicks, J. R. (Value, 1939); hier Hicks, J. R. (Value, 1946), S. 184–188. Hicks berechnete die Elastizität des Barwertes eines Zahlungsstromes in bezug auf eine Diskontrate und ermittelte die „Average Period of the stream; for it is the average length of time for which the various payments are deferred from the present, when the times of deferment are weighted by the discounted values of the payments.“ [ebd. S. 186].

    Google Scholar 

  65. Die Duration wurde von F. R. Macaulay als Vergleichsmaßstab verschiedener Anleihen konzipiert, welcher die wesentlichen Faktoren Restlaufzeit, Kuponhöhe und jeweilige Rendite erfaßt und in einer einzigen Zahl ausdrückt. Vgl. Macaulay, F. R. (Interest rates, 1938), S. 44 ff. Wesentliche Beiträge zum Konzept der Duration stammen von Samuelson und Redington. Siehe Samuelson, P. A. (Effect, 1945), S. 21 ff. und Redington, F. M. (Review, 1952), S. 288 ff. Sie selbst ist kein Sensitivitätsmaß im eigentlichen Sinne, sondern in erster Linie eine zeitbezogene Kennzahl für das Management von Anleihen und Anleihenportfolios und kann mit Einschränkungen zur Immunisierung von Portfolios gegenüber Zinsänderungen herangezogen werden. Duration und Immunisierung wurden in der Literatur umfassend behandelt. Zur Wirkungsweise der Immunisierung mit Hilfe der Macaulay Duration und zur Kritik am Duration-Konzept siehe stellvertretend für viele Fisher, L./Weil, R. (Risk, 1971), S. 415–425; Rudolph, B. (Zinsänderungsrisiken, 1979), S. 190 ff.; ders. (Zinsänderungsrisiken, 1987), S. 317–332; Rudolph, B./Wondrak, B. (Zinsänderungsrisiken, 1985), Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 242 f.; Loistl, O. (Wertpapiermanagement, 1996), S. 258–267; ausführlich Uhlir, H./Steiner, P. (Wertpapieranalyse, 1994), S. 70–103.

    Google Scholar 

  66. Zur Modified Duration vgl. Rudolph, B. (Zinsänderungsrisiken, 1979), S. 200 ff.; Eller, R. (Modified Duration, 1991), S. 322 ff.; ders. (Risikomanagement, 1996), S. 47 ff.; Eller, R./Spindler, Ch. (Zins-und Währungsrisiken, 1994), S. 43 f. sowie Kruschwitz, L./ Wolke, Th. (Convexity, 1994), S. 382 ff. und Fabozzzi, F. J. (Bond Markets, 1996), S. 60 ff.

    Google Scholar 

  67. Der Ausdruck in großen Klammem entspricht der Macaulay-Duration D, multipliziert mit P, dem Preis bzw. Barwert des Zinstitels (der Barwert im Nenner fällt durch Multiplikation mit P weg).

    Google Scholar 

  68. Vgl. hierzu Rudolph, B. (Kontrollrechnungen, 1981), S. 549 und bspw. Hockmann, H. J. et al. (Anleihenportfolios, 1991), S. 148 f.; Bühler, A./Hies, M. (Key-Rate-Duration, 1995), S. 112 f. sowie Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 41 f.

    Google Scholar 

  69. Die Modified Duration bildet den inversen Preis-Rendite-Zusammenhang und die Eigenschaften von optionsfreien Zinspositionen zutreffend ab. Sie ist um so größer, je länger die Restlaufzeit ist und i. a. um so größer, je niedriger der Kupon ist. Vgl. Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 43 f. und Fabozzi, F. J. (Interest Rate Risk, 1996), S. 43 ff.

    Google Scholar 

  70. Als Alternative zur Modified Duration wird in der Praxis häufig der Price Value of a Basis Point verwendet. Dieser bezeichnet die absolute Preisänderung einer Zinsposition, wenn sich die Rendite um einen Basispunkt (0,01%) ändert. Es wird unmittelbar die absolute Preissensitivität (Marktrisikofaktorsensitivität) gemessen, im Gegensatz zur Modified Duration, welche die prozentuale Preisänderung bei einer Renditeänderung um 100 Basispunkte angibt. In der Handhabung macht dies keinen Unterschied, doch ist die unterschiedliche Behandlung von Stückzinsen zu beachten. Vgl. Fabozzzi, F. J. (Bond Markets, 1996), S. 57; ders. (Interest Rate Risk, 1996), S. 46 ff.; Eller, R./Spindler, Ch. (Zins-und Währungsrisiken, 1994), S. 44 ff. und Eller, R. (Risikomanagement, 1996), S. 53 f.

    Google Scholar 

  71. Da die Modified Duration für größere Renditeänderungen erhebliche Schätzfehler liefert, ist die Verwendung von 100 Basispunkten nicht nur eine Konvention, sondern ein sinnvoller Einsatz der Modified Duration als Risikomaß ist nur innerhalb dieser Grenze möglich. Vgl. bspw. Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 46.

    Google Scholar 

  72. Anzumerken ist, daß Macaulay bei der Berechnung der Duration den jeweiligen halbjährlichen Effektivzins (semi-annual yield to maturity) der bonds, nicht den „Marktzins“ verwendet. Vgl. Macaulay, F. R. (Interest rates, 1938), S. 48 und S. 51. Kritisch hierzu bspw. Ingersoll, J. E./Skelton, J./Weil, R. L. (Duration, 1978), S. 631.

    Google Scholar 

  73. Bei variabel verzinslichen Positionen ist die Höhe der Zahlungen nicht deterministisch. Bei der Ermittlung der Duration eines Floaters wird daher auf die Zinsanpassungstermine statt auf die Endfälligkeit zurückgegriffen. Die Duration eines Floaters vor einem Zinsanpassungstermin ist demnach nahe null. Alternativ ließen sich die zukünftigen Zahlungen prognostizieren und dann bei der Ermittlung der Duration berücksichtigen. Die Duration eines Reverse Floaters ist vergleichsweise komplizierter zu ermitteln. Liegen Optionen vor, kann auf die Effective Duration zurückgegriffen werden, auf die später eingegangen wird. Vgl. Fabozzi, F. J. (Interest Rate Risk, 1996), S. 51 ff. und ders. Fabozzzi, F. J. (Bond Markets, 1996), S. 343 ff.

    Google Scholar 

  74. Vgl. hierzu und zum folgenden Eller, R. (Risikomanagement, 1996), S. 60 ff. sowie Landwehr, H. A. (Moderne Instrumente, 1994), S. 144 f. Ähnlich auch Fabozzi, F. J. (Interest Rate Risk, 1996), S. 99.

    Google Scholar 

  75. Als Marktwert findet bei kupontragenden Zinspositionen (wie Bundesanleihen) der Dirty Price, also der Kurswert zuzüglich aufgelaufener Stückzinsen Verwendung.

    Google Scholar 

  76. Als erste haben Fisher und Weil ein Verfahren zur Lösung dieses Problems vorgeschlagen, indem die Barwerte der Zahlungsreihe mit Forward-Rates (genauer zinsstrukturbezogenen Nullkupon-Abzinsungsfaktoren) bestimmt werden.Vgl. Fisher, L./Weil, R. (Risk, 1971), S. 415 f. Allerdings gehen sie von einer Parallelverschiebung der Zinsstrukturkurve aus: „The assumption says that if forward interest rates change, all rates change by the same for all t.“ Ebd. S. 416. Sie weisen ausdrücklich auf diese Vereinfachung hin: The assumptions about shifts in interest rates does not hold in reality. A more accurate description is ib(t) = i,(t) + A(t), where i(t) is not constant.” Ebd. S. 417. Vgl. hierzu auch Schierenbeck, H. (Bankmanagement, 1994), S. 535 und Schulte-Mattler, H./Traber, U. (Quantifizierung, 1995), S. 162.

    Google Scholar 

  77. Die Key-Rate-Duration ist definiert als die Preissensitivität einer Anleihe aufgrund der Veränderung einer speziellen Rendite (der Key-Rate), wobei alle anderen Renditen konstant gehalten werden. Sie ist somit die partielle Preiselastizität in bezug auf die Veränderung der Key-Rates. Key-Rates stellen Zinssätze (und zwar Renditen) dar, die für bestimmte Laufzeiten t (etwa 1, 2,..., 10 Jahre Restlauf zeit) definiert werden. Verändert man die einzelnen Key-Rates, was als Key-Rate-Shift bezeichnet wird, lassen sich c. p. die Auswirkung einer bestimmten Zinsstrukturänderung auf den Barwert isoliert analysieren.

    Google Scholar 

  78. Es gibt zahlreiche Weiterentwicklungen der Duration zur Berücksichtigung der Auswirkungen von nicht-parallelen Verschiebungen und Veränderungen der Zinsstruktur. Neben der Key-RateDuration [vgl. Ho, T. S. (Key Rate Durations, 1992), S. 29–44; Bühler, A./Hies, M. (Key-Rate-Duration, 1995), S. 112–118 und Deutsch, H.-P. (Risiko, 1996), S. 145] sind die Functional Duration [vgl. Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 54–56] oder Partial Duration [siehe bspw. Reitano, R. R. (Immunization, 1992), S. 36–43] zu nennen. Betrachtet man das Reinvermögen eines Kreditinstitutes, d. h. den Wert des Eigenkapitals als Differenz der Markt-bzw. Barwerte der Aktiva und Passiva (i. S. v. Liquidationswerten), so kann bei finanzmathematisch korrekter Bewertung die Reinvermögensänderung als Barwertänderung aufgrund einer Änderung des Bewertungszinssatzes ermittelt werden.

    Google Scholar 

  79. Vgl. Schmidt, H. (Marktzinsrisiken, 1981), S. 249–286, insb. S. 252 ff.; Keine, F.-M. (Risikoposition, 1986), S. 339 ff.; Bangert, M. (Zinsrisiko-Management, 1987), S. 116 ff.; Professoren-Arbeitsgruppe (Begrenzung, 1987), S. 294 ff.; Herzog, W. (Zinsänderungsrisiken, 1990), S. 65 ff.; Bösl, K. (Risikobegrenzung, 1993), S. 179 ff.; grundlegend auch Rudolph, B. (Zinsänderungsrisiken, 1979), S. 202 ff. und ders. (Kontrollrechnungen, 1981), S. 549 ff.

    Google Scholar 

  80. Anders als bei der Zinsbindungsbilanz wird nicht nur die offene Festzinsposition, sondern das gesamte Festzinsgeschäft betrachtet. Unter der unrealistischen Prämisse einer sofortigen Anpassung der Konditionen bleibt jedoch der Marktwert variabel verzinslicher Zinspositionen von einer Marktzinsänderung unbeeinflußt. Die sachgerechte Erweiterung auf alle Zinspositionen und die Aufhebung der anderen Prämissen ist möglich, soll hier aber nicht dargestellt werden.

    Google Scholar 

  81. Der Solvenzeffekt bildet die Kapitalwertänderung bei einer Marktzinsänderung ab. Ein negativer Solvenzeffekt bedeutet eine Reinvermögensminderung. Bei einer Marktzinserhöhung (Marktzinssenkung) haben die Wertverluste (hat der Wertzuwachs) der Aktivpositionen den Wertzuwachs (die Wertverluste) der Passivpositionen übertroffen (nicht kompensiert). Dies ist typischerweise beim Festzinsüberhang der Fall.

    Google Scholar 

  82. Der Datenbedarf ist vergleichsweise groß, da sämtliche Zins-und Tilgungsbeträge und ihre Zeitpunkte ermittelt werden müssen.

    Google Scholar 

  83. Siehe hierzu, stellvertretend für viele, Rudolph, B. (Zinsänderungsrisiken, 1979), S. 202 ff.; Schmidt, H. (Marktzinsrisiken, 1981), S. 249–286, v. a. S. 252 ff.; Kugler, A. (Ansätze, 1985), S. 259 f., Keine, F.-M. (Risikoposition, 1986), S. 339 ff.; Bangert, M. (Zinsrisiko-Management, 1987), S. 116 ff.; Professoren-Arbeitsgruppe (Begrenzung, 1987), S. 294 ff.; Bessler, W. (Zinsrisikomanagement, 1989), S. 202 ff.; Herzog, W. (Zinsänderungsrisiken, 1990), S. 65 ff. und Bösl, K. (Risikobegrenzung, 1993), S. 179 ff.

    Google Scholar 

  84. Siehe hierzu auch Hanweck, G. A./Shull, B. (Interest rate volatility, 1996), S. 73 ff.

    Google Scholar 

  85. Vgl. Deutsch, H.-P. (Risiko, 1996), S. 129 und S. 141 ff.

    Google Scholar 

  86. Die Annahme der strikt linearen Beziehung läßt sich durch die Einbeziehung weiterer Terme der Taylor-Reihe schrittweise aufheben.

    Google Scholar 

  87. Bei Fremdwährungspositionen tritt als Risikofaktor die Wechselkursschwankung hinzu, die jedoch aufgrund des linearen Zusammenhangs von Positionswert und Wechselkursentwicklung weitgehend unproblematisch ist. Jeder relevante Wechselkurs wird als eigener Risikofaktor betrachtet, und entsprechend gehen die Korrelationen sämtlicher Wechselkurse in die Berechnung ein. Vgl. Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 25 ff.

    Google Scholar 

  88. Vgl. Estrella, A. et al. (Price Risk, 1994), S. 30 ff.; Jorion, P. (Value at Risk, 1997), S. 187 f. und Schulte-Mattler, H. (Delta-plus-Ansatz, 1996), S. 502 f. sowie auch BAK (Entwurf Grundsatz I, 1997), § 28, S. 39 f. und BAK (Erläuterungen Grundsatz I, 1997), § 28, S. 109 ff. Zur Ermittlung des Bund-Futures-Äquivalentes siehe Bürger, P. (Risikocontrolling, 1995), S. 252 f.

    Google Scholar 

  89. Vgl. hierzu Allen, M. (Role Model, 1994), S. 73 ff. und Meegan, C. (Value-at-risk, 1995), S. 16 f. Der Delta-normal-Ansatz basiert also auf einer Risikofaktorenzerlegung des Portfolios. Die Risikofaktoren werden als (Faktor-)Deltas bezeichnet, daher die angloamerikanische Bezeichnung als delta-normal approach.

    Google Scholar 

  90. Daher wird er von Allen auch als Korrelationsmethode (correlation method) bezeichnet. Vgl. Allen, M. (Role Model, 1994), S. 73 ff.

    Google Scholar 

  91. Vgl. hierzu und zum folgenden Allen, M. (Role Model, 1994), S. 73 ff.; Meegan, C. (Value-atrisk, 1995), S. 16 ff. und Wilson, Th. (Gap, 1994), S. 79 f.

    Google Scholar 

  92. Dabei gibt die Konstante za, wie zuvor, das einseitige Konfidenzintervall der Standardnormalverteilung an. t ist die reguläre Liquidationsperiode und aa =. js’E 5 gibt die Standardabweichung der Portfoliorenditen an, die als Funktion des Portfoliodelta berechnet wird. S ist ein M x 1-Vektor der Faktorsensitivitäten, und E ist die M x M-Kovarianzmatrix der Risikofaktoren, nicht der einzelnen Assets oder Positionen.

    Google Scholar 

  93. Eine Variante des Delta-normal-Ansatzes ist der von Alexander vorgeschlagene Delta-normalGARCH-Ansatz, bei dem mit einer zeitveränderlichen Portfoliovarianz bzw. dynamischen Korrelationen, allg. dynamischen Faktordeltas, die auf der Basis eines GARCH-Modelles spezifiziert werden, gearbeitet wird. Dadurch könnte ein Kritikpunkt, die statische Eigenschaft des Value-at-Risk-Konzeptes, entschärft werden. Die Berechnung des Value at Risk unter Verwendung des GARCH-Mode lles (oder seiner Varianten) wird rechnerisch zu anderen Ergebnissen führen, ist im übrigen methodisch aber nicht anders einzuschätzen als der Deltanormal-Ansatz. Lediglich das Verfahren der Volatilitätsschätzung unterscheidet sich. Die vergleichsweise Schätzgüte dieser Variante ist primär eine empirische Frage, auf die hier zunächst nicht näher eingegangen wird. Vgl. Alexander, C. (Correlation, 1994), S. 63.

    Google Scholar 

  94. Vgl. hierzu und zum folgenden Allen. M. (Role Model, 1994), S. 73, Meegan, C. (Value-at-risk, 1995), S. 17 und Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 26 f.

    Google Scholar 

  95. Dies ergibt sich unmittelbar aus der Verwendung der Linearkombination normalverteilter Variablen, die wiederum eine Normalverteilung ergeben soll, damit die gezeigten Konfidenzniveaus durch die zö Multiplikatoren der Standardabweichung ausgedrückt werden können.

    Google Scholar 

  96. Vgl. Allen, M. (Role Model, 1994), S. 73.

    Google Scholar 

  97. Vgl. Meegan, C. (Value-at-risk, 1995), S. 17; Wilson, Th. (Gap, 1994), S. 79 f.

    Google Scholar 

  98. Vgl. Wilson, Th. (Gap, 1994), S. 79 f. und Meegan, C. (Value-at-risk, 1995), S. 17.

    Google Scholar 

  99. Vgl. J. P. Morgan (Technical Document, 1995), S. 14.

    Google Scholar 

  100. Vgl. hierzu Allen, M. (Role Model, 1994), S. 73 ff.

    Google Scholar 

  101. Vgl. Estrella, A. et al. (Price Risk, 1994), S. 27 ff.; Longerstaey, J./Zangari, P. (VAR framework, 1996), S. 50 ff.; Jorion, P. (Value at Risk, 1997), S. 191 f.

    Google Scholar 

  102. Zur formalen Herleitung der Convexity siehe Anhang 10–3. Zum Satz von Taylor s. S. 147. Vgl. Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 49 ff.; Fabozzzi, F. J. (Bond Markets, 1996), S. 67 f. sowie Kruschwitz, L./Wolke, Th. (Convexity, 1994), S. 384; Heidom, Th. (Finanzmathematik, 1994), S. 45; Kruschwitz, L./Wolke, Th. (Convexity, 1994), S. 384; Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 247 f.

    Google Scholar 

  103. Auch diese Approximation bei nicht-marginalen Zinsänderungen ist wiederum mit einem Schätzfehler behaftet, da die höheren Terme der Taylor-Reihe vernachlässigt werden.

    Google Scholar 

  104. Im Vergleich zur Formel der Duration (s. a. Anhang 10–2) ist im Zähler lediglich der Term (t+1) hinzugefügt und der Nenner mit (1+r)2 multipliziert worden.

    Google Scholar 

  105. Vgl. hierzu Eller, R. (Modified Duration, 1991), S. 323 ff.; Doerks, W./Hübner, St. (Konvexität, 1993), S. 103 ff. und Scherer, B. G. (Konvexitätsstrategien, 1995), S. 622 ff.

    Google Scholar 

  106. Vgl. hierzu und zum folgenden Steiner, M.Bruns, Ch. (Wertpapiermanagement, 1993), S. 246–249; Eller, R. (Modified Duration, 1991), S. 323–325; Kruschwitz, L./Wolke, Th. (Convexity, 1994), S. 382 ff. sowie Fabozzi, F. J./Fong, G. (Portfolio Management, 1994), S. 37 ff. und S. 47 ff. und Fabozzzi, F. J. (Bond Markets, 1996), S. 67 ff.

    Google Scholar 

  107. Der gezeigte Schätzfehler der Modified Duration ist um so größer, je größer die Restlaufzeit der Zinsposition ist und je stärker die Renditeänderungen sind. Lediglich in einem Bereich von +/- 50 Basispunkten liefert die Modified Duration einen Maßstab für die Zinssensitivität von hinreichender Genauigkeit. Bei Renditesteigerungen wird der Wertverlust tendenziell unterschätzt, bei sinkenden Renditen wird der Gewinn unterschätzt, wobei zudem zu beachten ist, daß die Schätzfehler im positiven und negativen Bereich nicht symmetrisch sind. Wichtige Einflußfaktoren auf die Convexity sind die Höhe der Cash-flows und die Laufzeit: je höher bzw. länger, desto größer die Convexity. Da bei der Risikoanalyse mit Hilfe des Value at Risk aufgrund der üblicherweise geforderten hohen Konfidenzniveaus (>95%) von großen Renditeveränderungen auszugehen ist, ist zu prüfen, ob die Convexity vernachlässigt werden darf, oder ob die zu erwartenden Approximationsfehler nicht mehr toleriert werden können.

    Google Scholar 

  108. Nach Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 247 Abb. 5.7.

    Google Scholar 

  109. Vgl. bspw. Fabozzzi, F. J. (Bond Markets, 1996), S. 71. Altemativ kann der Price Value of a Basis Point verwendet werden.

    Google Scholar 

  110. Das Beispiel wurde in Anlehnung an Fabozzzi, F. J. (Bond Markets, 1996), S. 70 f. gewählt.

    Google Scholar 

  111. Probe: Der Rechenweg über den prozentualen Verlust im Fall der Renditeänderung um 3,29% (1,6449. 0,02) muß zum gleichen Ergebnis führen: Anteil der Modified Duration an der Wertänderung = -10,54.0,02. 1,6449 = -0,3467 = 34,67% oder 24,46 DM. Anteil der positiven Convexity an der Wertänderung = 2.180,43 • (0,02. 1,6449)2= = 0,0976 = 9,76% oder 6,88 DM. Gesamte Wertänderung = -24,91% oder -17,57 DM.

    Google Scholar 

  112. Vgl. hierzu und zum folgenden Fabozzzi, F. J. (Bond Markets, 1996), S. 343–345.

    Google Scholar 

  113. Fabozzzi, F. J. (Bond Markets, 1996), S. 345.

    Google Scholar 

  114. Vgl. hierzu und zum folgenden Fabozzzi, F. J. (Bond Markets, 1996), S. 75 f. und S. 344 sowie ders. (Interest Rate Risk, 1996), S. 51 ff. Approximiert wird hier die durchschnittliche Wertveränderung (relativ zum ursprünglichen Wert), bezogen auf eine Renditeänderung, die in Basis Punkten ausgedrückt wird. Notwendig ist allerdings die zweifache (!) Neubewertung der Zinsposition. Das Verfahren scheint daher rechnerisch ineffizient zu sein.

    Google Scholar 

  115. Vgl. hierzu und zum folgenden Fabozzi, F. J. (Interest Rate Risk, 1996), S. 51 f. und S. 64 f. sowie Hanweck, G. A./Shull, B. (Interest rate volatility, 1996), S. 70 ff.

    Google Scholar 

  116. Ein geeignetes Binomialmodell stellen bspw. Kalotay, A. J. et al. (Embedded Options, 1993), S. 35–46 vor.

    Google Scholar 

  117. Zum Begriff und zur Rechtslage siehe Rösler, P. (Vorfälligkeitsentgelt, 1997), S. 1369 ff. m. w. N. sowie Wenzel, F. (Vorfälligkeitsentgelt, 1995), S. 368 ff. und ders. (Vorfälligkeitsentgelt, 1997), S. 43 ff. und Metz, R. (Vorfälligkeitsentschädigung, 1994), S. 205 ff.

    Google Scholar 

  118. Der Schulder hat das Recht, aber nicht die Pflicht, dem Gläubiger vorzeitige Rückzahlungen zu leisten.

    Google Scholar 

  119. Vgl. hierzu und zum folgenden Hanweck, G. A./Shull, B. (Interest rate volatility, 1996), S. 70 ff.

    Google Scholar 

  120. Das Risiko der vorzeitigen Rückzahlung ist somit primär ein Reinvestitionsrisiko. Die Wiederanlage der Mittel kann nur zu niedrigeren Zinsen erfolgen, dadurch fallen in Zukunft geringere Cash-flows an. Insofern ist auch der Barwert risikobehaftet. Die Differenz zwischen dem Barwert des ursprünglichen Zahlungsstromes und dem Barwert des Zahlungsstromes der reinvestierten Mittel ergibt den Verlust des Gläubigers durch die vorzeitige Rückführung. Zudem entstehen Risiken durch die ungeplanten offenen Zinspositionen und somit ungeplantes Exposure.

    Google Scholar 

  121. Selbstverständlich kann eine Vielzahl anderer Gründe für die vorzeitige Rückführung der Mittel bestehen, hier wird nur das Zinsniveau betrachtet.

    Google Scholar 

  122. Vgl. Fabozzi, F. J. (Interest Rate Risk, 1996), S. 52.

    Google Scholar 

  123. Eigene Darstellung auf der Grundlage fiktiver Werte für die negative Convexity.

    Google Scholar 

  124. Im einfachsten Fall wird die interne Rendite jeder Zinsposition auf Basis der aktuellen Zinsstruktur zur Ermittlung der jeweiligen Modified Duration und Convexity verwendet und von einer einheitlichen Renditevolatilität über alle Restlaufzeiten ausgegangen.

    Google Scholar 

  125. Vgl. Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 249.

    Google Scholar 

  126. Vgl. Schierenbeck, H. (Bankmanagement, 1994), S. 538 und S. 543.

    Google Scholar 

  127. Bei der vollständigen Neubewertung (full valuation) werden sämtliche Cash-flows ermittelt und in ein Laufzeitengitter eingeordnet, mit entsprechenden Zerobond-Abzinsfaktoren diskontiert und dann wird die Differenz zwischen Ist-Barwert und dem potentiellen zukünftigen Barwert gebildet. Eine im Vergleich zur Approximation bessere Risikoquantifizierung durch vollständige Neubewertung gelingt allerdings nur, wenn realistische und der geforderten Wahrscheinlichkeit entsprechende Renditevolatilitäten oder Zinsszenarien verwendet werden.

    Google Scholar 

  128. Vgl. hierzu und zum folgenden Wilson, Th. (Gap, 1994), S. 75 f. und ders. (Risk Capital, 1996), S. 205 ff.; Pritsker, M. (Value at Risk Methodologies, 1996), S. 7 ff. und ausführlich Estrella, A. et al. (Price Risk, 1994), S. 30 ff. und Estrella, A. (Series Approximations, 1995).

    Google Scholar 

  129. Beim Delta-normal-Ansatz werden normalverteilte Risikofaktoränderungen unterstellt. Zusammen mit der linearen Faktorsensitivität ergibt sich eine Linearkombination normalverteilter Zufallsvariablen und somit eine multivariate Normalverteilung. Beim Delta-Gamma-Ansatz wird die Portfoliowertänderung approximiert, indem eine Summe der Linearkombination normalverteilter Zufallsvariablen und quadratischer Terme zweiter Ordnung gebildet wird. Weil die quadratischen Terme eine Chi-Quadrat-Verteilung haben, geht die Normalverteilungseigenschaft verloren. Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 9, FN 16.

    Google Scholar 

  130. Vgl. BAK (Erläuterungen Grundsatz I, 1997), § 29, S. 117 ff. Bei der Erläuterung des neuen Grundsatz I wird im Rahmen des „Delta-Plus-Ansatzes“ die Ermittlung des Anrechnungsbetrages genauer erläutert. Hier kann darauf verzichtet werden.

    Google Scholar 

  131. Angenommen wird eine nicht-singuläre Kovarianzmatrix und eine nichtsinguläre Gamma-Matrix. Zusätzlich werden im allgemeinen weitere vereinfachende Annahmen getroffen, um das Ziehen der Quadratwurzel aus der Kovarianz-Matrix rechnerisch effizient zu ermöglichen. Die Terme abseits der Hauptdiagonalen werden in der Praxis häufig auf null gesetzt, obwohl dies nicht zutreffend ist. Zur Dekomposition der Matrix siehe Longerstaey, J./Zangari, P. (VAR framework, 1996), S. 50 f. und Wilson, Th. C. (Risk Capital, 1996), S. 207 ff. sowie Pritsker, M. (Value at Risk Methodologies, 1996), S. 9 f.

    Google Scholar 

  132. Siehe hierzu ausführlich Zangari, P. (VaR methodology, 1996), S. 4 ff. und ders. (Delta-gamma methodology, 1996), S. 12 ff. m. w. N. Siehe auch Wilson, Th. C. (Risk Capital, 1996), S. 205 ff.

    Google Scholar 

  133. Um die höheren Momente zu erfassen, erfolgt eine spezifische Korrektur der Verteilung, die Transformation zu einer sog. Johnson-Verteilung. Diese Transformation soll gewährleisten, daß nach Standardisierung die Verteilung, auf deren Basis der Value at Risk ermittelt wird, der bspw. schiefen Verteilung der Portfoliowertänderung entspricht. Siehe Kapitel 3.2.3.3.4.

    Google Scholar 

  134. Vgl. hierzu und zum folgenden Zangari (Delta-gamma methodology, 1996), S. 19 ff. und J.P. Morgan/Reuters (Technical Document, 1996), S. 247 ff. sowie Wilson, Th. C. (Risk Capital, 1996), S. 205 ff. Als empirische Studie zur Genauigkeit der Delta-Gamma-Approximation ist Pritsker, M. (Value at Risk Methodologies, 1996), hier insbes. S. 52 ff. anzuführen. Zur Kritik an der Taylor-Approximation vgl. Estrella, A. (Series Approximations, 1995), S. 1 ff.

    Google Scholar 

  135. Siehe bspw. Steiner, M.Bruns, Ch. (Wertpapiermanagement, 1995), S. 417 ff.

    Google Scholar 

  136. Vgl. Estrella, A. et al. (Price Risk, 1994), S. 31 und S. 38.; Klaus, M. (Value-at-Risk-Berechnung, 1997), S. 377 ff.

    Google Scholar 

  137. Vgl. BAK (Erläuterungen Grundsatz I, 1997), § 30, S. 119 ff. Dem Vega einer erworbenen Position ist ein positives, dem einer verkauften Option ein negatives Vorzeichen zuzuordnen.

    Google Scholar 

  138. Siehe auch Steiner, M./Raulin, G. (Eigenoptionshandel, 1992), S. 470 f.; Krumnow, J. (Bankencontrolling, 1997), S. 308 f.; Schulte-Mattler, H. (Szenario-Matrix-Verfahren, 1996), S. 758 ff. und Klaus, M. (Value-at-Risk-Berechnung, 1997), S. 376 ff. und auch BAK (Erläuterungen Grundsatz I, 1997), § 31, S. 120 ff.

    Google Scholar 

  139. Vgl. BAK (Erläuterungen Grundsatz I, 1997), S. 111 f. und S. 120 ff.

    Google Scholar 

  140. Durch diese Sensitivitätsanalyse ergibt sich im Vergleich zur Simulation eine erhebliche Zeitersparnis durch den verringerten Rechenaufwand, da nicht zahlreiche stochastisch simulierte Szenarien unter Berücksichtigung von Korrelationen, sondern nur vorgegebene Parameteränderungen betrachtet werden. Der Vorteil wird allerdings mit der Vernachlässigung weiterer risiko-bestimmender Determinanten (Zeitwertverlust, laufzeitabhängige Volatilitätsänderungen) erkauft.

    Google Scholar 

  141. Siehe auch Krumnow, J. (Bankencontrolling, 1997), S. 309, Abb. 7: Beispiel für eine Spot-Vol-Matrix, basierend auf den Spot-Rates des US-Dollars und seiner Volatilität.

    Google Scholar 

  142. Vgl. hierzu und zum folgenden Zangari, P. (VaR methodology, 1996), S. 4 ff. und Longerstaey, J./Zangari, P. (VAR framework, 1996), S. 50 ff.

    Google Scholar 

  143. Die Annahmen hinsichtlich des Erwartungswertes und der Varianz usw., die für die einzelnen Renditen gelten, werden demnach nicht notwendigerweise auch für die Renditeverteilung eines Portfolios gelten, das Optionen enthält. Insbesondere wenn Optionen gewolltermaßen die Renditeverteilung bspw. nach unten begrenzen (Hedging!), dürfen die a-Quantile und ihre entsprechenden Konfidenzniveaus der Normalverteilung nicht oder nicht ohne weiteres herangezogen werden.

    Google Scholar 

  144. Siehe hierzu Zangari, P. (VaR methodology, 1996), S. 4–12 und Longerstaey, J./Zangari, P. (VAR framework, 1996), S. 49–52. Siehe auch Fallon, W. (Value-at-Risk, 1996), S. 11 ff. sowie Pritsker, M. (Value at Risk Methodologies, 1996), S. 13 f.

    Google Scholar 

  145. Grundlegend zur Cornish-Fisher Expansion siehe auch Zelen, M./Severo, N. C. (Probability functions, 1970), S. 935 f.

    Google Scholar 

  146. Vgl. hierzu und zum folgenden Zangari, P. (VaR methodology, 1996), S. 4–12.

    Google Scholar 

  147. Die kritischen Grenzen der Comish-Fisher-Approximation cva werden als Funktion der kritischen Grenzen bestimmt. Dabei werden Korrekturen sowohl für die Schiefe als auch für die Kurtosis vorgenommen. Es werden also lediglich die ersten vier zentralen Momente der Portfoliorenditeverteilung berücksichtigt, was jedoch gegenüber der simplen Verwendung der Normalverteilung einen erheblichen Genauigkeitszuwachs bedeuten kann. Die Güte der Schätzung hängt dabei allerdings unmittelbar von der richtigen Schätzung der zentralen Momente der Renditeverteilung ab. Da in der praktischen Anwendung statt der unbekannten tatsächlichen Momente der Verteilung wiederum Schätzwerte verwendet werden müssen, die auf Basis einer Stichprobe historischer Beobachtungen ermittelt werden, ergibt sich das spezielle Problem der Sicherheitsäquivalenz („certainty equivalence“). Der Schätzfehler des Samples wird somit unvermeidlich auf die Quantile und die Value-at-Risk-Schätzung übertragen.

    Google Scholar 

  148. Folglich sind die kritischen Werte der Comish-Fisher Approximation nur dann angebracht, wenn kein großer Schätzfehler vorliegt. Der Schätzfehler selbst kann allerdings nur mit Hilfe einer Simulation bestimmt werden, was wiederum aufwendig ist.

    Google Scholar 

  149. Diese Aussage stützt sich auf einen Schriftwechsel mit Zangari. Vgl. auch Longerstaey, J Zangari, P. (VAR framework, 1996), S. 52.

    Google Scholar 

  150. Vgl. hierzu ausführlich J.P. Morgan/Reuters (Technical Document, 1996), S. 129 ff. und S. 247 ff. sowie Longerstaey, J./Zangari, P. (VAR framework, 1996), S. 51 f.

    Google Scholar 

  151. Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 130. Unterstellt wird auch hier die bedingte Normalverteilung der Renditen des Underlying, mit einem Erwartungswert von null. Die „Griechen“ werden in Anhang 9–2 bis -7 erläutert. Die Tilde kennzeichnet Schätzwerte, die bspw. mit dem Black-Scholes-Optionspreismodell (s. Anhang 9–1) errechnet werden.

    Google Scholar 

  152. Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 247 ff.

    Google Scholar 

  153. Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 13 f. Dies gilt vor allem im Vergleich mit der Delta-Gamma-Monte-Carlo-Methode. Siehe Fußnote 501.

    Google Scholar 

  154. Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 6. Estrella kommt bei der Untersuchung des Black-Scholes-Optionspreismodelles zu dem Ergebnis, daß eine Gamma-Approximation nur für Preisänderungen geeignet ist, die eine Standardabweichung nicht überschreiten. Vgl. Estrella, A. (Series Approximations, 1995), S. 15. Für Streß-Tests, aber auch die Value-at-Risk-Berechnung sind Delta-Gamma-Approximationen daher unzureichend. Diese Wertung erscheint zu restriktiv, zumal die Güte der Approximation auch von der Restlaufzeit und dem Maß, in dem eine Position am Geld ist, abhängt.

    Google Scholar 

  155. Problematisch ist ohnehin, daß es aufgrund der oftmals nichtlinearen Bewertungsfunktionen nicht ausreicht, nur die ersten beiden Glieder der Taylor-Reihe, Delta und Gamma, zu berücksichtigen, sondern weitere nichtlineare Glieder und somit wichtige Risikodeterminanten zu erfassen sind. Die lokale Approximation wird schnell an die Grenzen ihrer Leistungsfähigkeit stoßen. Für verschiedene Kennzahlen sind ganz bestimmte Bandbreiten von Parameteränderungen bekannt, innerhalb derer die Gültigkeit der Ergebnisse unterstellt werden kann, so etwa für die Modified Duration der Bereich von +/- 50 Basispunkten. Der Schätzfehler der Approximation erster Ordnung kann hier, wie gezeigt, anhand der Convexity bestimmt, aber auch nur approximativ berücksichtigt werden. Vgl. Eller, R. (Risikomanagement, 1993), S. 57 517 f.;

    Google Scholar 

  156. Steiner, M.Bruns, Ch. (Wertpapiermanagement, 1995), S. 246 ff.; Eller, R. (Modified Duration, 1991), S. 322–326 sowie Kruschwitz, L./Wolke, Th. (Convexity, 1994), S. 382–387. Siehe auch Estrella, A. et al. (Price Risk, 1994), S. 27–43.

    Google Scholar 

  157. Da die lokalen Sensitivitätskennzahlen für Optionen meist verfügbar sind, trifft das Argument der leichten Implementierbarkeit auch auf die Delta-Gamma-(Theta-)Approximation zu. Vgl. Wilson, Th. (Gap, 1994), S. 79 f. und Estrella, A. et al. (Price Risk, 1994), S. 30 f.

    Google Scholar 

  158. Vgl. Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 27 Diese Aussage mag für kleinere Institute zutreffen. Die Güte der Datenbasis ist jedoch ein so entscheidender Faktor für die Qualität der Value-at-Risk-Berechnung, daß die Verwendung von Material Dritter, dessen Berechnung nur bedingt kontrollierbar oder in Extremfall nicht nachvollziehbar sein dürfte, nur in Ausnahmefällen in Frage kommen wird. Ob Preismodelle notwendig sind oder nicht, hängt zudem eher von der Zusammensetzung des Portfolios ab, als von der Variante des Value-atRisk-Konzeptes.

    Google Scholar 

  159. Vgl. Perridon, L./Steiner, M. (Finanzwirtschaft, 1995), S. 116 f.

    Google Scholar 

  160. Vgl. J. P. Morgan (Technical Document, 1995), S. 16. Dies kann bei der Implementierung dennoch erforderlich sein, um keine „unsinnigen“ Szenarien zu simulieren.

    Google Scholar 

  161. BIS (Promisel-Report, 1992), S. 22.

    Google Scholar 

  162. Vgl. hierzu und zum folgenden Allen, M. (Role Model, 1994), S. 78; Quinn, D. J. (Estimating VAR, 1995), S. 97 ff.; Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 15 ff.; Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 25–27 sowie Wilson, Th. (Gap, 1994), S. 80 und ders. (Risk Capital, 1996), S. 220 ff.

    Google Scholar 

  163. Vgl. J. P. Morgan (Technical Document, 1995), S. 14: „potential loss = value (at potentially changed rates) - value (at original rates)“, ebd.

    Google Scholar 

  164. Vgl. J. P. Morgan (Technical Document, 1995), S. 18 und auch Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 27 sowie Stambaugh, F. (Value at Risk, 1996), S. 617 f. Grundsätzlich kann auch bei der historischen Simulation auf die approximative Bewertung zurückgegriffen werden. Dies ist allerdings unüblich, da wesentliche Vorteile der historischen Simulation auf der vollständigen Neubewertung beruhen.

    Google Scholar 

  165. Die historischen Preise werden nicht unmittelbar herangezogen, da Zeitablaufeffekte sonst zu Verzerrungen des errechneten Risikos führen können.

    Google Scholar 

  166. Gegebenenfalls ist die Interpolation des Value at Risk notwendig, wenn dem gewünschten Quantil keine ganzzahlige Beobachtung entspricht. Oft wird, wie hier, einfach gerundet.

    Google Scholar 

  167. Jorion weist darauf hin, daß das unmittelbare Heranziehen des Stichproben-Quantils im Vergleich zur Verwendung der mit dem z-Wert multiplizierten Standardabweichung wesentlich größere Schätzfehler produziert und daher die schlechtere Methode ist. Vgl. Jorion, Ph. (Risk2, 1996), S. 56. Wird das Quantil anhand des gemessenen Erwartungswertes und der Standardabweichung bestimmt, so ist die Vorgehensweise mit der des aggregierten Portfolio-normalAnsatzes identisch. Es wird dann eine multivariate Normalverteilung unterstellt.

    Google Scholar 

  168. Die Simulationsmethode ist auch im Basler Marktrisikopapier vorgesehen. Siehe hierzu BIZ (Eigenkapitalvereinbarung, 1996), A.3 II. S. 26 i. v. m. B.3 S. 43 und B.4 S. 45 ff.

    Google Scholar 

  169. Vgl. hierzu und zum folgenden Schulte-Mattler, H./Traber, U. (Marktrisiko, 1995), S. 132 ff. Diese geben eine schrittweise Anleitung zur Durchführung der Simulationsmethode.

    Google Scholar 

  170. Vgl. hierzu, stellvertretend für viele, Allen, M. (Role Model, 1994), S. 78 und Stambaugh, F. (Value at Risk, 1996), S. 617.

    Google Scholar 

  171. Vgl. hierzu Wilson, Th. C. (Risk Capital, 1996), S. 221 f.

    Google Scholar 

  172. Mit der Qualität der Datenbasis sind eine Vielzahl von Detailproblemen verbunden. Ein interessanter Aspekt ist der „survivorship effect“. Die simulierten Zeitreihen enthalten meist ausschließlich Werte, die noch am Markt gehandelt werden. Dadurch können Risiken unterschätzt werden. Werte, die von Konkursen, Verstaatlichungen oder Untergang in Folge von Kriegen usw. betroffen waren und daher schlechte Performance aufwiesen, sind i. d. R. nicht mehr in der Datenbasis enthalten. Vgl. Jorion, P. (Value at Risk, 1997), S. 310 f. Problematisch sind Neuemissionen, für die keine Preishistorie existiert. Einen Eindruck von den praktischen Schwierigkeiten der Verwendung der aktuellen Portfoliozusammensetzung geben auch Dimson, E./Marsh, P. (Stress Tests, 1996), S. 11 ff.

    Google Scholar 

  173. Vgl. Bürger, P. (Risikocontrolling, 1995), S. 247; Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 101 f.; Jorion, P. (Value at Risk, 1997), S. 195 f.

    Google Scholar 

  174. Die Stützperiode kann systematisch, repräsentativ, zufällig oder willkürlich ausgewählt werden. Sie sollte dem stochastischen Charakter des Value at Risk gerecht werden. Um die Performance des Portfolios unter extremen Bedingungen zu testen, kann als Stützperiode bei der historischen Simulation auch gezielt eine Zeitspanne mit Marktanspannungen oder Marktverwerfungen, bis hin zum Crash, gewählt werden (Streß Test). Zur Berechnung des Value at Risk, der normale Marktgegebenheiten erfassen soll, wird aber i. d. R. eine gleitende Periode fixer Länge herangezogen. Dies unterscheidet die historische Simulation von Streß Tests und Worst-CaseSzenarien, bei denen bestimmte Marktsituationen gezielt ausgewählt werden. Solche Szenarien werden zwar regelmäßig überprüft, aber nicht permanent verändert. Die Eintrittswahrscheinlichkeit von Worst-Case-Szenarien kann zudem i. a. nicht exakt angegeben werden.

    Google Scholar 

  175. Vgl. hierzu und zum folgenden Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 6 f. und S. 15 ff. sowie Jorion, P. (Value at Risk, 1997), S. 193 ff. Diese Annahme treffen alle anderen Verfahren mehr oder weniger auch, da sie auf historische Daten zurückgreifen.

    Google Scholar 

  176. Wird wie bei gleitenden Durchschnitten nur jeweils die älteste durch die aktuellste Beobachtung ersetzt, so besteht ein überlappendes Sample. Gleitende Durchschnittsverfahren verwenden also überlappende Sampledaten. Diese werden ggf. unterschiedlich gewichtet, wobei dann in der Regel aktuellen Beobachtungen ein größeres Gewicht zugebilligt wird.

    Google Scholar 

  177. Nimmt man eine Handelswoche mit 5 Handelstagen an, so lassen sich aus 250 täglichen Beobachtungen ca. 50 wöchentliche, aber nur ca. 12 monatliche Renditen ermitteln.

    Google Scholar 

  178. Die Untersuchung von Bühler, W. et al. (Eigenkapitalanforderungen, 1997), S. 14 f. zeigt den typischen Fall der Reduktion der Zahl der Beobachtungen des Samples von 250 auf 25 durch die Verwendung nicht-überlappender 10-Tages-Renditen. Es ist daher nicht verwunderlich, daß das Verfahren der historischen Simulation mit zehntägiger Halteperiode und einer Stützperiode von einem Jahr, entsprechend der Marktrisikoregeln der BIZ, nicht zu überzeugenden Ergebnissen führt. Angesichts der sehr starken Verzerrung der Schätzergebnisse, die insbesondere auch bei der Beurteilung der Güte des Value-at-Risk-Verfahrens relevant ist, muß man sich fragen, ob die positive Autokorrelation nicht ggf. das kleinere Übel darstellt. Ferner ist anzumerken, daß die quantitativen Vorgaben der BIZ hier im Hinblick auf die Reliabilität wenig überzeugen konnten. Zur Ermittlung des Schätzfehlers des Quantilss siehe Jorion, Ph. (Risk2, 1996), S. 50.

    Google Scholar 

  179. Das Bootstrap-Verfahren geht auf Efron zurück. Siehe bspw. Efron, B. (Nonparametric estimates, 1981), S. 589–599 und Efron, B./Tibshirani, R. (Bootstrap Methods, 1986), S. 54–77.

    Google Scholar 

  180. Vgl. hierzu und zum folgenden Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 15 ff. sowie Wilson, Th. C. (Risk Capital, 1996), S. 221 ff.

    Google Scholar 

  181. Vgl. Jorion, P. (Value at Risk, 1997), S. 193 ff. und Krumnow, J. (Bankencontrolling, 1997), S. 304.

    Google Scholar 

  182. Vgl. Jorion, P. (Value at Risk, 1997), S. 196.

    Google Scholar 

  183. Vgl. zum Monte-Carlo-Verfahren Perridon, L./Steiner, M. (Finanzwirtschaft, 1995), S. 116 f. Die Anwendung der Simulationstechnik auf Investitionsentscheidungen und die Grundzüge des Simulationsverfahrens beschreibt Hertz, D. B. (Risk Analysis, 1964), S. 95–106, insbes. S. 99 und S. 102. Ein frühes umfassendes Werk zu Monte-Carlo-Methoden ist Hammersley, J. M./Handscomb, D. C. (Monte Carlo Methods, 1964). Dort werden auch die geschichtliche Entwicklung und der Ursprung des Begriffes „Monte-Carlo-Methode“ skizziert. Siehe dies. S. 6 ff. Zu Definition und Anwendung vgl. auch Schäfer, K. (Optionsbewertung, 1994), S. 91 ff.

    Google Scholar 

  184. In der Literatur wird das entsprechende Value-at-Risk-Verfahren auch als strukturierte Monte-Carlo-Simulation bezeichnet. Damit soll entweder zum Ausdruck gebracht werden, daß auch das Zusammenwirken der Risiken verschiedener Risikobereiche modelliert wird, oder daß eine Kombination mit approximativen Verfahren, bspw. eine Delta-Approximation statt der Neubewertung, vorgenommen wird.

    Google Scholar 

  185. Meist werden allerdings nur Pseudo-Zufallszahlen generiert. Die Fähigkeit des Zufallszahlengenerators, die gewünschten Zufallsziehungen exakt zu produzieren und etwa die Unabhängigkeit der Zufallszahlen zu gewährleisten ist i. d. R. eingeschränkt. Auch dadurch ergeben sich potentielle Verzerrungen in der Risikoschätzung. Die meiste Standardsoftware liefert einfache Zufallszahlengeneratoren, die Wiederholungen in bestimmten Zyklen aufweisen. Ist der Zyklus zu kurz, können unerwünschte Effekte, vor allem Abhängigkeiten, in die Modellierung eingebracht werden. Ein guter Zufallszahlengenerator sollte daher den üblichen Unabhängigkeitstests standhalten.

    Google Scholar 

  186. Vgl. hierzu und zum folgenden Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 25 ff.

    Google Scholar 

  187. Als einfachstes Preismodell ist die Lognormalverteilung weit verbreitet, die zu normalverteilten Renditen führt, sofern die Zufallszahlen Z einer Standardnormalverteilung entnommen werden: Kt = Kea wobei K1 der Kurs zum Zeitpunkt t; o die unbedingte Varianz ist.

    Google Scholar 

  188. Die Vorgabe des stochastischen Prozesses kann grundsätzlich auch auf der Basis ökonometrischer Modelle erfolgen, wobei eine Vielzahl exogener Einflußgrößen, wie Geld-und Fiskalpolitik, und ihr Einfluß auf die Zielgrößen, bspw. Renditen, berücksichtigt werden können. Da der Modellierungsauf wand sehr groß und die Ergebnisse dennoch in bezug auf die Stabilität der ökonomischen Hypothesen fraglich sind, werden Zeitreihenanalysen bevorzugt. Dabei erfolgt die Modellierung allerdings quasi theorielos.

    Google Scholar 

  189. Vgl. hierzu und zum folgenden Oberman, R.. (Zinsrisikopotential, 1990), S. 46 ff.; Jorion, P. (Value at Risk, 1997), S. 230 f. und Hull, J. C. (Options, 1993), S. 329 ff. sowie Jamshidian, F./Zhu, Y. (Scenario Simulation, 1997), S. 43 ff. und J.P. Morgan/Reuters (Technical Document, 1996), S. 151 ff.

    Google Scholar 

  190. Soll auch das Vega-Risiko abgebildet werden, so ist das Verfahren so zu erweitern, daB die Simulation mit alternativen Werten der Volatilität wiederholt wird. Um Rechenzeit und Kosten zu sparen, werden die erforderlichen alternativen Werte für die Volatilität meist normativ vorgegeben, analog zur Szenario-Matrix-Methode und der Spot-Volatility-Matrix.

    Google Scholar 

  191. Grundsätzlich bestehen auch hier drei Alternativen: vollständige Neubewertung (full valuation), lineare Approximation erster Ordnung und nichtlineare Approximation höherer Ordnung. Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 155. Die Monte-Carlo-Simulation wird aber i. a. mit vollständiger Neubewertung in Verbindung gebracht.

    Google Scholar 

  192. Vgl. Jorion, P. (Value at Risk, 1997), S. 239. I. d. R. geschieht diese Konvergenz mit JK, der Wurzel aus der Anzahl der Simulationsdurchläufe.

    Google Scholar 

  193. Vgl. Perridon, L./Steiner, M. (Finanzwirtschaft, 1995), S. 121.

    Google Scholar 

  194. Sollen bewußt Szenarios mit zufälligen Korrelationen generiert werden, so ist dies schwer zu implementieren, da die Generierung einzelner (Pseudo-)Zufallszahlen zwar mit der meisten Standardsoftware einigermaßen gelingt, wirklich unabhängige Ziehungen jedoch nur selten gewährleistet sind.

    Google Scholar 

  195. Zu Einzelheiten siehe Jorion, P. (Value at Risk, 1997), S. 242 ff. und J.P. Morgan/Reuters (Technical Document, 1996), S. 151 ff. und S. 253 ff. Es wird dabei i. d. R. auf die ->CholeskyFaktorisierung (siehe Anhang 11) zurückgegriffen. Die Notwendigkeit positiv definite Kovarianzmatrizen ist hier wiederum kritisch. Vgl. Alexander, C./Leigh, C. T. (Covariance Matrices, 1997), S. 52 ff. und S. 60 Endnote 4 und auch Krumnow, J. (Bankencontrolling, 1997), S. 306.

    Google Scholar 

  196. Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 159. Die realistische Modellierung der Risiken von Zinspositionen ist sehr komplex. Vorgeschlagen werden bspw. Verfahren der Principal Component Analysis. Siehe hierzu Frye, J. (Principals, 1996); und Rao, C. R. (Principal Component, 1996), S. 489–505

    Google Scholar 

  197. Vgl. J. P. Morgan (Technical Document, 1995), S. 15. Die Bezeichnung stammt von der Kombination von vollständiger Neubewertung mit der Monte-Carlo-Simulation und ist als deren Synonym gebräuchlich.

    Google Scholar 

  198. Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 10 und S. 40 ff.; s. a. Fußnote 501.

    Google Scholar 

  199. Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 15 ff. und Estrella, A. (Series Approximations, 1995), S. 16. Allen schlägt ein ähnliches Modell im Rahmen der historischen Simulation vor. Siehe Allen, M. (Role Model, 1994), S. 78.

    Google Scholar 

  200. Vgl. hierzu und zum folgenden Jorion, P. (Value at Risk, 1997), S. 199 ff. und S. 231 ff.

    Google Scholar 

  201. Wird dagegen aus Gründen der Dimensionalität auf lineare (Delta-) Approximation oder Approximation höherer Ordnung zurückgegriffen (Delta-Gamma-/Theta-/Approximation), sind alle in Kapitel 3.2.3.3 genannten Kritikpunkte anzubringen. Vgl. zu den Approximationen J.P. Morgan/Reuters (Technical Document, 1996), S. 156 f. Pritsker kommt zu dem Ergebnis, daß eine Kombination von Delta-Gamma-Approximation und Monte-Carlo-Simulation im Hinblick auf Rechengenauigkeit und Geschwindigkeit allen anderen Varianten überlegen ist. Vgl. Pritsker, M. (Value at Risk Methodologies, 1996), S. 3 f. und S. 39 ff.

    Google Scholar 

  202. Vgl. hierzu und zum folgenden Oberman, R. (Zinsrisikopotential, 1990), insbes. S. 50 ff und S. 112 ff.; ders. (Risk-Management, 1991), S. 53 ff.; ders. (Zinsrisikopotential, 1992), S. 564 ff. Oberman schlägt im übrigen bereits die Übertragung des Konzeptes auf Devisenpositionen und die Betrachtung auf aggregierter Ebene vor.

    Google Scholar 

  203. Modifiziert nach Oberman, R. (Risk-Management, 1991), S. 55, Abb. 7, Simulation des 3-Monats-und des 10-Jahres-Zinssatzes (Basis: US-amerikanische Zinssätze Oktober 1980).

    Google Scholar 

  204. Siehe grundlegend auch Taylor, S. J. (Modelling, 1986), S. 16 ff. und Tschemig, M. (Zinsswaps, 1996), S. 80 ff.

    Google Scholar 

  205. Siehe Hull, J. C. (Options, 1993), S. 383 ff. m. w. N. Die Ansätze unterscheiden sich grundlegend. Stark verkürzt ausgedrückt modelliert ein Weg die stochastische Entwicklung der Zinsstrukturkurve unmittelbar. Dabei werden nur wenige Parameter benötigt, die Ergebnisse können aber ökonomisch unplausibel werden (negative Zinssätze, konstante Volatilität, schlechte Abbildung der geg. Zinsstruktur. Der andere Weg bildet die aktuelle Zinsstrukturkurve exakt ab (bspw. Ho/Lee) und modelliert die dynamische Entwicklung des kurzfristigen Zinssatzes; dabei wird bspw. eine Inversion der Zinsstrukturkurve durchgespielt (Hull/White). Oder die Volatilitätsstruktur, d. h. die Volatilitäten sämtlicher zukünftiger Zinssätze, werden modelliert (Heath/Jarrow/Morton). Ein-Faktor-Modelle beziehen sich meist auf den kurzfristigen Zinssatz als einzige Variable, Zwei-Faktor-Modelle auch auf einen langfristigen Zinssatz, dem u. U. völlig anderes Verhalten unterstellt wird.

    Google Scholar 

  206. Häufig besteht ein Trade-off zwischen Rechenaufwand, Modellrestriktionen und Realitätsgerechtigkeit, z. B. in bezug auf die Unmöglichkeit negativer Zinssätze. Pfadabhängige Modelle benötigen ggf. umfangreiche Historien; pfadunabhängige Modelle haben oft den Nachteil, nicht alle Eventualitäten abzubilden. Beispiele vergleichender empirischer Studien sind: Chan, K. C. et al. (Alternative Models, 1992), S. 1209–1227 und Bühler, W. et al. (Interest Rate Options, 1995), S. 1 ff. Bühler et al. bevorzugen im Ergebnis das Zwei-Faktor-Heath-Jarrow-Morton-Modell. Chan et al. zeigen, daß bedingte Volatilitätsmodelle, die starke Abhängigkeit der Volatilität vom Zinsniveau berücksichtigen, die besten Resultate erzielen. Einfache Modelle bewähren sich dagegen eher schlecht. Die Abhängigkeit der Volatilität kurzfristiger Zinssätze vom Zinsniveau erscheint kompatibel mit der Zinsstrukturtheorie, speziell der Normalintervalltheorie von Malkiel und dem Modell mit extrapolativer und regressiver Erwartungsbildung von Modigliani/Such. Vgl. Faßbender, H. (Fristigkeitsstruktur, 1973), S. 55 ff. m. w. N., grundlegend auch Filc, W. (Kapitalmarktzins, 1992), S. 114 ff. sowie Tschemig, M. (Zinsswaps, 1996), S. 141 ff.

    Google Scholar 

  207. Stellvertretend für viele: Dyer, L. J./Jacob, D. P. (Fixed Income Option Models, 1991), S. 742–773; Uhrig, M. (Zinsoptionen, 1996), S. 15 ff. und dies. (Zinsoptionen, 1997), S. 285–309; Dewachter, H. (Interest Rate Volatility, 1996), insbes. S. 241 und Sandmann, K./Schlögl. E. (Zustandspreise, 1996), S. 813–836 sowie Tschemig, M. (Zinsswaps, 1996), S. 175 ff. 175 ff. m. w. N.

    Google Scholar 

  208. Siehe Chen, L. (Interest Rate Dynamics, 1996), S. 1 ff.

    Google Scholar 

  209. Vgl. auch Müller, B. (Portfoliomanagement, 1996), S. 269 f. und Wilkens, M. (Schätzung 1994), S. 9 ff.

    Google Scholar 

  210. Siehe Cox, J. C./Rubinstein, M. (Options Markets, 1985), S. 360 ff. m. w. N.

    Google Scholar 

  211. Beder, T. S. (VAR, 1995), S. 23.

    Google Scholar 

  212. Quellen zu Tab. 3.4–1: Vgl. stellvertretend für viele: Leong, K. (Approach, 1996), S. 11; Jorion, Ph. (Value at Risk, 1997), S. 202; Linsmeier, Th. J./Pearson, N. D. (Risk Measurement, 1996), S. 7 ff.; Smithson, Ch./Minton, L. (Value-at-Risk, 1996), S. 27; Wilson, Th. C. (Risk Capital, 1996), S. 213; Becker, G. M. (Risikocontrolling, 1997), S. 54.

    Google Scholar 

  213. Quellen zu Tab. 3.4–2: Beder, T. S. (VAR, 1995), S. 12 ff.; Pritsker, M. (Value at Risk Methodologies, 1995), ders. (Value at Risk Methodologies, 1996), Mahoney, J. M. (Value-at-Risk, 1995), Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), Hendricks, D. (Evaluation, 1996), Fallon, W. (Value-at-Risk, 1996), Johanning, L. (Interne Modelle, 1996), Dimson, E./Marsh, P. (Stress Tests, 1996), Bühler, W. et al. (Eigenkapitalanforderungen, 1997), Scheuenstuhl, G./Staas, C. (Aggregate Approach, 1997), Lucas, A./Klaassen, P. (Fat Tails, 1997), Brandt, Ch. et al. (Value-at-Risk, 1997).

    Google Scholar 

  214. Eine entsprechende Studie der Bankenaufsicht wurde im Herbst 1996 durchgeführt.

    Google Scholar 

  215. Vgl. BAK (Jahresbericht 1996, 1997), S. 11 f. Vgl. auch Beder, T. S. (VAR, 1995), S. 12 ff. und Pritsker, M. (Value at Risk Methodologies, 1996), S. 1 f.

    Google Scholar 

Download references

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 1999 Springer Fachmedien Wiesbaden

About this chapter

Cite this chapter

Meyer, C. (1999). Systematisierung und Vergleich verschiedener Value-at-Risk-Ansätze. In: Value at Risk für Kreditinstitute. Bank- und Finanzwirtschaft. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-08173-9_3

Download citation

  • DOI: https://doi.org/10.1007/978-3-663-08173-9_3

  • Publisher Name: Deutscher Universitätsverlag, Wiesbaden

  • Print ISBN: 978-3-8244-6763-1

  • Online ISBN: 978-3-663-08173-9

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics