Skip to main content

Eignung des Value at Risk zur Risikoquantifizierung auf Gesamtbankebene

  • Chapter
Value at Risk für Kreditinstitute

Part of the book series: Bank- und Finanzwirtschaft ((BAFI))

  • 367 Accesses

Zusammenfassung

Basis jeder Ermittlung der Wertveränderung aufgrund geänderter Marktbedingungen ist zunächst die Bewertung der bestehenden Positionen. Für die Bewertung des Exposure können im einfachsten Fall beobachtete Marktpreise verwendet werden (Marking to Market).834 Sofern zur Bewertung statt des Marktpreises der theoretische, rechnerisch ermittelte Preis verwendet wird oder aufgrund fehlender Marktpreise herangezogen werden muß (Marking to Model), ist die genaue Bewertungsmethode festzulegen.835 Als State of the Art für die Present-Value-Berechnung gilt die Verwendung von arbitragefreien, zinstrukturkongruenten Zerobondabzinsungsfaktoren. Diese gestatten die finanzmathematisch korrekte Bewertung nach der Barwertmethode unter Berücksichtigung der Zinsstrukturkurve.836 Es ist unabhängig von der gewählten Methode von essentieller Bedeutung für die konsistente Aggregierbarkeit der verschiedenen Positionen und Risiken, daß die Positionsbewertung methodisch einheitlich erfolgt.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 49.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 74.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Zu Fragen des Marking to Market bzw. Marking to Model siehe stellvertretend für viele Global Derivatives Study Group (Derivatives, 1993), S. 9 ff. und ebd. Appendix I, S. 6 f.; Rudolph, B. (Risikomanagement, 1993), S. 123 ff.; Hagen, P./Jacobs, W. (Marktrisikosteuerung, 1996), S. 640 ff.; Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 99 ff. sowie auch Krumnow, J. (Implikationen, 1994), S. 744 ff.

    Google Scholar 

  2. Vgl. hierzu Doerks, W. (Zinsstrukturkurven, 1991), S. 275–280; Loistl, O. (Wertpapiermanagement, 1996), S. 247 ff. und Uhlir, H./Steiner, P. (Wertpapieranalyse, 1994), S. 7 f. und S. 19 f. sowie Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 228–240. Siehe auch Schierenbeck, H./Wiedemann, A. (Marktwertrechnungen, 1996), S. 1–9.

    Google Scholar 

  3. Das Barwertkonzept geht auf John Burr Williams (1938) zurück. Vgl. Williams, J. B. (Investment Value, 1938/1964), S. 5 ff.

    Google Scholar 

  4. Hierzu liegt umfangreiche Literatur vor, die meist im Kontext der Marktzinsmethode (Margenkalkulation) oder der Ermittlung des Treasury-Erfolges steht. Siehe stellvertretend für viele: Marusev, A. W./Siewert K-J. (Bonus-/Malus-System, 1990), S. 217 ff.; Benke, H. (Effektivzins, 1991), S. 98 ff.; Knippschild, M. (Zins-und Währungsswaps, 1991), S. 124 ff.; Benke, H./Gebauer, B./Piaskowski, F. (Barwertkonzept I, 1991), S. 457 ff.; dies. (Barwertkonzept H, 1991), S. 514 ff.; Jacob, H.-R./Villiez v. Chr./Westphal E.-G. (Datenbasis, 1991), S. 625 ff.; Rolfes, B./Schierenbeck, H. (Marktwert, 1992), S. 403 ff.; Piaskowski, F. (Treasury, 1993), S. 290 ff.; Brammertz, W./Jäk, A. (Barwert, 1993), Akmann, M./Benke, H. (Gesamtrisikokonzept, 1993), S. 76 ff.; Schierenbeck, H./Wiedemann, A. (Treasury-Konzept, 1993), S. 670 ff.; dies. (Messung, 1993), S. 731 ff.; dies. (Treasury-Konzept, 1994), S. 285 ff.; Flesch, J. R. et al. (Barwertkonzept, 1994), S. 267 ff.; Flesch, J. R./Lichtenberg, M. (Integration, 1994), S. 39 ff.; Marusev, A. W. (Barwertkonzept, 1994), S. 81 ff.; Rolfes, B./Hassels, M. (Barwertkonzept, 1994), S. 337 ff.; Flesch, J. R./Gerdsmeier, St. (Barwertsteuerung, 1995), S. 111 ff.; Benke, H. et al. (Barwertkonzept, 1995), S. 119 ff.; Hartschuh, Th. (Preisrisiko-management, 1996), S. 873 ff.; Hartschuh, Th. (Preisrisiken, 1996), hier S. 41 ff. und S. 98 ff. Eine ausführliche Anleitung bieten bspw. Schierenbeck, H./Wiedemann, A. (Marktwertrechnungen, 1996), hier S. 1 ff. und S. 155 ff.

    Google Scholar 

  5. Das Grundprinzip der Erfassung und Synchronisation von Zahlungsströmen bei der Kalkulation von Einzelgeschäften hat (im deutschsprachigen Raum) Marusev eingeführt: Marusev, A. W. (Einzelgeschäftskalkulation, 1990), S. 15 ff. Insbesondere Hartschuh adressiert die hier relevanten Probleme der Analyse von Preisrisiken auf Gesamtbankebene, siehe Hartschuh, Th. (Preisrisiken, 1996), S. 98 ff. und S. 155 ff.

    Google Scholar 

  6. Der Marktwert von Zinspositionen läßt sich rechnerisch über eine Kombination alternativer, auf der Basis des aktuellen Zinsniveaus abzuschließender Geld-und Kapitalmarktgeschäfte ermitteln, die zu einer exakten Nachbildung der Zahlungsströme der betrachteten Positionen mit umgekehrtem Vorzeichen führen. Vgl. Akmann, M./Benke, H. (Gesamtrisikokonzept, 1993), S. 68 f.

    Google Scholar 

  7. Vgl. hierzu und zum folgenden Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 273 ff. Oberman, R. (Risk-Management, 1991), S. 46 ff.

    Google Scholar 

  8. Der dritte mögliche Ansatz, der auf Nominalbeträgen basiert (principal mapping), kommt im Kontext des Value at Risk nicht in Frage. Hier wird die durchschnittliche Fälligkeit der Zinspositionen herangezogen, was zur erheblichen Verzerrung der Risiken fahrt. Vgl. J.P. Morgan/ Reuters (Technical Document, 1996), S. 107 f. und Jorion, P. (Value at Risk, 1997), S. 211 ff.

    Google Scholar 

  9. Vgl. hierzu und zum folgenden Groß, H./Knippschild, M. (Risikocontrolling, 1995), S. 88 ff.

    Google Scholar 

  10. Vgl. Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 273 ff.

    Google Scholar 

  11. Dies wird in ähnlicher Form bei der Kapitaladäquanzrichtlinie praktiziert. Volatilitäten und Korrelationen können aufgrund der möglichen Vielfalt der Zahlungs-/ Duration-Zeitpunkte nicht für jede einzelne Zinsposition ermittelt werden, sondern es wird auf diejenigen ausgewählter Zerobonds zurückgegriffen. Die gewünschten Renditevolatiltitäten müßten durch Interpolation ermittelt werden oder es erfolgt ein Duration-Mapping, d. h. eine durationäquivalente Interpolation und die Aufspaltung der Positionsduration in zwei Durationen von Positionen mit bekannten Volatilitäten und Korrelationen (siehe Anhang 12–1).

    Google Scholar 

  12. Vgl. hierzu und zum folgenden J.P. Morgan/Reuters (Technical Document, 1996), S. 9 ff. und S. 107 ff. Die Risikoerfassung wird für jedes Instrument, nicht nur für Zinspositionen, auf der Grundlage der Cash-flows vorgenommen. Die Ermittlung der Cash-flows erfordert eine Dekomposition zusammengesetzter Instrumente und bzw. ihre Replikation durch einfache Instrumente mit deterministischen Cash-flows. Dem RiskMetrics’ Handbuch ist eine kurze Anleitung zur Replikation folgender Instrumente zu entnehmen: Festverzinsliche Wertpapiere, Floater, Zinsswaps, Forward Rate Agreements, Spot-und Forward-Fremdwährungspositionen, Währungsswaps, Aktien, Commodities, Commodity-Futures und -Swaps; siehe J.P. Morgan/ Reuters (Technical Document, 1996), S. 109–117. Vgl. auch Eller, R./Spindler, Ch. (Zins-und Währungsrisiken, 1994), S. 31 ff.

    Google Scholar 

  13. In Anlehnung an Schierenbeck, H./Wiedemann, A. (Marktwertrechnungen, 1996), S. 157. Zu ähnlichen, detaillierten Typologien siehe Breuer, R./Skaruppe, M. (Bankkalkulation I, 1993), S. 279 ff.

    Google Scholar 

  14. Es ist unerheblich, ob die Cash-flows vor Diskontierung oder ihre Barwerte aufgeteilt werden, da das Verfahren den Erhalt des Barwertes gewährleisten muß. Im allgemeinen wird zwar von Cash-flow-Mapping gesprochen, aber bereits mit diskontierten Werten gerechnet.

    Google Scholar 

  15. Vgl. hierzu und zum folgenden J.P. Morgan/Reuters (Technical Document, 1996), S. 9 ff. und ausführlich S. 117 ff.

    Google Scholar 

  16. Die Stützpunkte verändern sich im Zeitablauf nicht, d. h. es werden Volatilitäts- und Korrelationsdaten für fiktive, synthetische Zerobonds berechnet, die exakt die gewünschte Restlaufzeit haben.

    Google Scholar 

  17. Würden für jeden individuellen Fälligkeitstag bis zu dreißig Jahren, das Jahr zu 365 Tagen, die Volatilitäten und Korrelationen errechnet, so ergeben sich bei 10.950 Tagen nach N(N-1)/2 bereits 59.945.775 Werte - und dies bereits für nur eine Währung.

    Google Scholar 

  18. Modifiziert nach J.P. Morgan/Reuters (Technical Document, 1996), S. 118; Bode, M./Mohr, M. (Value-at-Risk, 1996), S. 474; Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 275.

    Google Scholar 

  19. Vgl. Jansen, S./Wittrock, C. (Risikomanagement, 1996), S. 630 f.

    Google Scholar 

  20. Vgl. zum Verfahren im einzelnen Jorion, P. (Value at Risk, 1997), S. 215 f. Kritisch Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 276 f.

    Google Scholar 

  21. Das durationäquivalente Verfahren ist nur unter den Bedingungen exakt, d. h. risikoäquivalent, daß der Korrelationskoeffizient eins ist und die Volatiltität an jedem Stützpunkt proportional zur jeweiligen Duration ist. Siehe zum Beweis Jorion, P. (Value at Risk, 1997), S. 216.

    Google Scholar 

  22. Eine ausführliche Darstellung würde hier den Rahmen sprengen. Das Verfahren ist genau dokumentiert und veranschaulicht bei J.P. Morgan/Reuters (Technical Document, 1996), S. 118 ff.; Jorion, P. (Value at Risk, 1997), S. 215 ff. und Bode, M./Mohr, M. (Value-at-Risk, 1996), S. 470 ff. sowie Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 275 ff.

    Google Scholar 

  23. Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 119 ff. und Jansen, S./Wittrock, C. (Risikomanagement, 1996), S. 629 ff.

    Google Scholar 

  24. Alternativ kann zur Ermittlung des diversifizierten Portfolio-Value-at-Risk natürlich direkt auf die Cash-flow-Barwerte, die Kursvolatilitäten und Korrelationen der Spot-Rates der Stützpunkte zurückgegriffen werden. Dann wird der Diversifikationseffekt allerdings nicht offengelegt.

    Google Scholar 

  25. Vgl. Lütkepohl, H. (Zeitreihen, 1986), S. 62 ff.

    Google Scholar 

  26. Es wurde gezeigt, daB eine isolierte Betrachtung von Einzelpositionen nicht zulässig ist. Vielmehr kommt es darauf an, welchen Beitrag eine Einzelposition zu Ertrag und Risiko des Gesamtportfolios leistet. Vgl. Franke, G./Hax, H. (Finanzwirtschaft, 1994), S. 265.

    Google Scholar 

  27. Eine erwähnenswerte Definition eines hochkorrelierten Zusammenhangs findet sich für aufsichtsrechtliche Zwecke in der Kapitaladäquanzrichtline. Auch in der Kapitaladäquanzrichtlinie ist bei der Ermittlung des Fremdwährungsrisikos die Berücksichtigung der Korrelationen zwischen den Währungen vorgesehen; es ist sogar eine Sonderbehandlung hochkorrelierter Währungen innerhalb der relativ einfachen Standardmethode möglich, die bei statistisch nachgewiesener (hoher) Korrelation des Währungskurse - vorbehaltlich der Zustimmung der Aufsichtsbehörden - zulässig ist. Der Nachweis einer engen Verbundenheit bzw. hohen Korrelation zweier Währungen gilt als erbracht, wenn der Verlust einer geschlossenen Position unter Zugrundelegung täglicher Währungskurse für eine Haltedauer von zehn Arbeitstagen bei einer Beobachtungsperiode von fünf Jahren mit einer Wahrscheinlichkeit von 95 Prozent oder bei einer Beobachtungsperiode von drei Jahren mit 99 Prozent Wahrscheinlichkeit maximal vier Prozent der betreffenden ausgeglichenen Position (ausgedrückt in der Währung der Rechnungslegung des Kreditinstituts) beträgt. Diese Regelung kann als Orientierungshilfe dienen, ist aber sehr pauschal. Vgl. Schulte-Mattler, H./Traber, U. (Quantifizierung, 1995), S. 627 und S. 632, FN 8, sowie Kapitaladäquanzrichtlinie, Anhang III, Nr. 6. Der Nachweis entspricht der Berechnung des Value at Risk in Form der Benchmarkmethode, bei der Verluste offener Positionen für eine Haltedauer von zehn Arbeitstagen unter Zugrundelegung eines historischen Beobachtungszeitraumes zur Ermittlung der Volatilitäten und Korrelationen der täglichen Wechelkursveränderungen von drei oder fünf Jahren mit einem Konfidenzniveau von 99 Prozent (drei Jahre) oder 95 Prozent (fünf Jahre) ermittelt wird. Vgl. SchulteMattler, H./Traber, U. (Quantifizierung, 1995), S. 627 f. sowie Kapitaladäquanzrichtlinie, Anhang III, Nr. 7.

    Google Scholar 

  28. Vgl. Alexander, C. (Forecasting, 1996), S. 233 f.

    Google Scholar 

  29. Zu Prüf-und Testverfahren und Vertrauensbereichen des Korrelationskoeffizienten siehe Sachs, L. (Statistik, 1992), S. 535 ff.

    Google Scholar 

  30. In Kapitel 4.6–2 wird auf robuste Schätzverfahren eingegangen. Durch die Elimination von Ausreißern kann auch eine robuste Schätzung der Korrelationen erzielt werden. Mit Hilfe anderer spezifischer Schätzverfahren, speziell der Kointegration, kann versucht werden, auch die Nichtstationarität in den Griff zu bekommen. Zu Verfahren der Korrelationsschätzung siehe Alexander, C. (Forecasting, 1996), S. 234 ff. und Engle, R. F./Granger, C. W. J. (Co-Integration, 1987), S. 251–276.

    Google Scholar 

  31. Vgl. hierzu und zum folgenden Sachs, L. (Statistik, 1992), S. 508 f. und Hartung, J. et al. (Statistik, 1995), S. 77.

    Google Scholar 

  32. Klassische Beispiele sind die Zunahme der Störche und der Zahl der Neugeborenen, der Zusammenhang zwischen der Dosis eines Medikamentes und der Letalität Todkranker usw.

    Google Scholar 

  33. Beispielsweise gibt es Theorien über den Zusammenhang von Zinssätzen und Wechselkursen (Zinsparitätentheorie), die Reaktion von Aktienkursen auf Zinsänderungen (Fundamentalanalyse) usw. Siehe hierzu auch Bösl, K. (Risikobegrenzung, 1993), S. 67 ff.

    Google Scholar 

  34. Vgl. hierzu und zum folgenden Bösl, K. (Risikobegrenzung, 1993), S. 53 m. w. N. und S. 64 ff.

    Google Scholar 

  35. Nach Bösl, K. (Risikobegrenzung, 1993), S. 66, Abb. 6 m. w. N.

    Google Scholar 

  36. Vgl. Bösl, K. (Risikobegrenzung, 1993), S. 56 ff. m. w. N. Mit Hilfe der Korrelationen werden ohnehin nur paarweise Zusammenhänge aufgezeigt. Häufig liegen aber nicht eindeutige Kausalbeziehungen und Abhängigkeiten i. S. einer Ursache-Wirkungs-Beziehung vor. Denkbar sind vielmehr komplexe Ursache-Wirkungs-Ketten, oftmals liegen sogar Wirkungsnetze vor, so daß ein Effekt stets auf mehrere verursachende Faktoren zurückzuführen ist.

    Google Scholar 

  37. Vgl. Bösl, K. (Risikobegrenzung, 1993), S. 66 f.

    Google Scholar 

  38. Vgl. hierzu und zum folgenden Alexander, C. (Correlation, 1994), S. 59 ff.

    Google Scholar 

  39. Vgl. Elton, E. J./Gruber, M. J. (Dependence Structure, 1973), S. 1203 ff.; Elton, E. J. et al. (Betas, 1978), S. 1375 ff. und Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), S. 168 ff. Verschiedene Varianten der Durchschnittsbildung wurden konstruiert und untersucht. Bspw. greift das sog. overall mean model auf Durchschnitte der paarweisen Korrelationskoeffizienten als Prediktoren der zukünftigen Korrelationskoeffizienten zurück. Alternativ wurden lediglich Korrelationen von Single-und Multi-Index-Modellen, also bspw. Korrelationen zwischen Risikofaktoren, hier sektoralen Indizes, herangezogen. Teilweise wurden die Korrelationen innerhalb der Risikofaktoren/Sektoren und zwischen den Risikofaktoren/Sektoren geglättet. Elton/Gruber referieren Tests, bei denen sich das overall mean model im Vergleich zum SingleIndex-Modell, Multi-Index-Modell und der historischen Korrelationsmatrix als überlegen erwies. Die Durchschnittsbildung auf der Basis von Risikofaktoren (sektoralen Indizes) zeigte sich zwar als Verbesserung, im Vergleich zur ersten Verfahrensweise, der Verwendung eines Gesamtdurchschnittes war der Genauigkeitsgewinn allerdings geringer.

    Google Scholar 

  40. Vgl. Elton, E. J./Gruber, M. J. (Dependence Structure, 1973), S. 1213.

    Google Scholar 

  41. Vgl. hierzu und zum folgenden auch Merbecks, A. (Organisation, 1996), S. 141 ff.

    Google Scholar 

  42. Diese konservative Vorgehensweise wurde ursprünglich von der Bankenaufsicht gefordert, später nach kontroversen Diskussionen aber verworfen.

    Google Scholar 

  43. Vgl. auch Bösl, K. (Risikobegrenzung, 1993), S. 62 f.

    Google Scholar 

  44. Vgl. auch Merbecks, A. (Organisation, 1996), S. 148.

    Google Scholar 

  45. Vgl. Global Derivatives Study Group (Derivatives, 1993), S. 10 und Appendix I, S. 8.

    Google Scholar 

  46. Vgl. hierzu und zum folgenden Chew, L. (Shock Treatment, 1994), S. 63 ff. und Diebold, F. X. et al. (Converting, 1997), S. 1 ff. Bspw. Bankers Trust RAROC 2020TM hat einen jährlichen Zeitbezug. Vgl. Chew, L. (Shock Treatment, 1994), S. 69.

    Google Scholar 

  47. Vgl. hierzu Lütkepohl, H. (Zeitreihen, 1986), S. 62 und S. 137. Dieser bietet eine detaillierte, statistisch fundierte Abhandlung der Aggregation, linearen Transformation und Prognose multivariater Zeitreihen (Vektor-ARMA-Prozessen).

    Google Scholar 

  48. Vgl. Kupiec, P. H./O“Brien, J. M. (Market Risks, 1995), S. 20 und dies. (Internal Affairs, 1995), S. 43 sowie auch Ungern-Sternberg, A. v. (Entmystifizierung, 1994), S. 4.

    Google Scholar 

  49. Vgl. hierzu und zum folgenden Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), S. 6 ff. und dies. (Internal Affairs, 1995), S. 43 f.

    Google Scholar 

  50. Vgl. Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), S. 5 f. und dies. (Internal Affairs, 1995), S. 44.

    Google Scholar 

  51. Der Zeitfaktor wird gekürzt, die Konstanz ergibt sich aus der angenommenen Gleichsetzung der Standardabweichungen und Kovarianzen unterschiedlicher Periodizität. Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 84 f. Siehe auch Anhang 5.

    Google Scholar 

  52. Dabei entsteht das Problem nicht überlappender Samples und einer entsprechend umfangreichen Datenbasis, wenn verläßliche Schätzungen erzielt werden sollen.

    Google Scholar 

  53. Vgl. auch Hendricks, D. (Evaluation, 1995), S. 4 f. und Chew, L. (Derivative Risks, 1996), S. 204 ff. Zu Grundlagen siehe J. P. Morgan (Technical Document, 1996), S. 55 ff. und S. 84 ff. sowie Lütkepohl, H. (Zeitreihen, 1986), S. 13 ff. und Figlewski, St. (Volatility, 1996), S. 5 ff.

    Google Scholar 

  54. Siehe hierzu J.P. Morgan/Reuters (Technical Document, 1996), S. 45 ff.; S. 55 ff. und S. 84 ff. Aus Sicht der Zeitreihenanalyse führt dies wieder zur Streitfrage, ob die Varianz endlich ist und ob sie zu einem bestimmten Grenzwert konvergiert (Mean Reversion). Siehe hierzu Geyer, A. (Information, 1992), S. 127 ff.; insbes. S. 165 f.

    Google Scholar 

  55. Die Skalierung mit der Quadratwurzel der Zeit ist die übliche, aber nicht die einzige Möglichkeit Volatilitäten für längere Zeithorizonte zu ermitteln. Drost und Nijman entwickeln eine Formel, mit der GARCH-Volatilitäten skaliert werden können. Siehe Drost, F. C./Nijman, T. E. (Temporal Aggregation, 1993), S. 909 ff. Ein Beispiel zeigen Diebold, F. X. et al. (Converting, 1997), S. 3 ff. Allerdings wird hier eine Modellannahme (Normalverteilung) durch eine andere (GARCH) ersetzt, so daß keine allgemeine analytische Formel für die Skalierung existiert, sofern die kurzfristigen Volatilitäten keinem Modell dieser Klassen folgen. Wurde der GARCHProzess nicht realitätsgerecht spezifiziert oder ist die Parameterschätzung mangelhaft, so kann auch eine modifizierte Skalierung nicht zu sinnvollen Ergebnissen führen. Die einzig sinnvolle Lösung ist somit die direkte Schätzung der Volatilitäten für den gewünschten Zeithorizont. Vgl. Diebold, F. X. et al. (Converting, 1997), S. 3 ff.

    Google Scholar 

  56. Damit die gemeinsame Renditeverteilung aller Risikofaktoren bzw. Positionen auch bei einem längeren Zeithorizont eine Normalverteilung ist, müssen die Renditen jeweils identisch, stochastisch unabhängig und stationär normalverteilt sein. Die Renditeverteilung und somit die Erwartungswerte, Standardabweichungen und Korrelationen ändern sich dann im Zeitablauf nicht.

    Google Scholar 

  57. Der Schätzfehler der eintägigen Volatilitäten wird bei der Skalierung zwangsläufig weiter vergrößert. Dennoch könnte die Skalierung im Durchschnitt zu korrekten Volatilitätsschätzungen führen. Allerdings wurde beobachtet, daß die Volatilität der Renditen längerer Zeithorizonte eher abnimmt, was im Widerspruch zur Skalierung steht.

    Google Scholar 

  58. Vgl. Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), S. 7 f.

    Google Scholar 

  59. Die genannten Kritikpunkte sind nicht bei allen Verfahren zutreffend. Bspw. kann bei der historischen Simulation die Wertveränderung über jeden beliebigen Zeithorizont ex post exakt ermittelt werden, was ggf. aber die Verfügbarkeit extrem langer Zeitreihen voraussetzt. Als einfacher Ausweg wurde bereits die unmittelbare Volatilitätsschätzung für den gewünschten Zeitraum genannt: Werden t-Tages-Volatilitäten benötigt, sollten auch t-Tages-Renditen herangezogen werden! Die Abhängigkeit der Volatilität von der Periodizität ist nur so zu erfassen.

    Google Scholar 

  60. Die Skalierung der Volatilität ist immer dann problematisch, wenn den potentiellen Wertänderungen Grenzen gesetzt sind, wie das bspw. bei Optionspositionen der Fall ist, aber auch bei Devisenkursen mit festen Bandbreiten (etwa beim EWS).

    Google Scholar 

  61. Vgl. Chew, L. (Shock Treatment, 1994), S. 65 f. und Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), S. 8 ff.

    Google Scholar 

  62. Vgl. hierzu und zum folgenden BIZ (Offenlegung, 1994), S. 25 f.; BIS (Public Disclosure, 1994), S. 15 und BIZ (Eigenkapitalvereinbarung, 1996), Nr. B.4c) und B.4h), S. 45 f. sowie Chew, L. (Derivative Risks, 1996), S. 205 f.

    Google Scholar 

  63. BIS (Public Disclosure, 1994), S. 15.

    Google Scholar 

  64. Eine detailliertere Betrachtung findet sich bei Kupiec, P. H./O“Brien, J. M. (Trading Risk Models, 1995), S. 8 ff.

    Google Scholar 

  65. Vgl. hierzu Chew, L. (Shock Treatment, 1994), S. 63 ff. und Chew, L. (Derivative Risks, 1996), S. 206.

    Google Scholar 

  66. Ein sehr langer Zeithorizont, bspw. ein Jahr, kann aber in Verbindung mit einem hohen Konfidenzniveau, bspw. 99%, zu sehr hohen Value-at-Risk-Beträgen führen, so daß ein gutes „Polster“ für unzureichend erfaßte Nichtlinearitäten (und auch breite Enden und Korrelationsschwankungen) besteht. Dies wird bspw. von Bankers Trust so gehandhabt. Vgl. Chew, L. (Shock Treatment, 1994), S. 64 und S. 69.

    Google Scholar 

  67. BIZ (Eigenkapitalvereinbarung, 1996), Nr. B.4c) und B.4h), S. 45 f.

    Google Scholar 

  68. Ein anderer Ansatz ist die Szenario-Matrix-Methode, bei der auch Risiken geringer Marktbewegungen erfaßt werden sollen. Siehe hierzu bspw. Schulte-Mattler, H. (Szenario-MatrixVerfahren, 1996), S. 758 ff.

    Google Scholar 

  69. Eine vertiefte Betrachtung findet sich bspw. bei Schaefer, S. M./Schwartz, E. S. (Time-Dependent Variance, 1987), S. 1113–1128. Diese schlagen ein einfaches Optionspreismodell vor, unter der Prämisse, daß die Standardabweichung der Rendite einer der Option zugrunde-liegenden Zinsposition proportional zu deren Duration ist. Dadurch kann vergleichsweise einfach der Tatsache Rechnung getragen werden, daß sich die charakteristischen Merkmale der Zinsposition und somit ihre Volatilität im Zeitablauf ändern.

    Google Scholar 

  70. Darüber hinaus sind in Folge des Pull-to-Par-Phänomens die Kursänderungen von Anleihen und anderen Zinspositionen (vor allem gegen Ende der Laufzeit) nicht unabhängig voneinander. Auch wird die Stabilität der Kovarianz-Matrix zu einem Problem. Siehe hierzu auch Brennan, M. J./Schwartz, E. S. (Duration, 1983), S. 3 ff.

    Google Scholar 

  71. Nach Hull, J. C. (Options, 1993), S. 380 m. w. N.

    Google Scholar 

  72. Erstellt mit der Börsensoftware Tai-Pan©, Lenz + Partner GmbH, Dortmund. Im oberen Fenster ist der Kursverlauf, im unteren der Verlauf der Volatilität als gleitender 250-Tage-Durchschnitt abgebildet. Von den Kennzahlen rechts oben sind hier nur die Laufzeit der Bundesobligation, deren Laufzeit am 21.07.1997 endete, und der letzte Wert der Volatilität (0,28%) relevant.

    Google Scholar 

  73. Vgl. Hendricks, D. (Evaluation, 1995), S. 3; Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), insbes. S. 6 ff. und Linsmeier, Th. J./Pearson, N. D. (Risk Measurement, 1996), S. 4 f.

    Google Scholar 

  74. Vgl. Smithson, Ch./Minton, L. (Debate, 1996), S. 39 sowie Global Derivatives Study Group (Derivatives, 1993), Appendix I, S 10.

    Google Scholar 

  75. Die Margins werden ähnlich dem Value at Risk auf der Basis der historischen Volatilitäten der Underlyings ermittelt. Die meisten Clearinghäuser verwenden dabei einen eintägigen, manche einen zweitägigen Zeithorizont. Siehe hierzu ausführlich Martin, J. (Managing risk, 1995), S. 64–74, hier S. 65.

    Google Scholar 

  76. Vgl. Global Derivatives Study Group (Derivatives, 1993), Appendix I, S. 10 und Smithson, Ch./Minton, L. (Debate, 1996), S. 39.

    Google Scholar 

  77. Vgl. Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), S. 11 f.; dies (Internal Affairs, 1995), S. 45 ff. und dies. (Market Risks, 1995), S. 21.

    Google Scholar 

  78. Die Gestaltung von Risikocontrolling und Risikomanagement wird bspw. in den Mindestanforderungen des Bundesaufsichtsamtes für das Kreditwesen detailliert geregelt. Siehe BAK (Mindestanforderungen, 1995) und o. V. (Mindestanforderungen, 1996), S. 55–64.

    Google Scholar 

  79. Die Skalierung der Risiken von täglich oder kurzfristig liquidierbaren und ständig überwachten Positionen auf einen längeren Zeithorizont ist - abgesehen von den dargelegten statistischen Problemen - nicht sinnvoll, da die Risiken ggf. stark überschätzt werden. Händler werden zu Recht gegen die Hochrechnung des Risikopotentials ihrer Handelspositionen auf zehn oder mehr Tage argumentieren, daß sie viele Positionen oftmals nicht einmal overnight halten, sondern bereits intraday glattstellen. Sofern es unwahrscheinlich ist, daß Positionen bzw. Portfolios ohne aktive Eingriffe unverändert über einen längeren Zeitraum bestehen bleiben, dürfte das Risiko überzeichnet werden. Bereits bei der Hochrechnung der Risiken einer AktienoptionsShort-Position auf eine zehntägige Haltedauer mit der Quadratwurzel der Zeit würde die Volatilität mehr als verdreifacht. Daraus resultieren sehr hohe potentielle Aktienkurssteigerungen und somit ein extrem hohes Risikopotential. Extreme Volatilitäts-und Preisänderungen zu analysieren, ist jedoch nur im Rahmen von Krisenszenarien und Stress-Tests sinnvoll. Die angemessene Fortschreibung der Risiken des Handels würde Modelle über das Verhalten des Handels erfordern, die eine sinnvolle Simulation des Handelsgeschehens erlauben. Entsprechende Modelle zu entwickeln, könnte die Aufgabe weiterer Forschung sein. Vgl. auch Diebold, F. X. et al. (Converting, 1997), S. 7 ff.

    Google Scholar 

  80. Siehe hierzu auch Chew, L. (Derivative Risks, 1996), S. 204 f.

    Google Scholar 

  81. Vgl auch Lawrence, C./Robinson, G./Stiles, M. (Liquidity, 1996), S. 24 und S. 26.

    Google Scholar 

  82. Vgl. hierzu Global Derivatives Study Group (Derivatives, 1993), Appendix I, S. 10.

    Google Scholar 

  83. Vgl. hierzu und zum folgenden Lawrence, C./Robinson, G./Stiles, M. (Liquidity, 1996), S. 24–30.

    Google Scholar 

  84. Eine per se täglich problemlos liquidierbare Hedge-Position bspw. im BUND-Future wird grundsätzlich im Rahmen der gewählten Strategie so lange gehalten werden, wie die Position, die sie absichern soll! Entsprechend kann auch hier eine isolierte Betrachtung irreführend sein.

    Google Scholar 

  85. Die Vorgabe dieser Klassen (bspw. 1, 2, 5, 10, 20, 90, 180, 250, >250 Tage) ist notwendigerweise willkürlich und im Hinblick auf die Geschäftsstruktur individuell festzulegen.

    Google Scholar 

  86. Bei der Berechnung sollte konsequenterweise auf eine Skalierung verzichtet und unmittelbar die Renditen des entsprechenden Zeithorizontes herangezogen werden. Dadurch wird auch partiell der Zeitinstabilität der Volatilitäten und Korrelationen Rechnung getragen.

    Google Scholar 

  87. Das vorgestellte Konzept lehnt sich in gewisser Weise an die Realisationstheorie (Shiftability Theory) nach Carl Knies (1879) bzw. H. G. Moulton (1918) an, da nur die Verluste quantifiziert werden, die bei einer ordnungsgemäßen Auflösung sämtlicher Positionen entsprechend ihrer Bindungsdauer anfallen. Siehe hierzu Erdland, A. (Abstimmung, 1981), S. 138 ff. und Süchting, J. (Bankmanagement, 1992), S. 330 m. w. N. Die genannten Theorien stellen Liquiditätstheorien dar und werden hier nur bemüht, um den Begriff Shiftability und den damit verbundenen Grundgedanken des going concern zu verdeutlichen.

    Google Scholar 

  88. Zwischen den geschätzten unrealisierten Verlusten und den tatsächlich resultierenden Verlusten bei einer Veränderung oder Glattstellung einer Position besteht ein wichtiger Unterschied

    Google Scholar 

  89. Dabei wird angenommen, daß sämtliche Positionen ordnungsgemäß entsprechend ihrer Bindungsdauer aufgelöst werden, ohne daß eine Reinvestition freiwerdender Mittel in risikotragende Positionen erfolgt, bzw. Risikodeckungspotentiale anderer Teilportfolios zum Verlustausgleich mobilisiert werden. Die Interdependenz der Teilportfolios und die Dynamik des Risikomanagementprozesses wird dabei i. a. nicht korrekt erfaßt.

    Google Scholar 

  90. Die Prognseglite der Kovarianz-Matrizen ist hier kein spezisches Problem und wird in Kapitel 5.2.3 behandelt.

    Google Scholar 

  91. Es gibt bei Portfolios und somit bei multivariaten Zeitreihen verschiedene Kombinationsmöglichkeiten, je nach dem, ob auf der disaggregierten oder aggregierten Ebene kontemporär oder temporär aggregiert wird. Die Prognosen fallen i. a. unterschiedlich aus, wenn zuerst die univariaten Zeitreihen temporär und dann kontemporär, oder zuerst kontemporär und dann temporär aggregiert werden. Siehe hierzu ausführlich Lütkepohl, H. (Zeitreihen, 1986), S. 137 ff.

    Google Scholar 

  92. Die unrealistischen Prämissen, die zu zeitinvarianten Kovarianzmatrizen führen (siehe Kapitel 5.2.1) werden hier eben nicht akzeptiert. Der Rückgriff auf die unmittelbare Berechnung der Varianzen und Kovarianzen des jeweils adäquaten Zeithorizonts liefert i. a. unterschiedliche Kovarianzmatrizen und erhöht somit den Rechenaufwand drastisch.

    Google Scholar 

  93. Die drei Grenzwerte -1, 0 und 1 sind offensichtlich sinnvoll. Die Wahl der Anzahl und des Betrags der Werte zwischen null und eins ist willkürlich. Prinzipiell kommt jeder Wert in Frage. Die Auswertung sollte aber überschaubar bleiben. Der Rechenaufwand auf Portfolioebene hält sich dabei in engen Grenzen, da die vorgegebenen Korrelationen lediglich auf der Basis des Value at Risk der bereits kontemporär aggregierten Teilportfolios berücksichtigt werden.

    Google Scholar 

  94. Vgl. hierzu und zum folgenden Moser, H./Quast, W. (Organisation, 1994), S. 674 ff.; Wittrock, C./Jansen, S. (Gesamtbankrisikosteuerung, 1996), S. 915 f.

    Google Scholar 

  95. Im Prinzip müßte die exakte Zusammensetzung von Baskets, Indizes oder Fonds analysiert werden, um entsprechende Anteile zu ermitteln. Häufig wird darauf verzichtet.

    Google Scholar 

  96. Siehe auch BAK (Mindestanforderungen, 1995), Ziff. 3.2, S. 6.

    Google Scholar 

  97. Grundlegend hierzu Chew, L. (Shock Treatment, 1994), S. 69 f.

    Google Scholar 

  98. Buschgen führte im Frühsommer 1995 eine Befragung rund dreißig großer und größerer Banken in Deutschland, Österreich und der Schweiz zum Risikomanagement im Geschäft mit Derivaten durch, die von ihm allerdings als nicht oder nur bedingt repräsentativ bewertet wird. Eine Mehrheit antwortenden Banken gab an, die Aggregation über die Risikoarten hinweg zum Gesamtrisiko der Bank zu versuchen, wenngleich die möglichst exakte Risikoaggregation als aktuelles und umstrittenes Problemfeld angesehen wurde. Allerdings halten längst nicht alle Befragten ein solches Unterfangen für möglich oder sinnvoll. Vgl. Buschgen, H. E. (Risikomanagement, 1996), S. 18–24.

    Google Scholar 

  99. Vgl. stellvertretend für viele Moser, H./Quast, W. (Organisation, 1994), S. 674 ff.

    Google Scholar 

  100. Modifiziert nach Moser, H./Quast, W. (Organisation, 1994), S. 677, Abb. 4.

    Google Scholar 

  101. Die sinnvolle Aggregation der Risiken für verschiedene Aktivitäten und Produkte setzt voraus, daß bei der Berechnung des Value at Risk konsistente Annahmen wie Zeithorizonte angewendet werden müssen. Allerdings gaben mit 49% nur etwa die Hälfte der 1994 von der G30 befragten Unternehmen an, ein einheitliches Konfidenzintervall und einen einheitlichen Zeithorizont bei der Berechnung des Marktrisikos für verschiedene Derivate-Portfolios zu verwenden, geplant wurde dies von weiteren 29%. Vgl. Group of Thirty (Derivatives, 1994), S. 28 i. V. m. S. iv.

    Google Scholar 

  102. Vgl. hierzu BIS (Public Disclosure, 1994), S. 7; siehe auch BIZ (Risikomanagement, 1994), S. 190 (III Nr. 3 Satz 2). Allerdings haben viele Unternehmen noch keine hochentwickelten Risikoinformationssysteme, die das Gesamtunternehmen abdecken. Diese sollten dann zunächst die Teile des Unternehmens bzw. die Portfolios einbeziehen, für die solche Systeme vorhanden sind. Vgl. hierzu BIS (Public Disclosure, 1994), S. 7.

    Google Scholar 

  103. In Anlehnung an BIS (Public Disclosure, 1994), S. 8, bzw. BIZ (Offenlegung, 1994), S. 16.

    Google Scholar 

  104. Gemeint sind hier insbesondere alle bilanzwirksamen und bilanzneutralen Geschäfte, die nicht Handelszwecken dienen, wobei alle Kundengeschäfte und die Transaktionen der Zentraldisposition (Treasury) eingeschlossen sind.

    Google Scholar 

  105. Problematisch ist hier der sehr unterschiedliche Bindungsgrad der Positionen. Die Unterstellung einer einheitlichen Liquidationsdauer der Positionen dürfte kaum den realen Gegebenheiten entsprechen. Eine Aggregation von Value-at-Risk-Werten, die mit unterschiedlichem Zeithorizont ermittelt wurden, kann nicht zu sinnvollen Ergebnissen führen. Die Skalierung des Value at Risk von Positionen mit kurzer Haltedauer auf längere Perioden kann zu erheblichen Verzerrungen führen. Die Annahme von unrealistisch kurzen Liquidationszeiten kann auf der anderen Seite zu einer erheblichen und vor allem systematischen Unterschätzung des Verlustpotentials führen, wenn man davon ausgeht, daß mit längerer Halteperiode große Preisbewegungen wahrscheinlicher sind. Dieses Dilemma ist nicht ohne weiteres aufzulösen.

    Google Scholar 

  106. Vgl. stellvertretend für viele: Professoren-Arbeitsgruppe (Begrenzung, 1987), S. 286 ff.

    Google Scholar 

  107. Siehe auch Buschgen, H. E. (Bankbetriebslehre, 1993), S. 735.

    Google Scholar 

  108. Gelegentlich wird argumentiert, durch die Verwendung zweiseitiger Konfidenzintervalle könnten - Normalverteilung und somit Symmetrie unterstellt - die spiegelbildlich auftretenden Chancen leicht berücksichtigt werden. Gemessen wird dann das Risiko extremer Wertänderungen, gleich welcher Richtung. Der Value at Risk erhöht sich dadurch allerdings zwangsläufig, da bei gleicher Wahrscheinlichkeit der zum zweiseitigen Konfidenzintervall gehörende Multiplikator der Standardabweichung größer ist als der entsprechend einseitige, bspw. bei 90% 1,65 statt 1,28, bei 95% 1,96 statt 1,65 usw.

    Google Scholar 

  109. Formal stellt der Value at Risk die Inverse der Verteilungsfunktion F dar VaR = F-I(LPMo); siehe Gleichung 2.3–21.

    Google Scholar 

  110. Vgl. auch Schröder, M. (Value at Risk, 1996), S. 15 ff. Allerdings besteht bei Downside-Risikomaßen stets die Problematik differenziert zu ermitteln, „welche Seite“ unter Berücksichtigung des bestehenden Exposure zu Verlusten führt, wenn nicht von vollkommener Symmetrie ausgegangen werden kann. Dies wurde bereits erläutert.

    Google Scholar 

  111. Ein grundlegender Vorteil des Value at Risk als Risikomaß besteht darin, das Risiko der Renditeverteilung in einer einzigen Zahl zu erfassen und somit verschiedene Positionen einfach und auch intuitiv verständlich vergleichbar zu machen. Sofern neben dem Value at Risk als LPM5 weitere Lower Partial Moments höherer Ordnung zur Erfassung der Verteilungscharakteristika herangezogen werden sollen, ist zu erwarten, daß dieser Vorteil verlorengeht. Scheuenstuhl und Staas schlagen vor, die Lower Partial Moments bspw. bis zur vierten Ordnung in einer Kennzahl zusammenfassen, um ein aussage-kräftigeres Bild des Downside-Risikos zu erhalten. Vgl. Scheuenstuhl, G./Staas, C. (Aggregate Approach, 1997). Die umfassende empirische Prüfung und Bewährung in der praktischen Anwendung einer solchen Kennzahl, die theoretisch nicht fundiert wird, steht bislang aus. Scheuenstuhl und Staas legen erste, vielversprechende Testergebnisse vor. Da Risikoverbundeffekte nur schwer einzubeziehen sind, ist die Zusammenfassung nur bei LPM bereits aggregierter Renditeverteilungen, d. h. Verteilungen von Portfoliorenditen, möglich.

    Google Scholar 

  112. Allerdings ist der erforderliche paarweise Vergleich der Wahrscheinlichkeitsverteilungen bei einer nicht vorgegebenen, nicht endlichen Zahl von Alternativen nicht handhabbar. Vgl. Bawa, V. S. (Safety First, 1978), S. 255.

    Google Scholar 

  113. Lower Partial Moments sind für beliebige Renditeverteilungen anwendbar. Sie liefern allgemein nur approximative Lösungen des Safety-First-Problems. Bei Normalverteilung, Student-tVerteilung (und anderen zwei-Parameter-Verteilungen der sog. Location-Scale-Klasse) bieten sie allerdings die exakte Lösung. Vgl. Schröder, M. (Value at Risk, 1996), S. 12 m. w. N.

    Google Scholar 

  114. Vgl. Schröder, M. (Value at Risk, 1996), S. 11 ff. und Bawa, V. S./Lindenberg, E. B. (Equilibrium, 1977), S. 199 f.

    Google Scholar 

  115. Schröder zeigt einen entsprechenden LPM, Value at Risk-Ansatz. Siehe Schröder, M. (Value at Risk, 1996), S. 12 ff. und auch dem. (Value-at-Risk-Ansatz, 1996), S. 81 ff.

    Google Scholar 

  116. Vgl. Schröder, M. (Value at Risk, 1996), S. 11. Grundlegend hierzu Bawa, V. S./Lindenberg, E. B. (Equilibrium, 1977), S. 189 ff.

    Google Scholar 

  117. Hierzu grundlegend Neumann, J./Morgenstem, O. (Theory, 1953); Bamberg, G./Coenenberg, A. G. (Entscheidungslehre, 1996), S. 80 ff. Siehe auch Francis, J. C./Archer, St. A. (Portfolio Analysis, 1979), S. 347 ff. und S. 361 ff.; Bawa, V. S./Lindenberg, E. B. (Equilibrium, 1977), S. 191 f. und Bawa, V. S. (Safety First, 1978), S. 255 ff., insbesondere S. 258 f.

    Google Scholar 

  118. Fishbum, P. C. (Mean-Risk Analysis, 1977), S. 119; im Original heißt es „a = 1“ aufgrund anderer Notation der Exponenten [A. d. Verf.].

    Google Scholar 

  119. Siehe hierzu grundlegend Bawa, V. S. (Safety First, 1978), S. 255 ff. und Fishbum, P. C. (Mean-Risk Analysis, 1977), S. 116 ff. Vgl. auch Schröder, M. (Value at Risk, 1996), S. 11 ff. LPM0 ist ein allg. Risikomaß, das bei allen Nutzenfunktionen anwendbar ist. Es entspricht im Kontext der Entscheidungstheorie der Stochastischen Dominanz erster Ordnung. LPMZ und LPM2 sind speziellere Risikomaße, die erst beim Vorliegen der entsprechenden Risikoaversion angewandt werden sollten. LPMZ und LPM2 entsprechen analog Stochastische Dominanz zweiter und dritter Ordnung. Allgemein entspricht der Stochastischen Dominanz n-ter Ordnung das Lower Partial Moment (n-1). Vgl. Bawa, V. S. (Safety First, 1978), S. 258 f. u. S. 268 sowie Schröder, M. (Value at Risk, 1996), S. 11 m. w. N.

    Google Scholar 

  120. Guthoff, Pfingsten und Wolf weisen im übrigen darauf hin, daß die Anerkennung der internen Modelle auf Basis des Value at Risk einen unerwünschten Anreiz zur höheren Risikoübernahme seitens der Kreditinstitute führen kann, sofern sie von risikoaverser (anhand von LPM1) auf risikoneutrale Altemativenauswahl (anhand von VaR als LPM0) bei der Portfoliozusammenstellung übergehen. Vgl. Guthoff, A./Pfingsten, A./Wolf, A. (Value at Risk, 1997), S. 22.

    Google Scholar 

  121. Zu Gunsten des Value at Risk ließe sich argumentieren, daß der Value at Risk als LPM0 die geringsten Anforderungen hinsichtlich der Nutzenfunktion bzw. Risikopräferenz stellt und somit von allen Downside-Risikomaßen die breiteste Einsatzmöglichkeit besitzt.

    Google Scholar 

  122. Dabei können allerdings ungewohnte Effekte auftreten, die mit der unterschiedlichen Wirkung von Risikoausgleichseffekten im Vergleich zur Portfolio Selection (Erwartungswert-VarianzOptimierung) zusammenhängen. Siehe hierzu ausführlich Spremann, K. (Diversifikation, 1997), S. 865 ff.

    Google Scholar 

  123. Vgl. hierzu und zum folgenden Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 10 ff. Und Jorion, P. (Value at Risk, 1997), S. 281 ff. Jordan und Mackay führen darüber hinaus auch Hedging als Einsatzgebiet an. Vgl. Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 11 f.

    Google Scholar 

  124. Grundsätzlich besteht bei der Informationsverdichtung mit Hilfe von Value at Risk die Notwendigkeit, zwischen der erwünschten Verdichtung der Information in einer einzigen Kennzahl und dem gerade dadurch bedingten Verlust entscheidungsrelevanter Information abzuwägen. Sofern die Verdichtung der Risikoinformation in einer Zahl unangebracht erscheint, kann auf die Darstellung der gesamten Wahrscheinlichkeitsverteilung der Ergebnisse der Position oder des Portfolios zurückgegriffen werden. Dies bietet sich insbesondere bei Positionen mit stark nichtlinearen Bewertungsfunktionen, bestimmten Schwellenwerten (Caps, Floors, Collars) oder atypischer Wertentwicklung (z. B. bei komplexen Derivatestrategien) an. ätzlich sinnvoll, da neben dem Exposure die Wahrscheinlichkeit von Verlusten in die Betrachtung einbezogen wird. Vgl. hierzu und zum folgenden J.P. Morgan/Reuters (Technical Document, 1996), S. 33 f.;

    Google Scholar 

  125. Jorion, Ph. (Value at Risk, 1997), S. 285 ff. Kritisch zur Verwendung des Value at Risk bei der Limitierung BIZ (Offenlegung, 1994), S. 17. Im Original BIS (Public Disclosure, 1994), S. 9 f.

    Google Scholar 

  126. Vgl. hierzu und zum folgenden Daube, C. H. (Risikomanagement, 1995), S. 16. Siehe auch Gottschalk, H. D./Renner, M. (Risikosteuerung, 1992), S. 524 ff. und Hagen, P./Jakobs, W. (Risikosteuerung, 1995), S. 664 ff.

    Google Scholar 

  127. Bei Risikoäquivalenten handelt es sich um normierte Positionen, bspw. ein 5-jähriges Wertpapier, auf die sämtliche Positionen umgerechnet werden. Zur Limitierung wird dann ein maximales Volumen für das Risikoäquivalent vorgegeben. Das Volumenslimit wird mit spezifischen Preissensitivitäten verbunden.

    Google Scholar 

  128. Vgl. hierzu und zum folgenden Rudolph, B. (Risikomanagement, 1993), S. 127 f. und Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 104 f.

    Google Scholar 

  129. Modifiziert nach Groß, H./Knippschild, M. (Risikocontrolling, 1995), S. 96.

    Google Scholar 

  130. Eine zu rasche Anpassung des Risikokapitals kann die Transparenz des Risikomanagementsystems beeinträchtigen. Daher wird der Handlungsspielraum oftmals fest vorgegeben. Vgl. Rudolph, B. (Risikomanagement, 1993), S. 127.

    Google Scholar 

  131. Modifiziert nach Jorion, Ph. (Value at Risk, 1997), S. 286 und J.P. Morgan/Reuters (Technical Document, 1996), S. 33.

    Google Scholar 

  132. Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 33.

    Google Scholar 

  133. Vgl. Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 10.

    Google Scholar 

  134. Siehe hierzu bspw. Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 100 und S. 104 f.

    Google Scholar 

  135. Soll der täglich berechnete Value at Risk innerhalb eines Value-at-Risk-Limits gehalten werden, so ist dies in Anbetracht der oftmals starken Schwankungen des Value at Risk ähnlich problematisch. Auch hier wird eine vollständige Ausschöpfung des Limits nicht in Frage kommen.

    Google Scholar 

  136. Die Repräsentativität der Stützperiode für die Halteperiode mag nicht gegeben sein. Bereits dies kann, je nach Value-at-Risk-Methode, für eine systematische Fehleinschätzung der eingegangenen Risiken in beiden Richtungen ausschlaggebend sein. Mit der Risikobereitschaft der Händler muß dies in keinerlei Zusammenhang stehen.

    Google Scholar 

  137. Im Gegensatz setzt das Überschreiten eines Volumenslimits i. a. eine entsprechende Vergrößerung der Position durch Geschäftsabschlüsse voraus und kann vom Händler gezielt verhindert werden.

    Google Scholar 

  138. Dies gilt insbesondere bei exponentieller Glättung und kurzem Zeithorizont, da hier die Volatilität und somit der Value at Risk oftmals zu erratischen Schwankungen neigt.

    Google Scholar 

  139. Dieses Dilemma teilt der Value at Risk mit den anderen verlustorientierten Limiten. Ob das Realisieren eines Verlustes oder das Abwarten einer Gegenbewegung ratsam ist, kann a priori allenfalls intuitiv entschieden werden. Statistik kann Erfahrung nicht ersetzen.

    Google Scholar 

  140. Bei der Umschichtung der Position können genau diejenigen Positionen in das Portfolio aufgenommen werden, die ihren Wertverlust noch vor sich haben. Auch dies ist kein spezifisches Problem des Value at Risk.

    Google Scholar 

  141. Diese stellen den maximal tolerierten Gesamtverlust der Handelseinheit in einem bestimmten Betrachtungszeitraum dar. Beim Erreichen von Stop-Loss-Limits wird ein verbindlicher Meldeprozeß ausgelöst, der mit einem Aktionsplan gekoppelt werden sollte. Meist ist die sofortige Schließung der Verlustpositionen vorgesehen. Zu klären ist, ob und in welcher Höhe anschließend eine Neuallokation von Ressourcen und Limiten erfolgen soll. Im Extremfall müßte der Handel bis zum Ende des entsprechenden Planungszeitraumes eingestellt werden. Empfohlen wird, Stop-Loss-Limite durch ein vorgeschaltetes Frühwarnsystem zu ergänzen, das signalisiert, daß bei unveränderter Performance-Entwicklung das Stop-Loss-Limit in der Budgetperiode erreicht werden wird. Vgl. Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 104.

    Google Scholar 

  142. Vgl. Krumnow, J. (Implikationen, 1994), S. 747.

    Google Scholar 

  143. Zu den Begriffen siehe bspw. Krumnow, J. (Implikationen, 1994), S. 746 und Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 99 f.

    Google Scholar 

  144. Vgl. hierzu und zum folgenden Hagen, P./Jacobs, W. (Marktrisikosteuerung, 1996), S. 638 f.

    Google Scholar 

  145. Siehe hierzu BAK (Entwurf Grundsatz I, 1997), § 32 Abs. 2, S. 45 und BAK (Erläuterungen Grundsatz I, 1997), S. 134 f.

    Google Scholar 

  146. Die Mindestanforderungen an das Betreiben von Handelsgeschäften der Kreditinstitute heben die Bedeutung der risiko-und ertragsorientierten Steuerung von Handelsgeschäften hervor. An das einzurichtende Risiko-Controlling-und -Management-System werden hohe Anforderungen gestellt, aber ein konkretes Modell oder Konzept wird nicht vorgeschrieben. Die Value-at-RiskMethode wird in den Erläuterungen der Bundesbank und von Artopoeus aber explizit genannt. Insofern steht dem Einsatz von Value-at-Risk-Limiten nichts entgegen, sofern die geforderten Rahmenbedingungen (Erfassung, Marktbewertung, Berichterstattung, Organisation usw.) gewährleistet werden. Siehe BAK (Mindestanforderungen, 1995), insbes. Ziff. 3.2, S. 6 f.

    Google Scholar 

  147. Vgl. auch Jacob, K.-D. (Mindestanforderungen, 1995), S. 479 ff.; Casteel, W./Krüppel, W. (Anforderungen, 1996), S. 10 ff.; Artopoeus, W. (Handelsgeschäfte, 1996), S. 149 ff. insbes. S. 154 und o. V. (Mindestanforderungen, 1996), S. 55 ff. Vgl. BAK (Mindestanforderungen, 1995), Ziff. 3.2, S. 6.

    Google Scholar 

  148. Die notwendige Abstimmung der Händler untereinander erfordert schnellen und permanenten Informationsfluß sowie gute Kommunikation, um die Aufteilung des Gruppenlimits zu koordinieren. Ist die Verantwortung für eine Gruppenlimitüberschreitung nicht klar abgegrenzt, birgt dies erhebliches Konfliktpotential, sofern die Ursache nicht eindeutig feststeht. Das ganze Team bzw. der Leiter ist für mangelnde Koordination zur Rechenschaft zu ziehen. Im Fall der Gesamt-Limitüberschreitung ist zudem festzulegen, welcher Händler Positionen glattstellen und ggf. Verluste zu Lasten seiner Performance realisieren muß. Dieser hilft zwar der ganzen Gruppe, die Vorgaben einzuhalten, sein persönliches Handelsergebnis wird aber ggf. belastet. Auch dies ist problematisch. Vgl. Steiner, M./Raulin, G. (Eigenoptionshandel, 1992), S. 471 f.

    Google Scholar 

  149. Ein anderes Verfahren ist die Vergabe von Primär-und ein Sekundärlimiten. Letztere stellen temporäre Zusatzlimite dar, die kurzfristig vom nächsthöheren Verantwortlichen gewährt werden können. Die kurzfristige Überschreitung des Primärlimits wird so einer institutionalisierten Überwachung unterworfen und ohne weitere Berichte und Genehmigungen im Vorfeld gesteuert. Vgl. Buschmann, W. F. (Risiko-Controlling, 1992), S. 728.

    Google Scholar 

  150. In der Praxis wird bei der Ermittlung von Risikoausgleichseffekten zwischen organisatorischen Einheiten gerne auf die Korrelation der Ergebnisentwicklung der Abteilungen oder Geschäftseinheiten in der Vergangenheit zurückgegriffen. Dies ist ausgesprochen problematisch, da die Voraussetzungen der Stabilität i. d. R. nicht gegeben sind. Vor allem aufgrund der steten Veränderung der Zusammensetzung der Teilportfolios im Zeitablauf ist dies unzulässig. Darauf wird im folgenden Kapitel näher eingegangen.

    Google Scholar 

  151. Durch die Begrenzung nicht nur der absoluten Größe der Position, sondern auch der relative Größe in bezug auf den Umsatz am Gesamtmarkt oder das Open Interest, soll auch sichergestellt werden, daß eine Position kurzfristig bzw. in der üblichen Frist liquidierbar ist.

    Google Scholar 

  152. Durch Konzentrationslimite sollen einseitig strukturierte Portfolios vermieden werden. Trigger-Limite generieren Signale, die eine gezielte Überwachung gewünschter Portfoliostrukturen ermöglichen.

    Google Scholar 

  153. Vgl. hierzu Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 105.

    Google Scholar 

  154. Vgl. hierzu und zum folgenden Schierenbeck, H. (Bankmanagement, 1994), S. 504 ff.; ders. (Konzeption, 1995), S. 4 ff. sowie ders. (Risiko-Controlling, 1996), S. 3 ff.

    Google Scholar 

  155. Schierenbeck unterscheidet vier Risikodeckungspotentiale bzw. Deckungsmassen in Kreditinstituten. Siehe auch Schierenbeck, H. (Bankmanagement, 1994), S. 505, Abb. 240.

    Google Scholar 

  156. Vgl. Schierenbeck, H. (Risiko-Controlling, 1996), S. 3.

    Google Scholar 

  157. Vgl. Schierenbeck, H. (Bankmanagement, 1994), S. 507. 1005 Vgl. Schierenbeck, H. (Bankmanagement, 1994), S. 508.

    Google Scholar 

  158. Theoretisch könnte für die oben genannte Ungleichung, die sog. Gleichgewichtsbedingung, eine Wahrscheinlichkeit von 100% gefordert werden. Absolute Sicherheit bzw. vollkommene Risikovermeidung zu fordern, ist jedoch einerseits in der Praxis nicht durchzuhalten und andererseits auch nicht sinnvoll, da anderenfalls keinerlei risikobehaftete Geschäfte mehr getätigt werden dürften. Dies entspricht nicht der Zielsetzung der Finanzintermediäre. Es ist vielmehr notwendig, für verschiedene Belastungsfälle ein tolerierbares Restrisiko zu fixieren - abgestimmt auf die Art der Risiken und die Wahrscheinlichkeit der Verluste.

    Google Scholar 

  159. Vgl. hierzu und zum folgenden Schierenbeck, H. (Konzeption, 1995), S. 9 ff.

    Google Scholar 

  160. Dann sind Aussagen wie die folgende möglich: Mit 95% Wahrscheinlichkeit liegt der Value at Risk, der mit einem Konfidenzniveau von (1-a) ermittelt wurde, im Intervall [X, Y].

    Google Scholar 

  161. Vgl. hierzu Jorion, Ph. (Value at Risk, 1997), S. 99 ff. und Jorion, Ph. (Risk2, 1996), S. 50 f. In Abhängigkeit vom Konfidenzniveau und dem Umfang der Stichprobe kann der asymptotische Schätzfehler als Standardfehler des Stichproben-Quantiles angegeben werden. Der Schätzfehler der Berechnung des Value at Risk anhand der Stichprobenstandardabweichung läßt sich entsprechend ermitteln. Diese Beziehungen können genutzt werden, um den erwarteten Schätzfehler des Value at Risk als Vertrauensbereich (s. Anhang 13) anzugeben.

    Google Scholar 

  162. Zwar wird zu Recht gefordert, daß das Verlustpotential keinesfalls die gesamte zur Verfügung stehende Deckungsmasse übersteigen darf, da sonst die Überschuldung eintritt. In der Praxis ist aber bei der Bemessung und Bewertung des Worst-Case-Szenarios ein großer Spielraum gegeben. Der Umfang der Vorsorge für das maximale Verlustpotential, für den Fall daß sämtliche Risiken gleichzeitig (!) schlagend werden, wird bei der Überprüfung der Risikotragfähigkeit stets von der Risikobereitschaft der Geschäftsleitung bestimmt werden. Auf jeden Fall ist die Limitierung, die differenzierte Vergabe von Risikolimiten für die einzelnen Geschäftsbereiche eine ureigenste Aufgabe der Geschäftsleitung. Dies wird nicht zuletzt in den Mindestanforderungen des BAK deutlich herausgestellt. Vgl. BAK (Mindestanforderungen, 1995), S. 2 ff.

    Google Scholar 

  163. Vgl. hierzu und zum folgenden Schierenbeck, H. (Konzeption, 1995), S. 14 ff. und ders. (Risiko-Controlling, 1996), S. 3 ff.

    Google Scholar 

  164. Somit ergibt sich eine methodische Gleichbehandlung von Ausfall-und Marktrisiken, die eine Konzeption des integrierten Risikomanagements charakterisiert. Für eingegangene Kredit-und Ausfallrisiken werden ebenfalls zumindest im langfristigen Durchschnitt auskömmliche Risikokosten veranschlagt.

    Google Scholar 

  165. Auf die Berechnung und Verrechnung von Risikoprämien für Marktrisiken wird hier nicht näher eingegangen. Hinsichtlich der Integration von Markt-und Ausfallrisiken besteht weiterer Forschungsbedarf. Siehe hierzu ausführlich Schierenbeck, H. (Konzeption, 1995), S. 14 ff.

    Google Scholar 

  166. Vgl. hierzu und zum folgenden Groß, H./Knippschild, M. (Risikocontrolling, 1995), S. 100 ff.; dies. (Risikosteuerung, 1996), S. 106 ff.; Bürger, P. (Risikocontrolling, 1995), S. 250 f.; Beck-ström, R. et al. (VAR, 1994), S. 13 f.; Wilson, Th. C. (Risk Capital, 1996), S. 194 ff.;Glossman, D. B. et al. (Risk Management, 1993), S. 1 ff. und James, Ch. (RAROC, 1996), S. 3 ff.

    Google Scholar 

  167. Der Oberbegriff risikoadjustierter Kennzahlen ist RAPM Risk Adjusted Performance Measures. Vgl. Wilson, Th. C. (Risk Capital, 1996), S. 195 f. Die Unterscheidung zwischen RORAC, Return on Risk Adjusted Capital, und RAROC, Risk Adjusted Return on Capital, sowie RARORAC, Risk Adjusted Return on Risk Adjusted Capital, ist für die folgenden Ausführungen nicht relevant. RAROCTM wurde von Bankers Trust eingeführt. Vgl. Bankers Trust (RAROC, 1995).

    Google Scholar 

  168. Diese Relation entspricht einem modifizierten Sharpe-Ratio. Siehe Kapitel 2.3.2.2.6.

    Google Scholar 

  169. Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 34 f.

    Google Scholar 

  170. Die Skalierung, meist Annualisierung, des Sharpe-Ratios erfolgt unter den bereits diskutierten üblichen Annahmen nach dem Wurzelgesetz. Analoge Kritik ist daher gerechtfertigt. Vgl. hierzu Sharpe, W. F. (Sharpe Ratio, 1994), S. 51. Die Kalkulation der Erträge erfolgt bei der Umsetzung sehr unterschiedlich. Teilweise werden Brutto-, teilweise Nettoergebnisse herangezogen. Die Verwendung von Plan-statt Istwerten ist üblich. Entsprechend des Sharpe-Ratios sollten Überschußrenditen herangezogen werden. Dies wird hier nicht vertieft. Maßgebend für die Risikokapitalallokation ist die Einheitlichkeit der Berechnung, wie immer diese im Einzelfall gestaltet wird. Zu beachten ist, daß Erträge einen Zeitraumbezug besitzen, der Value at Risk dagegen zeitpunktbezogen ermittelt wird.

    Google Scholar 

  171. Vgl. Schröder, M. (Value at Risk, 1996), S. 94 ff.

    Google Scholar 

  172. Eine Richtung der aktuellen Forschung ist die unmittelbare Schätzung von Verteilungsenden und Extremwerten. Die Basis des sog. Maximum Loss sind Worst-Case-Szenarien, die analytisch leichter handhabbar sind als die gesamte Gewinn-und Verlustverteilung. Sie gelten als aussagekräftiger als Quantile. Siehe hierzu bspw. Boudoukh, J. et al. (Market Risk, 1995), S. 100 f.; Studer, G. (Maximum Loss Optimization, 1995); Studer, G./Lüthi, H.-J. (Maximum Loss, 1996); dies. (Maximum Loss, 1997); Longin, F. M. (VaR, 1997) und Embrechts, P. et al. (Extremal Events, 1997).

    Google Scholar 

  173. Die RORAC- und RAROC-Betrachtung beschränkt sich nicht auf Marktrisiken, sondern bezieht Kreditrisiken, Länderrisiken und operative Risiken ein.

    Google Scholar 

Download references

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 1999 Springer Fachmedien Wiesbaden

About this chapter

Cite this chapter

Meyer, C. (1999). Eignung des Value at Risk zur Risikoquantifizierung auf Gesamtbankebene. In: Value at Risk für Kreditinstitute. Bank- und Finanzwirtschaft. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-08173-9_5

Download citation

  • DOI: https://doi.org/10.1007/978-3-663-08173-9_5

  • Publisher Name: Deutscher Universitätsverlag, Wiesbaden

  • Print ISBN: 978-3-8244-6763-1

  • Online ISBN: 978-3-663-08173-9

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics