Zusammenfassung
Basis jeder Ermittlung der Wertveränderung aufgrund geänderter Marktbedingungen ist zunächst die Bewertung der bestehenden Positionen. Für die Bewertung des Exposure können im einfachsten Fall beobachtete Marktpreise verwendet werden (Marking to Market).834 Sofern zur Bewertung statt des Marktpreises der theoretische, rechnerisch ermittelte Preis verwendet wird oder aufgrund fehlender Marktpreise herangezogen werden muß (Marking to Model), ist die genaue Bewertungsmethode festzulegen.835 Als State of the Art für die Present-Value-Berechnung gilt die Verwendung von arbitragefreien, zinstrukturkongruenten Zerobondabzinsungsfaktoren. Diese gestatten die finanzmathematisch korrekte Bewertung nach der Barwertmethode unter Berücksichtigung der Zinsstrukturkurve.836 Es ist unabhängig von der gewählten Methode von essentieller Bedeutung für die konsistente Aggregierbarkeit der verschiedenen Positionen und Risiken, daß die Positionsbewertung methodisch einheitlich erfolgt.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Zu Fragen des Marking to Market bzw. Marking to Model siehe stellvertretend für viele Global Derivatives Study Group (Derivatives, 1993), S. 9 ff. und ebd. Appendix I, S. 6 f.; Rudolph, B. (Risikomanagement, 1993), S. 123 ff.; Hagen, P./Jacobs, W. (Marktrisikosteuerung, 1996), S. 640 ff.; Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 99 ff. sowie auch Krumnow, J. (Implikationen, 1994), S. 744 ff.
Vgl. hierzu Doerks, W. (Zinsstrukturkurven, 1991), S. 275–280; Loistl, O. (Wertpapiermanagement, 1996), S. 247 ff. und Uhlir, H./Steiner, P. (Wertpapieranalyse, 1994), S. 7 f. und S. 19 f. sowie Steiner, M./Bruns, Ch. (Wertpapiermanagement, 1995), S. 228–240. Siehe auch Schierenbeck, H./Wiedemann, A. (Marktwertrechnungen, 1996), S. 1–9.
Das Barwertkonzept geht auf John Burr Williams (1938) zurück. Vgl. Williams, J. B. (Investment Value, 1938/1964), S. 5 ff.
Hierzu liegt umfangreiche Literatur vor, die meist im Kontext der Marktzinsmethode (Margenkalkulation) oder der Ermittlung des Treasury-Erfolges steht. Siehe stellvertretend für viele: Marusev, A. W./Siewert K-J. (Bonus-/Malus-System, 1990), S. 217 ff.; Benke, H. (Effektivzins, 1991), S. 98 ff.; Knippschild, M. (Zins-und Währungsswaps, 1991), S. 124 ff.; Benke, H./Gebauer, B./Piaskowski, F. (Barwertkonzept I, 1991), S. 457 ff.; dies. (Barwertkonzept H, 1991), S. 514 ff.; Jacob, H.-R./Villiez v. Chr./Westphal E.-G. (Datenbasis, 1991), S. 625 ff.; Rolfes, B./Schierenbeck, H. (Marktwert, 1992), S. 403 ff.; Piaskowski, F. (Treasury, 1993), S. 290 ff.; Brammertz, W./Jäk, A. (Barwert, 1993), Akmann, M./Benke, H. (Gesamtrisikokonzept, 1993), S. 76 ff.; Schierenbeck, H./Wiedemann, A. (Treasury-Konzept, 1993), S. 670 ff.; dies. (Messung, 1993), S. 731 ff.; dies. (Treasury-Konzept, 1994), S. 285 ff.; Flesch, J. R. et al. (Barwertkonzept, 1994), S. 267 ff.; Flesch, J. R./Lichtenberg, M. (Integration, 1994), S. 39 ff.; Marusev, A. W. (Barwertkonzept, 1994), S. 81 ff.; Rolfes, B./Hassels, M. (Barwertkonzept, 1994), S. 337 ff.; Flesch, J. R./Gerdsmeier, St. (Barwertsteuerung, 1995), S. 111 ff.; Benke, H. et al. (Barwertkonzept, 1995), S. 119 ff.; Hartschuh, Th. (Preisrisiko-management, 1996), S. 873 ff.; Hartschuh, Th. (Preisrisiken, 1996), hier S. 41 ff. und S. 98 ff. Eine ausführliche Anleitung bieten bspw. Schierenbeck, H./Wiedemann, A. (Marktwertrechnungen, 1996), hier S. 1 ff. und S. 155 ff.
Das Grundprinzip der Erfassung und Synchronisation von Zahlungsströmen bei der Kalkulation von Einzelgeschäften hat (im deutschsprachigen Raum) Marusev eingeführt: Marusev, A. W. (Einzelgeschäftskalkulation, 1990), S. 15 ff. Insbesondere Hartschuh adressiert die hier relevanten Probleme der Analyse von Preisrisiken auf Gesamtbankebene, siehe Hartschuh, Th. (Preisrisiken, 1996), S. 98 ff. und S. 155 ff.
Der Marktwert von Zinspositionen läßt sich rechnerisch über eine Kombination alternativer, auf der Basis des aktuellen Zinsniveaus abzuschließender Geld-und Kapitalmarktgeschäfte ermitteln, die zu einer exakten Nachbildung der Zahlungsströme der betrachteten Positionen mit umgekehrtem Vorzeichen führen. Vgl. Akmann, M./Benke, H. (Gesamtrisikokonzept, 1993), S. 68 f.
Vgl. hierzu und zum folgenden Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 273 ff. Oberman, R. (Risk-Management, 1991), S. 46 ff.
Der dritte mögliche Ansatz, der auf Nominalbeträgen basiert (principal mapping), kommt im Kontext des Value at Risk nicht in Frage. Hier wird die durchschnittliche Fälligkeit der Zinspositionen herangezogen, was zur erheblichen Verzerrung der Risiken fahrt. Vgl. J.P. Morgan/ Reuters (Technical Document, 1996), S. 107 f. und Jorion, P. (Value at Risk, 1997), S. 211 ff.
Vgl. hierzu und zum folgenden Groß, H./Knippschild, M. (Risikocontrolling, 1995), S. 88 ff.
Vgl. Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 273 ff.
Dies wird in ähnlicher Form bei der Kapitaladäquanzrichtlinie praktiziert. Volatilitäten und Korrelationen können aufgrund der möglichen Vielfalt der Zahlungs-/ Duration-Zeitpunkte nicht für jede einzelne Zinsposition ermittelt werden, sondern es wird auf diejenigen ausgewählter Zerobonds zurückgegriffen. Die gewünschten Renditevolatiltitäten müßten durch Interpolation ermittelt werden oder es erfolgt ein Duration-Mapping, d. h. eine durationäquivalente Interpolation und die Aufspaltung der Positionsduration in zwei Durationen von Positionen mit bekannten Volatilitäten und Korrelationen (siehe Anhang 12–1).
Vgl. hierzu und zum folgenden J.P. Morgan/Reuters (Technical Document, 1996), S. 9 ff. und S. 107 ff. Die Risikoerfassung wird für jedes Instrument, nicht nur für Zinspositionen, auf der Grundlage der Cash-flows vorgenommen. Die Ermittlung der Cash-flows erfordert eine Dekomposition zusammengesetzter Instrumente und bzw. ihre Replikation durch einfache Instrumente mit deterministischen Cash-flows. Dem RiskMetrics’ Handbuch ist eine kurze Anleitung zur Replikation folgender Instrumente zu entnehmen: Festverzinsliche Wertpapiere, Floater, Zinsswaps, Forward Rate Agreements, Spot-und Forward-Fremdwährungspositionen, Währungsswaps, Aktien, Commodities, Commodity-Futures und -Swaps; siehe J.P. Morgan/ Reuters (Technical Document, 1996), S. 109–117. Vgl. auch Eller, R./Spindler, Ch. (Zins-und Währungsrisiken, 1994), S. 31 ff.
In Anlehnung an Schierenbeck, H./Wiedemann, A. (Marktwertrechnungen, 1996), S. 157. Zu ähnlichen, detaillierten Typologien siehe Breuer, R./Skaruppe, M. (Bankkalkulation I, 1993), S. 279 ff.
Es ist unerheblich, ob die Cash-flows vor Diskontierung oder ihre Barwerte aufgeteilt werden, da das Verfahren den Erhalt des Barwertes gewährleisten muß. Im allgemeinen wird zwar von Cash-flow-Mapping gesprochen, aber bereits mit diskontierten Werten gerechnet.
Vgl. hierzu und zum folgenden J.P. Morgan/Reuters (Technical Document, 1996), S. 9 ff. und ausführlich S. 117 ff.
Die Stützpunkte verändern sich im Zeitablauf nicht, d. h. es werden Volatilitäts- und Korrelationsdaten für fiktive, synthetische Zerobonds berechnet, die exakt die gewünschte Restlaufzeit haben.
Würden für jeden individuellen Fälligkeitstag bis zu dreißig Jahren, das Jahr zu 365 Tagen, die Volatilitäten und Korrelationen errechnet, so ergeben sich bei 10.950 Tagen nach N(N-1)/2 bereits 59.945.775 Werte - und dies bereits für nur eine Währung.
Modifiziert nach J.P. Morgan/Reuters (Technical Document, 1996), S. 118; Bode, M./Mohr, M. (Value-at-Risk, 1996), S. 474; Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 275.
Vgl. Jansen, S./Wittrock, C. (Risikomanagement, 1996), S. 630 f.
Vgl. zum Verfahren im einzelnen Jorion, P. (Value at Risk, 1997), S. 215 f. Kritisch Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 276 f.
Das durationäquivalente Verfahren ist nur unter den Bedingungen exakt, d. h. risikoäquivalent, daß der Korrelationskoeffizient eins ist und die Volatiltität an jedem Stützpunkt proportional zur jeweiligen Duration ist. Siehe zum Beweis Jorion, P. (Value at Risk, 1997), S. 216.
Eine ausführliche Darstellung würde hier den Rahmen sprengen. Das Verfahren ist genau dokumentiert und veranschaulicht bei J.P. Morgan/Reuters (Technical Document, 1996), S. 118 ff.; Jorion, P. (Value at Risk, 1997), S. 215 ff. und Bode, M./Mohr, M. (Value-at-Risk, 1996), S. 470 ff. sowie Aussenegg, W./Uhlir, H. (Cash Flow Mapping, 1997), S. 275 ff.
Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 119 ff. und Jansen, S./Wittrock, C. (Risikomanagement, 1996), S. 629 ff.
Alternativ kann zur Ermittlung des diversifizierten Portfolio-Value-at-Risk natürlich direkt auf die Cash-flow-Barwerte, die Kursvolatilitäten und Korrelationen der Spot-Rates der Stützpunkte zurückgegriffen werden. Dann wird der Diversifikationseffekt allerdings nicht offengelegt.
Vgl. Lütkepohl, H. (Zeitreihen, 1986), S. 62 ff.
Es wurde gezeigt, daB eine isolierte Betrachtung von Einzelpositionen nicht zulässig ist. Vielmehr kommt es darauf an, welchen Beitrag eine Einzelposition zu Ertrag und Risiko des Gesamtportfolios leistet. Vgl. Franke, G./Hax, H. (Finanzwirtschaft, 1994), S. 265.
Eine erwähnenswerte Definition eines hochkorrelierten Zusammenhangs findet sich für aufsichtsrechtliche Zwecke in der Kapitaladäquanzrichtline. Auch in der Kapitaladäquanzrichtlinie ist bei der Ermittlung des Fremdwährungsrisikos die Berücksichtigung der Korrelationen zwischen den Währungen vorgesehen; es ist sogar eine Sonderbehandlung hochkorrelierter Währungen innerhalb der relativ einfachen Standardmethode möglich, die bei statistisch nachgewiesener (hoher) Korrelation des Währungskurse - vorbehaltlich der Zustimmung der Aufsichtsbehörden - zulässig ist. Der Nachweis einer engen Verbundenheit bzw. hohen Korrelation zweier Währungen gilt als erbracht, wenn der Verlust einer geschlossenen Position unter Zugrundelegung täglicher Währungskurse für eine Haltedauer von zehn Arbeitstagen bei einer Beobachtungsperiode von fünf Jahren mit einer Wahrscheinlichkeit von 95 Prozent oder bei einer Beobachtungsperiode von drei Jahren mit 99 Prozent Wahrscheinlichkeit maximal vier Prozent der betreffenden ausgeglichenen Position (ausgedrückt in der Währung der Rechnungslegung des Kreditinstituts) beträgt. Diese Regelung kann als Orientierungshilfe dienen, ist aber sehr pauschal. Vgl. Schulte-Mattler, H./Traber, U. (Quantifizierung, 1995), S. 627 und S. 632, FN 8, sowie Kapitaladäquanzrichtlinie, Anhang III, Nr. 6. Der Nachweis entspricht der Berechnung des Value at Risk in Form der Benchmarkmethode, bei der Verluste offener Positionen für eine Haltedauer von zehn Arbeitstagen unter Zugrundelegung eines historischen Beobachtungszeitraumes zur Ermittlung der Volatilitäten und Korrelationen der täglichen Wechelkursveränderungen von drei oder fünf Jahren mit einem Konfidenzniveau von 99 Prozent (drei Jahre) oder 95 Prozent (fünf Jahre) ermittelt wird. Vgl. SchulteMattler, H./Traber, U. (Quantifizierung, 1995), S. 627 f. sowie Kapitaladäquanzrichtlinie, Anhang III, Nr. 7.
Vgl. Alexander, C. (Forecasting, 1996), S. 233 f.
Zu Prüf-und Testverfahren und Vertrauensbereichen des Korrelationskoeffizienten siehe Sachs, L. (Statistik, 1992), S. 535 ff.
In Kapitel 4.6–2 wird auf robuste Schätzverfahren eingegangen. Durch die Elimination von Ausreißern kann auch eine robuste Schätzung der Korrelationen erzielt werden. Mit Hilfe anderer spezifischer Schätzverfahren, speziell der Kointegration, kann versucht werden, auch die Nichtstationarität in den Griff zu bekommen. Zu Verfahren der Korrelationsschätzung siehe Alexander, C. (Forecasting, 1996), S. 234 ff. und Engle, R. F./Granger, C. W. J. (Co-Integration, 1987), S. 251–276.
Vgl. hierzu und zum folgenden Sachs, L. (Statistik, 1992), S. 508 f. und Hartung, J. et al. (Statistik, 1995), S. 77.
Klassische Beispiele sind die Zunahme der Störche und der Zahl der Neugeborenen, der Zusammenhang zwischen der Dosis eines Medikamentes und der Letalität Todkranker usw.
Beispielsweise gibt es Theorien über den Zusammenhang von Zinssätzen und Wechselkursen (Zinsparitätentheorie), die Reaktion von Aktienkursen auf Zinsänderungen (Fundamentalanalyse) usw. Siehe hierzu auch Bösl, K. (Risikobegrenzung, 1993), S. 67 ff.
Vgl. hierzu und zum folgenden Bösl, K. (Risikobegrenzung, 1993), S. 53 m. w. N. und S. 64 ff.
Nach Bösl, K. (Risikobegrenzung, 1993), S. 66, Abb. 6 m. w. N.
Vgl. Bösl, K. (Risikobegrenzung, 1993), S. 56 ff. m. w. N. Mit Hilfe der Korrelationen werden ohnehin nur paarweise Zusammenhänge aufgezeigt. Häufig liegen aber nicht eindeutige Kausalbeziehungen und Abhängigkeiten i. S. einer Ursache-Wirkungs-Beziehung vor. Denkbar sind vielmehr komplexe Ursache-Wirkungs-Ketten, oftmals liegen sogar Wirkungsnetze vor, so daß ein Effekt stets auf mehrere verursachende Faktoren zurückzuführen ist.
Vgl. Bösl, K. (Risikobegrenzung, 1993), S. 66 f.
Vgl. hierzu und zum folgenden Alexander, C. (Correlation, 1994), S. 59 ff.
Vgl. Elton, E. J./Gruber, M. J. (Dependence Structure, 1973), S. 1203 ff.; Elton, E. J. et al. (Betas, 1978), S. 1375 ff. und Elton, E. J./Gruber, M. J. (Portfolio Theory, 1995), S. 168 ff. Verschiedene Varianten der Durchschnittsbildung wurden konstruiert und untersucht. Bspw. greift das sog. overall mean model auf Durchschnitte der paarweisen Korrelationskoeffizienten als Prediktoren der zukünftigen Korrelationskoeffizienten zurück. Alternativ wurden lediglich Korrelationen von Single-und Multi-Index-Modellen, also bspw. Korrelationen zwischen Risikofaktoren, hier sektoralen Indizes, herangezogen. Teilweise wurden die Korrelationen innerhalb der Risikofaktoren/Sektoren und zwischen den Risikofaktoren/Sektoren geglättet. Elton/Gruber referieren Tests, bei denen sich das overall mean model im Vergleich zum SingleIndex-Modell, Multi-Index-Modell und der historischen Korrelationsmatrix als überlegen erwies. Die Durchschnittsbildung auf der Basis von Risikofaktoren (sektoralen Indizes) zeigte sich zwar als Verbesserung, im Vergleich zur ersten Verfahrensweise, der Verwendung eines Gesamtdurchschnittes war der Genauigkeitsgewinn allerdings geringer.
Vgl. Elton, E. J./Gruber, M. J. (Dependence Structure, 1973), S. 1213.
Vgl. hierzu und zum folgenden auch Merbecks, A. (Organisation, 1996), S. 141 ff.
Diese konservative Vorgehensweise wurde ursprünglich von der Bankenaufsicht gefordert, später nach kontroversen Diskussionen aber verworfen.
Vgl. auch Bösl, K. (Risikobegrenzung, 1993), S. 62 f.
Vgl. auch Merbecks, A. (Organisation, 1996), S. 148.
Vgl. Global Derivatives Study Group (Derivatives, 1993), S. 10 und Appendix I, S. 8.
Vgl. hierzu und zum folgenden Chew, L. (Shock Treatment, 1994), S. 63 ff. und Diebold, F. X. et al. (Converting, 1997), S. 1 ff. Bspw. Bankers Trust RAROC 2020TM hat einen jährlichen Zeitbezug. Vgl. Chew, L. (Shock Treatment, 1994), S. 69.
Vgl. hierzu Lütkepohl, H. (Zeitreihen, 1986), S. 62 und S. 137. Dieser bietet eine detaillierte, statistisch fundierte Abhandlung der Aggregation, linearen Transformation und Prognose multivariater Zeitreihen (Vektor-ARMA-Prozessen).
Vgl. Kupiec, P. H./O“Brien, J. M. (Market Risks, 1995), S. 20 und dies. (Internal Affairs, 1995), S. 43 sowie auch Ungern-Sternberg, A. v. (Entmystifizierung, 1994), S. 4.
Vgl. hierzu und zum folgenden Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), S. 6 ff. und dies. (Internal Affairs, 1995), S. 43 f.
Vgl. Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), S. 5 f. und dies. (Internal Affairs, 1995), S. 44.
Der Zeitfaktor wird gekürzt, die Konstanz ergibt sich aus der angenommenen Gleichsetzung der Standardabweichungen und Kovarianzen unterschiedlicher Periodizität. Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 84 f. Siehe auch Anhang 5.
Dabei entsteht das Problem nicht überlappender Samples und einer entsprechend umfangreichen Datenbasis, wenn verläßliche Schätzungen erzielt werden sollen.
Vgl. auch Hendricks, D. (Evaluation, 1995), S. 4 f. und Chew, L. (Derivative Risks, 1996), S. 204 ff. Zu Grundlagen siehe J. P. Morgan (Technical Document, 1996), S. 55 ff. und S. 84 ff. sowie Lütkepohl, H. (Zeitreihen, 1986), S. 13 ff. und Figlewski, St. (Volatility, 1996), S. 5 ff.
Siehe hierzu J.P. Morgan/Reuters (Technical Document, 1996), S. 45 ff.; S. 55 ff. und S. 84 ff. Aus Sicht der Zeitreihenanalyse führt dies wieder zur Streitfrage, ob die Varianz endlich ist und ob sie zu einem bestimmten Grenzwert konvergiert (Mean Reversion). Siehe hierzu Geyer, A. (Information, 1992), S. 127 ff.; insbes. S. 165 f.
Die Skalierung mit der Quadratwurzel der Zeit ist die übliche, aber nicht die einzige Möglichkeit Volatilitäten für längere Zeithorizonte zu ermitteln. Drost und Nijman entwickeln eine Formel, mit der GARCH-Volatilitäten skaliert werden können. Siehe Drost, F. C./Nijman, T. E. (Temporal Aggregation, 1993), S. 909 ff. Ein Beispiel zeigen Diebold, F. X. et al. (Converting, 1997), S. 3 ff. Allerdings wird hier eine Modellannahme (Normalverteilung) durch eine andere (GARCH) ersetzt, so daß keine allgemeine analytische Formel für die Skalierung existiert, sofern die kurzfristigen Volatilitäten keinem Modell dieser Klassen folgen. Wurde der GARCHProzess nicht realitätsgerecht spezifiziert oder ist die Parameterschätzung mangelhaft, so kann auch eine modifizierte Skalierung nicht zu sinnvollen Ergebnissen führen. Die einzig sinnvolle Lösung ist somit die direkte Schätzung der Volatilitäten für den gewünschten Zeithorizont. Vgl. Diebold, F. X. et al. (Converting, 1997), S. 3 ff.
Damit die gemeinsame Renditeverteilung aller Risikofaktoren bzw. Positionen auch bei einem längeren Zeithorizont eine Normalverteilung ist, müssen die Renditen jeweils identisch, stochastisch unabhängig und stationär normalverteilt sein. Die Renditeverteilung und somit die Erwartungswerte, Standardabweichungen und Korrelationen ändern sich dann im Zeitablauf nicht.
Der Schätzfehler der eintägigen Volatilitäten wird bei der Skalierung zwangsläufig weiter vergrößert. Dennoch könnte die Skalierung im Durchschnitt zu korrekten Volatilitätsschätzungen führen. Allerdings wurde beobachtet, daß die Volatilität der Renditen längerer Zeithorizonte eher abnimmt, was im Widerspruch zur Skalierung steht.
Vgl. Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), S. 7 f.
Die genannten Kritikpunkte sind nicht bei allen Verfahren zutreffend. Bspw. kann bei der historischen Simulation die Wertveränderung über jeden beliebigen Zeithorizont ex post exakt ermittelt werden, was ggf. aber die Verfügbarkeit extrem langer Zeitreihen voraussetzt. Als einfacher Ausweg wurde bereits die unmittelbare Volatilitätsschätzung für den gewünschten Zeitraum genannt: Werden t-Tages-Volatilitäten benötigt, sollten auch t-Tages-Renditen herangezogen werden! Die Abhängigkeit der Volatilität von der Periodizität ist nur so zu erfassen.
Die Skalierung der Volatilität ist immer dann problematisch, wenn den potentiellen Wertänderungen Grenzen gesetzt sind, wie das bspw. bei Optionspositionen der Fall ist, aber auch bei Devisenkursen mit festen Bandbreiten (etwa beim EWS).
Vgl. Chew, L. (Shock Treatment, 1994), S. 65 f. und Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), S. 8 ff.
Vgl. hierzu und zum folgenden BIZ (Offenlegung, 1994), S. 25 f.; BIS (Public Disclosure, 1994), S. 15 und BIZ (Eigenkapitalvereinbarung, 1996), Nr. B.4c) und B.4h), S. 45 f. sowie Chew, L. (Derivative Risks, 1996), S. 205 f.
BIS (Public Disclosure, 1994), S. 15.
Eine detailliertere Betrachtung findet sich bei Kupiec, P. H./O“Brien, J. M. (Trading Risk Models, 1995), S. 8 ff.
Vgl. hierzu Chew, L. (Shock Treatment, 1994), S. 63 ff. und Chew, L. (Derivative Risks, 1996), S. 206.
Ein sehr langer Zeithorizont, bspw. ein Jahr, kann aber in Verbindung mit einem hohen Konfidenzniveau, bspw. 99%, zu sehr hohen Value-at-Risk-Beträgen führen, so daß ein gutes „Polster“ für unzureichend erfaßte Nichtlinearitäten (und auch breite Enden und Korrelationsschwankungen) besteht. Dies wird bspw. von Bankers Trust so gehandhabt. Vgl. Chew, L. (Shock Treatment, 1994), S. 64 und S. 69.
BIZ (Eigenkapitalvereinbarung, 1996), Nr. B.4c) und B.4h), S. 45 f.
Ein anderer Ansatz ist die Szenario-Matrix-Methode, bei der auch Risiken geringer Marktbewegungen erfaßt werden sollen. Siehe hierzu bspw. Schulte-Mattler, H. (Szenario-MatrixVerfahren, 1996), S. 758 ff.
Eine vertiefte Betrachtung findet sich bspw. bei Schaefer, S. M./Schwartz, E. S. (Time-Dependent Variance, 1987), S. 1113–1128. Diese schlagen ein einfaches Optionspreismodell vor, unter der Prämisse, daß die Standardabweichung der Rendite einer der Option zugrunde-liegenden Zinsposition proportional zu deren Duration ist. Dadurch kann vergleichsweise einfach der Tatsache Rechnung getragen werden, daß sich die charakteristischen Merkmale der Zinsposition und somit ihre Volatilität im Zeitablauf ändern.
Darüber hinaus sind in Folge des Pull-to-Par-Phänomens die Kursänderungen von Anleihen und anderen Zinspositionen (vor allem gegen Ende der Laufzeit) nicht unabhängig voneinander. Auch wird die Stabilität der Kovarianz-Matrix zu einem Problem. Siehe hierzu auch Brennan, M. J./Schwartz, E. S. (Duration, 1983), S. 3 ff.
Nach Hull, J. C. (Options, 1993), S. 380 m. w. N.
Erstellt mit der Börsensoftware Tai-Pan©, Lenz + Partner GmbH, Dortmund. Im oberen Fenster ist der Kursverlauf, im unteren der Verlauf der Volatilität als gleitender 250-Tage-Durchschnitt abgebildet. Von den Kennzahlen rechts oben sind hier nur die Laufzeit der Bundesobligation, deren Laufzeit am 21.07.1997 endete, und der letzte Wert der Volatilität (0,28%) relevant.
Vgl. Hendricks, D. (Evaluation, 1995), S. 3; Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), insbes. S. 6 ff. und Linsmeier, Th. J./Pearson, N. D. (Risk Measurement, 1996), S. 4 f.
Vgl. Smithson, Ch./Minton, L. (Debate, 1996), S. 39 sowie Global Derivatives Study Group (Derivatives, 1993), Appendix I, S 10.
Die Margins werden ähnlich dem Value at Risk auf der Basis der historischen Volatilitäten der Underlyings ermittelt. Die meisten Clearinghäuser verwenden dabei einen eintägigen, manche einen zweitägigen Zeithorizont. Siehe hierzu ausführlich Martin, J. (Managing risk, 1995), S. 64–74, hier S. 65.
Vgl. Global Derivatives Study Group (Derivatives, 1993), Appendix I, S. 10 und Smithson, Ch./Minton, L. (Debate, 1996), S. 39.
Vgl. Kupiec, P. H./O’Brien, J. M. (Trading Risk Models, 1995), S. 11 f.; dies (Internal Affairs, 1995), S. 45 ff. und dies. (Market Risks, 1995), S. 21.
Die Gestaltung von Risikocontrolling und Risikomanagement wird bspw. in den Mindestanforderungen des Bundesaufsichtsamtes für das Kreditwesen detailliert geregelt. Siehe BAK (Mindestanforderungen, 1995) und o. V. (Mindestanforderungen, 1996), S. 55–64.
Die Skalierung der Risiken von täglich oder kurzfristig liquidierbaren und ständig überwachten Positionen auf einen längeren Zeithorizont ist - abgesehen von den dargelegten statistischen Problemen - nicht sinnvoll, da die Risiken ggf. stark überschätzt werden. Händler werden zu Recht gegen die Hochrechnung des Risikopotentials ihrer Handelspositionen auf zehn oder mehr Tage argumentieren, daß sie viele Positionen oftmals nicht einmal overnight halten, sondern bereits intraday glattstellen. Sofern es unwahrscheinlich ist, daß Positionen bzw. Portfolios ohne aktive Eingriffe unverändert über einen längeren Zeitraum bestehen bleiben, dürfte das Risiko überzeichnet werden. Bereits bei der Hochrechnung der Risiken einer AktienoptionsShort-Position auf eine zehntägige Haltedauer mit der Quadratwurzel der Zeit würde die Volatilität mehr als verdreifacht. Daraus resultieren sehr hohe potentielle Aktienkurssteigerungen und somit ein extrem hohes Risikopotential. Extreme Volatilitäts-und Preisänderungen zu analysieren, ist jedoch nur im Rahmen von Krisenszenarien und Stress-Tests sinnvoll. Die angemessene Fortschreibung der Risiken des Handels würde Modelle über das Verhalten des Handels erfordern, die eine sinnvolle Simulation des Handelsgeschehens erlauben. Entsprechende Modelle zu entwickeln, könnte die Aufgabe weiterer Forschung sein. Vgl. auch Diebold, F. X. et al. (Converting, 1997), S. 7 ff.
Siehe hierzu auch Chew, L. (Derivative Risks, 1996), S. 204 f.
Vgl auch Lawrence, C./Robinson, G./Stiles, M. (Liquidity, 1996), S. 24 und S. 26.
Vgl. hierzu Global Derivatives Study Group (Derivatives, 1993), Appendix I, S. 10.
Vgl. hierzu und zum folgenden Lawrence, C./Robinson, G./Stiles, M. (Liquidity, 1996), S. 24–30.
Eine per se täglich problemlos liquidierbare Hedge-Position bspw. im BUND-Future wird grundsätzlich im Rahmen der gewählten Strategie so lange gehalten werden, wie die Position, die sie absichern soll! Entsprechend kann auch hier eine isolierte Betrachtung irreführend sein.
Die Vorgabe dieser Klassen (bspw. 1, 2, 5, 10, 20, 90, 180, 250, >250 Tage) ist notwendigerweise willkürlich und im Hinblick auf die Geschäftsstruktur individuell festzulegen.
Bei der Berechnung sollte konsequenterweise auf eine Skalierung verzichtet und unmittelbar die Renditen des entsprechenden Zeithorizontes herangezogen werden. Dadurch wird auch partiell der Zeitinstabilität der Volatilitäten und Korrelationen Rechnung getragen.
Das vorgestellte Konzept lehnt sich in gewisser Weise an die Realisationstheorie (Shiftability Theory) nach Carl Knies (1879) bzw. H. G. Moulton (1918) an, da nur die Verluste quantifiziert werden, die bei einer ordnungsgemäßen Auflösung sämtlicher Positionen entsprechend ihrer Bindungsdauer anfallen. Siehe hierzu Erdland, A. (Abstimmung, 1981), S. 138 ff. und Süchting, J. (Bankmanagement, 1992), S. 330 m. w. N. Die genannten Theorien stellen Liquiditätstheorien dar und werden hier nur bemüht, um den Begriff Shiftability und den damit verbundenen Grundgedanken des going concern zu verdeutlichen.
Zwischen den geschätzten unrealisierten Verlusten und den tatsächlich resultierenden Verlusten bei einer Veränderung oder Glattstellung einer Position besteht ein wichtiger Unterschied
Dabei wird angenommen, daß sämtliche Positionen ordnungsgemäß entsprechend ihrer Bindungsdauer aufgelöst werden, ohne daß eine Reinvestition freiwerdender Mittel in risikotragende Positionen erfolgt, bzw. Risikodeckungspotentiale anderer Teilportfolios zum Verlustausgleich mobilisiert werden. Die Interdependenz der Teilportfolios und die Dynamik des Risikomanagementprozesses wird dabei i. a. nicht korrekt erfaßt.
Die Prognseglite der Kovarianz-Matrizen ist hier kein spezisches Problem und wird in Kapitel 5.2.3 behandelt.
Es gibt bei Portfolios und somit bei multivariaten Zeitreihen verschiedene Kombinationsmöglichkeiten, je nach dem, ob auf der disaggregierten oder aggregierten Ebene kontemporär oder temporär aggregiert wird. Die Prognosen fallen i. a. unterschiedlich aus, wenn zuerst die univariaten Zeitreihen temporär und dann kontemporär, oder zuerst kontemporär und dann temporär aggregiert werden. Siehe hierzu ausführlich Lütkepohl, H. (Zeitreihen, 1986), S. 137 ff.
Die unrealistischen Prämissen, die zu zeitinvarianten Kovarianzmatrizen führen (siehe Kapitel 5.2.1) werden hier eben nicht akzeptiert. Der Rückgriff auf die unmittelbare Berechnung der Varianzen und Kovarianzen des jeweils adäquaten Zeithorizonts liefert i. a. unterschiedliche Kovarianzmatrizen und erhöht somit den Rechenaufwand drastisch.
Die drei Grenzwerte -1, 0 und 1 sind offensichtlich sinnvoll. Die Wahl der Anzahl und des Betrags der Werte zwischen null und eins ist willkürlich. Prinzipiell kommt jeder Wert in Frage. Die Auswertung sollte aber überschaubar bleiben. Der Rechenaufwand auf Portfolioebene hält sich dabei in engen Grenzen, da die vorgegebenen Korrelationen lediglich auf der Basis des Value at Risk der bereits kontemporär aggregierten Teilportfolios berücksichtigt werden.
Vgl. hierzu und zum folgenden Moser, H./Quast, W. (Organisation, 1994), S. 674 ff.; Wittrock, C./Jansen, S. (Gesamtbankrisikosteuerung, 1996), S. 915 f.
Im Prinzip müßte die exakte Zusammensetzung von Baskets, Indizes oder Fonds analysiert werden, um entsprechende Anteile zu ermitteln. Häufig wird darauf verzichtet.
Siehe auch BAK (Mindestanforderungen, 1995), Ziff. 3.2, S. 6.
Grundlegend hierzu Chew, L. (Shock Treatment, 1994), S. 69 f.
Buschgen führte im Frühsommer 1995 eine Befragung rund dreißig großer und größerer Banken in Deutschland, Österreich und der Schweiz zum Risikomanagement im Geschäft mit Derivaten durch, die von ihm allerdings als nicht oder nur bedingt repräsentativ bewertet wird. Eine Mehrheit antwortenden Banken gab an, die Aggregation über die Risikoarten hinweg zum Gesamtrisiko der Bank zu versuchen, wenngleich die möglichst exakte Risikoaggregation als aktuelles und umstrittenes Problemfeld angesehen wurde. Allerdings halten längst nicht alle Befragten ein solches Unterfangen für möglich oder sinnvoll. Vgl. Buschgen, H. E. (Risikomanagement, 1996), S. 18–24.
Vgl. stellvertretend für viele Moser, H./Quast, W. (Organisation, 1994), S. 674 ff.
Modifiziert nach Moser, H./Quast, W. (Organisation, 1994), S. 677, Abb. 4.
Die sinnvolle Aggregation der Risiken für verschiedene Aktivitäten und Produkte setzt voraus, daß bei der Berechnung des Value at Risk konsistente Annahmen wie Zeithorizonte angewendet werden müssen. Allerdings gaben mit 49% nur etwa die Hälfte der 1994 von der G30 befragten Unternehmen an, ein einheitliches Konfidenzintervall und einen einheitlichen Zeithorizont bei der Berechnung des Marktrisikos für verschiedene Derivate-Portfolios zu verwenden, geplant wurde dies von weiteren 29%. Vgl. Group of Thirty (Derivatives, 1994), S. 28 i. V. m. S. iv.
Vgl. hierzu BIS (Public Disclosure, 1994), S. 7; siehe auch BIZ (Risikomanagement, 1994), S. 190 (III Nr. 3 Satz 2). Allerdings haben viele Unternehmen noch keine hochentwickelten Risikoinformationssysteme, die das Gesamtunternehmen abdecken. Diese sollten dann zunächst die Teile des Unternehmens bzw. die Portfolios einbeziehen, für die solche Systeme vorhanden sind. Vgl. hierzu BIS (Public Disclosure, 1994), S. 7.
In Anlehnung an BIS (Public Disclosure, 1994), S. 8, bzw. BIZ (Offenlegung, 1994), S. 16.
Gemeint sind hier insbesondere alle bilanzwirksamen und bilanzneutralen Geschäfte, die nicht Handelszwecken dienen, wobei alle Kundengeschäfte und die Transaktionen der Zentraldisposition (Treasury) eingeschlossen sind.
Problematisch ist hier der sehr unterschiedliche Bindungsgrad der Positionen. Die Unterstellung einer einheitlichen Liquidationsdauer der Positionen dürfte kaum den realen Gegebenheiten entsprechen. Eine Aggregation von Value-at-Risk-Werten, die mit unterschiedlichem Zeithorizont ermittelt wurden, kann nicht zu sinnvollen Ergebnissen führen. Die Skalierung des Value at Risk von Positionen mit kurzer Haltedauer auf längere Perioden kann zu erheblichen Verzerrungen führen. Die Annahme von unrealistisch kurzen Liquidationszeiten kann auf der anderen Seite zu einer erheblichen und vor allem systematischen Unterschätzung des Verlustpotentials führen, wenn man davon ausgeht, daß mit längerer Halteperiode große Preisbewegungen wahrscheinlicher sind. Dieses Dilemma ist nicht ohne weiteres aufzulösen.
Vgl. stellvertretend für viele: Professoren-Arbeitsgruppe (Begrenzung, 1987), S. 286 ff.
Siehe auch Buschgen, H. E. (Bankbetriebslehre, 1993), S. 735.
Gelegentlich wird argumentiert, durch die Verwendung zweiseitiger Konfidenzintervalle könnten - Normalverteilung und somit Symmetrie unterstellt - die spiegelbildlich auftretenden Chancen leicht berücksichtigt werden. Gemessen wird dann das Risiko extremer Wertänderungen, gleich welcher Richtung. Der Value at Risk erhöht sich dadurch allerdings zwangsläufig, da bei gleicher Wahrscheinlichkeit der zum zweiseitigen Konfidenzintervall gehörende Multiplikator der Standardabweichung größer ist als der entsprechend einseitige, bspw. bei 90% 1,65 statt 1,28, bei 95% 1,96 statt 1,65 usw.
Formal stellt der Value at Risk die Inverse der Verteilungsfunktion F dar VaR = F-I(LPMo); siehe Gleichung 2.3–21.
Vgl. auch Schröder, M. (Value at Risk, 1996), S. 15 ff. Allerdings besteht bei Downside-Risikomaßen stets die Problematik differenziert zu ermitteln, „welche Seite“ unter Berücksichtigung des bestehenden Exposure zu Verlusten führt, wenn nicht von vollkommener Symmetrie ausgegangen werden kann. Dies wurde bereits erläutert.
Ein grundlegender Vorteil des Value at Risk als Risikomaß besteht darin, das Risiko der Renditeverteilung in einer einzigen Zahl zu erfassen und somit verschiedene Positionen einfach und auch intuitiv verständlich vergleichbar zu machen. Sofern neben dem Value at Risk als LPM5 weitere Lower Partial Moments höherer Ordnung zur Erfassung der Verteilungscharakteristika herangezogen werden sollen, ist zu erwarten, daß dieser Vorteil verlorengeht. Scheuenstuhl und Staas schlagen vor, die Lower Partial Moments bspw. bis zur vierten Ordnung in einer Kennzahl zusammenfassen, um ein aussage-kräftigeres Bild des Downside-Risikos zu erhalten. Vgl. Scheuenstuhl, G./Staas, C. (Aggregate Approach, 1997). Die umfassende empirische Prüfung und Bewährung in der praktischen Anwendung einer solchen Kennzahl, die theoretisch nicht fundiert wird, steht bislang aus. Scheuenstuhl und Staas legen erste, vielversprechende Testergebnisse vor. Da Risikoverbundeffekte nur schwer einzubeziehen sind, ist die Zusammenfassung nur bei LPM bereits aggregierter Renditeverteilungen, d. h. Verteilungen von Portfoliorenditen, möglich.
Allerdings ist der erforderliche paarweise Vergleich der Wahrscheinlichkeitsverteilungen bei einer nicht vorgegebenen, nicht endlichen Zahl von Alternativen nicht handhabbar. Vgl. Bawa, V. S. (Safety First, 1978), S. 255.
Lower Partial Moments sind für beliebige Renditeverteilungen anwendbar. Sie liefern allgemein nur approximative Lösungen des Safety-First-Problems. Bei Normalverteilung, Student-tVerteilung (und anderen zwei-Parameter-Verteilungen der sog. Location-Scale-Klasse) bieten sie allerdings die exakte Lösung. Vgl. Schröder, M. (Value at Risk, 1996), S. 12 m. w. N.
Vgl. Schröder, M. (Value at Risk, 1996), S. 11 ff. und Bawa, V. S./Lindenberg, E. B. (Equilibrium, 1977), S. 199 f.
Schröder zeigt einen entsprechenden LPM, Value at Risk-Ansatz. Siehe Schröder, M. (Value at Risk, 1996), S. 12 ff. und auch dem. (Value-at-Risk-Ansatz, 1996), S. 81 ff.
Vgl. Schröder, M. (Value at Risk, 1996), S. 11. Grundlegend hierzu Bawa, V. S./Lindenberg, E. B. (Equilibrium, 1977), S. 189 ff.
Hierzu grundlegend Neumann, J./Morgenstem, O. (Theory, 1953); Bamberg, G./Coenenberg, A. G. (Entscheidungslehre, 1996), S. 80 ff. Siehe auch Francis, J. C./Archer, St. A. (Portfolio Analysis, 1979), S. 347 ff. und S. 361 ff.; Bawa, V. S./Lindenberg, E. B. (Equilibrium, 1977), S. 191 f. und Bawa, V. S. (Safety First, 1978), S. 255 ff., insbesondere S. 258 f.
Fishbum, P. C. (Mean-Risk Analysis, 1977), S. 119; im Original heißt es „a = 1“ aufgrund anderer Notation der Exponenten [A. d. Verf.].
Siehe hierzu grundlegend Bawa, V. S. (Safety First, 1978), S. 255 ff. und Fishbum, P. C. (Mean-Risk Analysis, 1977), S. 116 ff. Vgl. auch Schröder, M. (Value at Risk, 1996), S. 11 ff. LPM0 ist ein allg. Risikomaß, das bei allen Nutzenfunktionen anwendbar ist. Es entspricht im Kontext der Entscheidungstheorie der Stochastischen Dominanz erster Ordnung. LPMZ und LPM2 sind speziellere Risikomaße, die erst beim Vorliegen der entsprechenden Risikoaversion angewandt werden sollten. LPMZ und LPM2 entsprechen analog Stochastische Dominanz zweiter und dritter Ordnung. Allgemein entspricht der Stochastischen Dominanz n-ter Ordnung das Lower Partial Moment (n-1). Vgl. Bawa, V. S. (Safety First, 1978), S. 258 f. u. S. 268 sowie Schröder, M. (Value at Risk, 1996), S. 11 m. w. N.
Guthoff, Pfingsten und Wolf weisen im übrigen darauf hin, daß die Anerkennung der internen Modelle auf Basis des Value at Risk einen unerwünschten Anreiz zur höheren Risikoübernahme seitens der Kreditinstitute führen kann, sofern sie von risikoaverser (anhand von LPM1) auf risikoneutrale Altemativenauswahl (anhand von VaR als LPM0) bei der Portfoliozusammenstellung übergehen. Vgl. Guthoff, A./Pfingsten, A./Wolf, A. (Value at Risk, 1997), S. 22.
Zu Gunsten des Value at Risk ließe sich argumentieren, daß der Value at Risk als LPM0 die geringsten Anforderungen hinsichtlich der Nutzenfunktion bzw. Risikopräferenz stellt und somit von allen Downside-Risikomaßen die breiteste Einsatzmöglichkeit besitzt.
Dabei können allerdings ungewohnte Effekte auftreten, die mit der unterschiedlichen Wirkung von Risikoausgleichseffekten im Vergleich zur Portfolio Selection (Erwartungswert-VarianzOptimierung) zusammenhängen. Siehe hierzu ausführlich Spremann, K. (Diversifikation, 1997), S. 865 ff.
Vgl. hierzu und zum folgenden Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 10 ff. Und Jorion, P. (Value at Risk, 1997), S. 281 ff. Jordan und Mackay führen darüber hinaus auch Hedging als Einsatzgebiet an. Vgl. Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 11 f.
Grundsätzlich besteht bei der Informationsverdichtung mit Hilfe von Value at Risk die Notwendigkeit, zwischen der erwünschten Verdichtung der Information in einer einzigen Kennzahl und dem gerade dadurch bedingten Verlust entscheidungsrelevanter Information abzuwägen. Sofern die Verdichtung der Risikoinformation in einer Zahl unangebracht erscheint, kann auf die Darstellung der gesamten Wahrscheinlichkeitsverteilung der Ergebnisse der Position oder des Portfolios zurückgegriffen werden. Dies bietet sich insbesondere bei Positionen mit stark nichtlinearen Bewertungsfunktionen, bestimmten Schwellenwerten (Caps, Floors, Collars) oder atypischer Wertentwicklung (z. B. bei komplexen Derivatestrategien) an. ätzlich sinnvoll, da neben dem Exposure die Wahrscheinlichkeit von Verlusten in die Betrachtung einbezogen wird. Vgl. hierzu und zum folgenden J.P. Morgan/Reuters (Technical Document, 1996), S. 33 f.;
Jorion, Ph. (Value at Risk, 1997), S. 285 ff. Kritisch zur Verwendung des Value at Risk bei der Limitierung BIZ (Offenlegung, 1994), S. 17. Im Original BIS (Public Disclosure, 1994), S. 9 f.
Vgl. hierzu und zum folgenden Daube, C. H. (Risikomanagement, 1995), S. 16. Siehe auch Gottschalk, H. D./Renner, M. (Risikosteuerung, 1992), S. 524 ff. und Hagen, P./Jakobs, W. (Risikosteuerung, 1995), S. 664 ff.
Bei Risikoäquivalenten handelt es sich um normierte Positionen, bspw. ein 5-jähriges Wertpapier, auf die sämtliche Positionen umgerechnet werden. Zur Limitierung wird dann ein maximales Volumen für das Risikoäquivalent vorgegeben. Das Volumenslimit wird mit spezifischen Preissensitivitäten verbunden.
Vgl. hierzu und zum folgenden Rudolph, B. (Risikomanagement, 1993), S. 127 f. und Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 104 f.
Modifiziert nach Groß, H./Knippschild, M. (Risikocontrolling, 1995), S. 96.
Eine zu rasche Anpassung des Risikokapitals kann die Transparenz des Risikomanagementsystems beeinträchtigen. Daher wird der Handlungsspielraum oftmals fest vorgegeben. Vgl. Rudolph, B. (Risikomanagement, 1993), S. 127.
Modifiziert nach Jorion, Ph. (Value at Risk, 1997), S. 286 und J.P. Morgan/Reuters (Technical Document, 1996), S. 33.
Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 33.
Vgl. Jordan, J. V./Mackay, R. J. (Value at Risk, 1995), S. 10.
Siehe hierzu bspw. Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 100 und S. 104 f.
Soll der täglich berechnete Value at Risk innerhalb eines Value-at-Risk-Limits gehalten werden, so ist dies in Anbetracht der oftmals starken Schwankungen des Value at Risk ähnlich problematisch. Auch hier wird eine vollständige Ausschöpfung des Limits nicht in Frage kommen.
Die Repräsentativität der Stützperiode für die Halteperiode mag nicht gegeben sein. Bereits dies kann, je nach Value-at-Risk-Methode, für eine systematische Fehleinschätzung der eingegangenen Risiken in beiden Richtungen ausschlaggebend sein. Mit der Risikobereitschaft der Händler muß dies in keinerlei Zusammenhang stehen.
Im Gegensatz setzt das Überschreiten eines Volumenslimits i. a. eine entsprechende Vergrößerung der Position durch Geschäftsabschlüsse voraus und kann vom Händler gezielt verhindert werden.
Dies gilt insbesondere bei exponentieller Glättung und kurzem Zeithorizont, da hier die Volatilität und somit der Value at Risk oftmals zu erratischen Schwankungen neigt.
Dieses Dilemma teilt der Value at Risk mit den anderen verlustorientierten Limiten. Ob das Realisieren eines Verlustes oder das Abwarten einer Gegenbewegung ratsam ist, kann a priori allenfalls intuitiv entschieden werden. Statistik kann Erfahrung nicht ersetzen.
Bei der Umschichtung der Position können genau diejenigen Positionen in das Portfolio aufgenommen werden, die ihren Wertverlust noch vor sich haben. Auch dies ist kein spezifisches Problem des Value at Risk.
Diese stellen den maximal tolerierten Gesamtverlust der Handelseinheit in einem bestimmten Betrachtungszeitraum dar. Beim Erreichen von Stop-Loss-Limits wird ein verbindlicher Meldeprozeß ausgelöst, der mit einem Aktionsplan gekoppelt werden sollte. Meist ist die sofortige Schließung der Verlustpositionen vorgesehen. Zu klären ist, ob und in welcher Höhe anschließend eine Neuallokation von Ressourcen und Limiten erfolgen soll. Im Extremfall müßte der Handel bis zum Ende des entsprechenden Planungszeitraumes eingestellt werden. Empfohlen wird, Stop-Loss-Limite durch ein vorgeschaltetes Frühwarnsystem zu ergänzen, das signalisiert, daß bei unveränderter Performance-Entwicklung das Stop-Loss-Limit in der Budgetperiode erreicht werden wird. Vgl. Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 104.
Vgl. Krumnow, J. (Implikationen, 1994), S. 747.
Zu den Begriffen siehe bspw. Krumnow, J. (Implikationen, 1994), S. 746 und Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 99 f.
Vgl. hierzu und zum folgenden Hagen, P./Jacobs, W. (Marktrisikosteuerung, 1996), S. 638 f.
Siehe hierzu BAK (Entwurf Grundsatz I, 1997), § 32 Abs. 2, S. 45 und BAK (Erläuterungen Grundsatz I, 1997), S. 134 f.
Die Mindestanforderungen an das Betreiben von Handelsgeschäften der Kreditinstitute heben die Bedeutung der risiko-und ertragsorientierten Steuerung von Handelsgeschäften hervor. An das einzurichtende Risiko-Controlling-und -Management-System werden hohe Anforderungen gestellt, aber ein konkretes Modell oder Konzept wird nicht vorgeschrieben. Die Value-at-RiskMethode wird in den Erläuterungen der Bundesbank und von Artopoeus aber explizit genannt. Insofern steht dem Einsatz von Value-at-Risk-Limiten nichts entgegen, sofern die geforderten Rahmenbedingungen (Erfassung, Marktbewertung, Berichterstattung, Organisation usw.) gewährleistet werden. Siehe BAK (Mindestanforderungen, 1995), insbes. Ziff. 3.2, S. 6 f.
Vgl. auch Jacob, K.-D. (Mindestanforderungen, 1995), S. 479 ff.; Casteel, W./Krüppel, W. (Anforderungen, 1996), S. 10 ff.; Artopoeus, W. (Handelsgeschäfte, 1996), S. 149 ff. insbes. S. 154 und o. V. (Mindestanforderungen, 1996), S. 55 ff. Vgl. BAK (Mindestanforderungen, 1995), Ziff. 3.2, S. 6.
Die notwendige Abstimmung der Händler untereinander erfordert schnellen und permanenten Informationsfluß sowie gute Kommunikation, um die Aufteilung des Gruppenlimits zu koordinieren. Ist die Verantwortung für eine Gruppenlimitüberschreitung nicht klar abgegrenzt, birgt dies erhebliches Konfliktpotential, sofern die Ursache nicht eindeutig feststeht. Das ganze Team bzw. der Leiter ist für mangelnde Koordination zur Rechenschaft zu ziehen. Im Fall der Gesamt-Limitüberschreitung ist zudem festzulegen, welcher Händler Positionen glattstellen und ggf. Verluste zu Lasten seiner Performance realisieren muß. Dieser hilft zwar der ganzen Gruppe, die Vorgaben einzuhalten, sein persönliches Handelsergebnis wird aber ggf. belastet. Auch dies ist problematisch. Vgl. Steiner, M./Raulin, G. (Eigenoptionshandel, 1992), S. 471 f.
Ein anderes Verfahren ist die Vergabe von Primär-und ein Sekundärlimiten. Letztere stellen temporäre Zusatzlimite dar, die kurzfristig vom nächsthöheren Verantwortlichen gewährt werden können. Die kurzfristige Überschreitung des Primärlimits wird so einer institutionalisierten Überwachung unterworfen und ohne weitere Berichte und Genehmigungen im Vorfeld gesteuert. Vgl. Buschmann, W. F. (Risiko-Controlling, 1992), S. 728.
In der Praxis wird bei der Ermittlung von Risikoausgleichseffekten zwischen organisatorischen Einheiten gerne auf die Korrelation der Ergebnisentwicklung der Abteilungen oder Geschäftseinheiten in der Vergangenheit zurückgegriffen. Dies ist ausgesprochen problematisch, da die Voraussetzungen der Stabilität i. d. R. nicht gegeben sind. Vor allem aufgrund der steten Veränderung der Zusammensetzung der Teilportfolios im Zeitablauf ist dies unzulässig. Darauf wird im folgenden Kapitel näher eingegangen.
Durch die Begrenzung nicht nur der absoluten Größe der Position, sondern auch der relative Größe in bezug auf den Umsatz am Gesamtmarkt oder das Open Interest, soll auch sichergestellt werden, daß eine Position kurzfristig bzw. in der üblichen Frist liquidierbar ist.
Durch Konzentrationslimite sollen einseitig strukturierte Portfolios vermieden werden. Trigger-Limite generieren Signale, die eine gezielte Überwachung gewünschter Portfoliostrukturen ermöglichen.
Vgl. hierzu Groß, H./Knippschild, M. (Risikosteuerung, 1996), S. 105.
Vgl. hierzu und zum folgenden Schierenbeck, H. (Bankmanagement, 1994), S. 504 ff.; ders. (Konzeption, 1995), S. 4 ff. sowie ders. (Risiko-Controlling, 1996), S. 3 ff.
Schierenbeck unterscheidet vier Risikodeckungspotentiale bzw. Deckungsmassen in Kreditinstituten. Siehe auch Schierenbeck, H. (Bankmanagement, 1994), S. 505, Abb. 240.
Vgl. Schierenbeck, H. (Risiko-Controlling, 1996), S. 3.
Vgl. Schierenbeck, H. (Bankmanagement, 1994), S. 507. 1005 Vgl. Schierenbeck, H. (Bankmanagement, 1994), S. 508.
Theoretisch könnte für die oben genannte Ungleichung, die sog. Gleichgewichtsbedingung, eine Wahrscheinlichkeit von 100% gefordert werden. Absolute Sicherheit bzw. vollkommene Risikovermeidung zu fordern, ist jedoch einerseits in der Praxis nicht durchzuhalten und andererseits auch nicht sinnvoll, da anderenfalls keinerlei risikobehaftete Geschäfte mehr getätigt werden dürften. Dies entspricht nicht der Zielsetzung der Finanzintermediäre. Es ist vielmehr notwendig, für verschiedene Belastungsfälle ein tolerierbares Restrisiko zu fixieren - abgestimmt auf die Art der Risiken und die Wahrscheinlichkeit der Verluste.
Vgl. hierzu und zum folgenden Schierenbeck, H. (Konzeption, 1995), S. 9 ff.
Dann sind Aussagen wie die folgende möglich: Mit 95% Wahrscheinlichkeit liegt der Value at Risk, der mit einem Konfidenzniveau von (1-a) ermittelt wurde, im Intervall [X, Y].
Vgl. hierzu Jorion, Ph. (Value at Risk, 1997), S. 99 ff. und Jorion, Ph. (Risk2, 1996), S. 50 f. In Abhängigkeit vom Konfidenzniveau und dem Umfang der Stichprobe kann der asymptotische Schätzfehler als Standardfehler des Stichproben-Quantiles angegeben werden. Der Schätzfehler der Berechnung des Value at Risk anhand der Stichprobenstandardabweichung läßt sich entsprechend ermitteln. Diese Beziehungen können genutzt werden, um den erwarteten Schätzfehler des Value at Risk als Vertrauensbereich (s. Anhang 13) anzugeben.
Zwar wird zu Recht gefordert, daß das Verlustpotential keinesfalls die gesamte zur Verfügung stehende Deckungsmasse übersteigen darf, da sonst die Überschuldung eintritt. In der Praxis ist aber bei der Bemessung und Bewertung des Worst-Case-Szenarios ein großer Spielraum gegeben. Der Umfang der Vorsorge für das maximale Verlustpotential, für den Fall daß sämtliche Risiken gleichzeitig (!) schlagend werden, wird bei der Überprüfung der Risikotragfähigkeit stets von der Risikobereitschaft der Geschäftsleitung bestimmt werden. Auf jeden Fall ist die Limitierung, die differenzierte Vergabe von Risikolimiten für die einzelnen Geschäftsbereiche eine ureigenste Aufgabe der Geschäftsleitung. Dies wird nicht zuletzt in den Mindestanforderungen des BAK deutlich herausgestellt. Vgl. BAK (Mindestanforderungen, 1995), S. 2 ff.
Vgl. hierzu und zum folgenden Schierenbeck, H. (Konzeption, 1995), S. 14 ff. und ders. (Risiko-Controlling, 1996), S. 3 ff.
Somit ergibt sich eine methodische Gleichbehandlung von Ausfall-und Marktrisiken, die eine Konzeption des integrierten Risikomanagements charakterisiert. Für eingegangene Kredit-und Ausfallrisiken werden ebenfalls zumindest im langfristigen Durchschnitt auskömmliche Risikokosten veranschlagt.
Auf die Berechnung und Verrechnung von Risikoprämien für Marktrisiken wird hier nicht näher eingegangen. Hinsichtlich der Integration von Markt-und Ausfallrisiken besteht weiterer Forschungsbedarf. Siehe hierzu ausführlich Schierenbeck, H. (Konzeption, 1995), S. 14 ff.
Vgl. hierzu und zum folgenden Groß, H./Knippschild, M. (Risikocontrolling, 1995), S. 100 ff.; dies. (Risikosteuerung, 1996), S. 106 ff.; Bürger, P. (Risikocontrolling, 1995), S. 250 f.; Beck-ström, R. et al. (VAR, 1994), S. 13 f.; Wilson, Th. C. (Risk Capital, 1996), S. 194 ff.;Glossman, D. B. et al. (Risk Management, 1993), S. 1 ff. und James, Ch. (RAROC, 1996), S. 3 ff.
Der Oberbegriff risikoadjustierter Kennzahlen ist RAPM Risk Adjusted Performance Measures. Vgl. Wilson, Th. C. (Risk Capital, 1996), S. 195 f. Die Unterscheidung zwischen RORAC, Return on Risk Adjusted Capital, und RAROC, Risk Adjusted Return on Capital, sowie RARORAC, Risk Adjusted Return on Risk Adjusted Capital, ist für die folgenden Ausführungen nicht relevant. RAROCTM wurde von Bankers Trust eingeführt. Vgl. Bankers Trust (RAROC, 1995).
Diese Relation entspricht einem modifizierten Sharpe-Ratio. Siehe Kapitel 2.3.2.2.6.
Vgl. J.P. Morgan/Reuters (Technical Document, 1996), S. 34 f.
Die Skalierung, meist Annualisierung, des Sharpe-Ratios erfolgt unter den bereits diskutierten üblichen Annahmen nach dem Wurzelgesetz. Analoge Kritik ist daher gerechtfertigt. Vgl. hierzu Sharpe, W. F. (Sharpe Ratio, 1994), S. 51. Die Kalkulation der Erträge erfolgt bei der Umsetzung sehr unterschiedlich. Teilweise werden Brutto-, teilweise Nettoergebnisse herangezogen. Die Verwendung von Plan-statt Istwerten ist üblich. Entsprechend des Sharpe-Ratios sollten Überschußrenditen herangezogen werden. Dies wird hier nicht vertieft. Maßgebend für die Risikokapitalallokation ist die Einheitlichkeit der Berechnung, wie immer diese im Einzelfall gestaltet wird. Zu beachten ist, daß Erträge einen Zeitraumbezug besitzen, der Value at Risk dagegen zeitpunktbezogen ermittelt wird.
Vgl. Schröder, M. (Value at Risk, 1996), S. 94 ff.
Eine Richtung der aktuellen Forschung ist die unmittelbare Schätzung von Verteilungsenden und Extremwerten. Die Basis des sog. Maximum Loss sind Worst-Case-Szenarien, die analytisch leichter handhabbar sind als die gesamte Gewinn-und Verlustverteilung. Sie gelten als aussagekräftiger als Quantile. Siehe hierzu bspw. Boudoukh, J. et al. (Market Risk, 1995), S. 100 f.; Studer, G. (Maximum Loss Optimization, 1995); Studer, G./Lüthi, H.-J. (Maximum Loss, 1996); dies. (Maximum Loss, 1997); Longin, F. M. (VaR, 1997) und Embrechts, P. et al. (Extremal Events, 1997).
Die RORAC- und RAROC-Betrachtung beschränkt sich nicht auf Marktrisiken, sondern bezieht Kreditrisiken, Länderrisiken und operative Risiken ein.
Rights and permissions
Copyright information
© 1999 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Meyer, C. (1999). Eignung des Value at Risk zur Risikoquantifizierung auf Gesamtbankebene. In: Value at Risk für Kreditinstitute. Bank- und Finanzwirtschaft. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-08173-9_5
Download citation
DOI: https://doi.org/10.1007/978-3-663-08173-9_5
Publisher Name: Deutscher Universitätsverlag, Wiesbaden
Print ISBN: 978-3-8244-6763-1
Online ISBN: 978-3-663-08173-9
eBook Packages: Springer Book Archive