Zusammenfassung
Zielsetzung dieses Kapitels ist es, dem Leser einen einführenden Einblick in die „Werkzeugkiste“ zur Durchführung eines Risk Assessments zu bieten. In einem ersten Schritt werden unterschiedliche Methoden (Kollektionsmethoden, analytische Methoden und Kreativitätsmethoden) zur Identifikation von Risiken (und Chancen) vorgestellt. Anschließend werden Methoden vorgestellt, mit deren Hilfe Risiken (fundiert) bewertet werden können. Außerdem werden Ansätze zur Aggregation von Risiken sowie zur anschließenden Priorisierung von Maßnahmen zur Risikosteuerung beschrieben.
Die Kenntnis der adäquaten Werkzeuge und eines wirksamen Vorgehens für die Risikoidentifikation, -analyse und -bewertung ist von einer besonderen Relevanz für den kompletten Risiko-Management-Prozess, da dieser erster Prozessschritt die Grundlagen für die anschließenden Prozessphasen liefert.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
Vgl. vertiefend Kap. 2.
- 2.
Vgl. Kahn und Wiener (1967, S. 6).
- 3.
Vgl. Kahn und Wiener (1967, S. 6).
- 4.
- 5.
- 6.
Vgl. hierzu vertiefend Romeike (2019a).
- 7.
- 8.
Vgl. Ferdous, Khana, Sadiq, Amyotte, Veitch (2013).
- 9.
Vgl. Kjølle, Utne und Gjerde (2012, S. 81).
- 10.
Das EBIT (Abkürzung aus englisch earnings before interest and taxes, deutsch „Gewinn vor Zinsen und Steuern“), auch als operatives Ergebnis bezeichnet, ist eine betriebswirtschaftliche Kennzahl und sagt etwas über den erzielten Bruttogewinn eines Unternehmens in einem bestimmten Zeitraum, etwa ein Geschäftsjahr, aus.
- 11.
Im Gegensatz hierzu sind multivariate Verteilungen in der Wahrscheinlichkeitsrechnung und in der Statistik die Verteilung eines Zufallsvektors, die auf einem Wahrscheinlichkeitsraum definiert ist.
- 12.
Ein Anpassungstest (goodness-of-fit test) ist in der schließenden Statistik ein nichtparametrischer Hypothesentest, der die unbekannte Wahrscheinlichkeitsverteilung einer Zufallsvariablen auf (annäherndes) Folgen eines bestimmten Verteilungsmodells (beispielsweis einer Weibull- oder Normalverteilung) prüfen soll. Es geht um die Hypothese, dass eine vorliegende Stichprobe aus einer Verteilung mit einer bestimmten Verteilungsfunktion stammt.
- 13.
- 14.
Was in der Praxis nur selten der Fall sein wird. Die Binomialverteilung beschreibt die Anzahl der Erfolge in einer Serie von gleichartigen und unabhängigen Versuchen, die jeweils genau zwei mögliche Ergebnisse haben („Erfolg“ oder „Misserfolg“). Solche Versuchsserien werden auch Bernoulli-Prozesse genannt. Im Risiko-Management bedeutet dies, dass ein Risiko entweder eintritt oder nicht und bei einem Eintritt ein fixer Schaden eintreten wird.
- 15.
Vgl. hierzu vertiefend Artzner, Delbaen, Eber und Heath (1999).
- 16.
Im Risiko-Management und in der Wahrscheinlichkeitstheorie ist eine Verteilung mit schweren Rändern oder Heavy-tailed-Verteilung eine Verteilung, deren Dichte langsamer als exponentiell fällt. Anschaulich besagt der Begriff, dass auf den „Rändern“ beziehungsweise den „Schwänzen“ der Verteilung mehr Masse liegt als beispielsweise bei der Exponentialverteilung. Es gibt drei wichtige Unterklassen von Verteilungen mit schweren Rändern: die Verteilungen mit fetten Verteilungsenden („fat tails“), die Verteilungen mit langen Verteilungsenden („long tails“) und die subexponentiellen Verteilungen.
- 17.
Vgl. hierzu vertiefend Artzner, Delbaen, Eber und Heath (1999).
- 18.
Dies würde auch bedingen, dass ein Unternehmen tatsächlich alle potenziellen Risiken und Stressszenarien identifiziert hat und in der Analyse berücksichtigt.
- 19.
So werden bestimmte Maßnahmen auf die Häufigkeit eines Schadenszenarios auswirken und andere Maßnahmen eher auf die Schadenshöhe oder die Schwankungsbreite.
- 20.
Die sogenannten Tensor Processing Units (TPUs) sind anwendungsspezifische Computerchips, die von Google entwickelt wurden, um Anwendungen im Rahmen von maschinellem Lernen zu beschleunigen. Die dritte Generation wurde im Jahr 2018 vorgestellt. Die TPU 3.0 Pods bestehen aus 8 Racks mit insgesamt 1024 TPUs und 256 Server-CPUs. Die Rechenleistung von einem Pod liegt bei knapp über 100 PFLOPS (Floating Point Operations Per Second, d. h. Gleitkomma-Operationen pro Sekunde).
- 21.
Der US-amerikanische Zukunftsforscher und Director of Engineering bei Google, Ray Kurzweil, weist darauf hin, dass wir heute für 1000 Dollar etwa die Leistungsfähigkeit des Gehirns einer Maus mit rund 100 Millionen Nervenzellen kaufen können – bei einer Vertausendfachung wären wir im Jahr 2040 dann beim Komplexitätsgrad des menschlichen Gehirns angelangt. Vgl. Kurzweil (2012), S. 257 f.
- 22.
Der englische Begriff „Artificial Intelligence“ (AI) wird nur allzu häufig mit „Künstlicher Intelligenz“ übersetzt. Dabei bedeutet „Intelligence“ viel mehr Informationsverarbeitung. „Die Central Intelligence Agency heißt ja auch nicht so, weil die so gescheit sind“, sagt der österreichische Kybernetiker, Artificial-Intelligence-Experte und emeritierter Universitätsprofessor Robert Trappl. AI beschäftigt sich im Kern mit der Nachbildung menschenähnlicher Entscheidungsstrukturen durch Algorithmen. Das heißt ein Computer wird so programmiert, dass er eigenständig Probleme bearbeiten kann, beispielsweise Auto fahren, Texte übersetzen oder Go spielen. AI wiederum untergliedert sich in viele weitere Teilgebiete. Ein Anwendungsfeld liegt etwa darin, dass aus einer großen Menge von Daten eine allgemeine Regel abgeleitet wird oder Wissen aus Erfahrung „künstlich“ generiert wird („maschinelles Lernen“).
- 23.
Vgl. Coulom (2006).
- 24.
Vgl. Kocsis, Szepesvari und Willemson (2006).
- 25.
Vgl. vertiefend Romeike (2019b, S. 45 ff.).
- 26.
In der Praxis dominieren heute primär Methoden, die einfache (lineare) Ursache-Wirkungs-Zusammenhänge abbilden (siehe Korrelation, lineare Regression), obwohl Systeme tatsächlich eher nicht-linear, hochgradig vernetzt und komplex sind. So existieren beispielsweise Rückkopplungsschleifen („Feedback-Loops“) und mehrere Prozesse laufen abhängig und unabhängig voneinander parallel ab. Winzige Ereignisse können in solchen hochgradig komplexen Systemen zu stark unter- oder überproportionalen Ergebnissen führen (siehe „Schmetterlingseffekt“).
- 27.
Economist Intelligence Unit (2014): Retail banks and big data. Big data as the key to better risk management; http://www.eiuperspectives.economist.com/financial-services/retail-banks-and-big-data/white-paper/retail-banks-and-big-data-big-data-key-better-risk-management (abgerufen am 4. Juli 2019).
- 28.
Financial Stability Board (2017).
- 29.
Vgl. hierzu vertiefend Martin, Quell und Wehn (2013).
- 30.
Vgl. Hassani und Silva (2015).
- 31.
Vgl. Silver (2013).
Literatur
Artzner, P./Delbaen, F./Eber, J.-M./Heath, D.: Coherent Measures of Risk, in: Mathematical Finance, Volume 9, Issue 3, July 1999, S. 203–228.
Albrecht, P./Maurer, R.: Investment- und Risikomanagement, 4. Auflage, Schäffer Poeschel Verlag, Stuttgart 2016.
Bohmfalk, T.-B./Romeike, F.: Stochastische Szenarioanalyse bei der CCC AG, in: GRC aktuell, Ausgabe Mai 2018, 02/2018, S. 87–92.
Coulom, R.: Effcient selectivity and backup operators in Monte-Carlo tree search. In: International Conference on Computers and Games Springer, 2006, S. 72–83.
Ferdous, R./Khan, F./Sadiq, R./Amyotte, P./Veitch, B.: Analyzing system safety and risks under uncertainty using a bow-tie diagram: An innovative approach, in: Process Safety and Environmental Protection, Vol. 91, 2013, S. 1–18.
Financial Stability Board: Artificial intelligence and machine learning in financial services – Market developments and financial stability implications, November 2017.
Fink, A./Siebe, A.: Szenario-Management – Von strategischem Vorausdenken zu zukunftsrobusten Entscheidungen, Campus Verlag, Frankfurt a. M. 2016.
Fleischer, K./Gleißner, W.: Der Variationskoeffizient als Risikokennzahl in wertorientiertem Controlling und in Krisenfrühwarnsystemen, Teil 1, in: KRP – Kredit & Rating Praxis, 6/2016, S. 15–19.
Fleischer, K./Gleißner, W.: Der Variationskoeffizient als Risikokennzahl in wertorientiertem Controlling und in Krisenfrühwarnsystemen, Teil 2, in: KRP – Kredit & Rating Praxis, 1/2017, S. 11–13.
Gleißner, W.: Die Aggregation von Risiken im Kontext der Unternehmensplanung, in: ZfCM – Zeitschrift für Controlling & Management, Heft 5/2004, S. 350–359.
Gleißner, W.: Risikomaße und Bewertung (Serie), in: Risiko Manager, Ausgabe 12/13/14/2006, S. 1-11/17-23/14-20.
Gleißner, W.: Die Risikoaggregation: Früherkennung „bestandsbedrohender Entwicklungen“, in: Der Aufsichtsrat, 13. Jg., Nr. 4, 2016, S. 53–55.
Gleißner, W.: Grundlagen des Risikomanagements, 3. Auflage, Vahlen Verlag, München 2017.
Gleißner, W./Romeike, F.: Risikomanagement – Umsetzung, Werkzeuge, Risikobewertung, Freiburg i. Br. 2005.
Götze, U.: Szenario-Technik in der strategischen Unternehmensplanung, Deutscher Universitätsverlag, Wiesbaden 1993.
Hassani, H./Silva, E. S.: Forecasting with Big Data: A Review. Annals of Data Science 2 (1) 2015.
Kahn, H./Wiener, A. J.: The Year 2000: A Framework for Speculation on the Next Thirty-Three Years, MacMillan, New York 1967.
Kjølle, G. H./Utne, I. B./Gjerde, O.: Risk analysis of critical infrastructures emphasizing electricity supply and interdependencies, in: Reliability Engineering and System Safety, Vol. 105, 2012, S. 80–89.
Kocsis, L./Szepesvari, C./Willemson, J.: Improved montecarlo search, in: Univ. Tartu, Estonia, Tech. Rep 1 (2006).
Kurzweil, R. (2012): How to Create a Mind: The Secret of Human Thought Revealed, Viking Books, New York 2012.
Martin, M. R. W./Quell, P./Wehn, C. S. (Hrsg.): Modellrisiko und Validierung von Risikomodellen – Regulatorische Anforderungen, Verfahren, Methoden und Prozesse, Bank-Verlag, Köln 2013.
Romeike, F.: Risikomanagement, Springer Verlag, Wiesbaden 2018a.
Romeike, F.: Toolbox – Reifegrade definieren Methoden, in: GRC aktuell, Ausgabe Februar 2018, 01/2018b, S. 41–45.
Romeike, F.: Stochastische Investitionssimulation. Seriöser Umgang mit Unsicherheit bei Investitionsplanungen, in: CFO aktuell, Ausgabe Juli 2018c, S. 167–172.
Romeike, F.: Toolbox – Fehlermöglichkeits- und Einflussanalyse (FMEA), in: GRC aktuell, Ausgabe Mai 2018, 02/2018d, S. 73–77.
Romeike, F.: Toolbox – Die Bow-Tie-Analyse, in: GRC aktuell, Ausgabe Februar 2019, 01/2019a, S. 39–44.
Romeike, F.: Risk Analytics und Artificial Intelligence im Risikomanagement, in: Rethinking Finance, Ausgabe 03/2019, Juni 2019b, S. 45–52.
Romeike, F./Stallinger, M.: Bandbreiten- bzw. Korridorplanung – Integration von Risikomanagement und Unternehmensplanung, in: Risk, Compliance & Audit (RC&A), 06/2012, S. 12–21.
Romeike, F./Spitzner, J.: Von Szenarioanalyse bis Wargaming – Betriebswirtschaftliche Simulationen im Praxiseinsatz, Wiley Verlag, Weinheim 2013.
Romeike, F./Eicher, A.: Predictive Analytics: Looking into the future, in: FIRM Yearbook 2016, p. 168–171.
Ruijter, A. de/Guldenmund, F.: The bowtie method: A review, in: Safety Science, Vol. 88, 2016, S. 211–218.
Silver, N.: The Signal and the Noise: The Art and Science of Prediction, Penguin Books, New York 2013.
von Reibnitz, U.: Szenario-Technik. Instrumente für die unternehmerische und persönliche Erfolgsplanung, Gabler-Verlag, Wiesbaden 1992.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 2020 Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Romeike, F., Hager, P. (2020). Methoden zur Identifikation und Bewertung von Risiken. In: Erfolgsfaktor Risiko-Management 4.0. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-29446-5_3
Download citation
DOI: https://doi.org/10.1007/978-3-658-29446-5_3
Published:
Publisher Name: Springer Gabler, Wiesbaden
Print ISBN: 978-3-658-29445-8
Online ISBN: 978-3-658-29446-5
eBook Packages: Business and Economics (German Language)