Zusammenfassung
KI Systeme haben längst ihren Einzug in den Alltag moderner Gesellschaften gefunden. Sie treffen autonome Entscheidungen, beeinflussen den Alltag von Menschen und können mit rechtlichen Bestimmungen in Konflikt stehen. Die mangelnde Transparenz von KI Systemen wird zunehmend zu einem Problem und ist angesichts der technischen Möglichkeiten zu einem gewissen Grad auch eine bequeme Ausrede derer, die die Systeme entwickeln oder einsetzen. Der vorliegende Beitrag entmystifiziert KI und diskutiert die Rolle von Transparenz und Erklärbarkeit von KI Systemen anhand konkreter Beispiele.
Notes
- 1.
(U. S. Department of Justice 2017b).
- 2.
(U. S. Department of Justice 2017a).
- 3.
(Office of the Conptroller of the Currency 2018).
- 4.
Es existieren öffentlich zugängliche Datensätze für Experimente, siehe zum Beispiel: https://github.com/gastonstat/CreditScoring. Zugegriffen am 02.05.2018.
- 5.
Ein aktueller Ansatz zur Klassifizierung von Bildern auf Basis von Neuronalen Netzen verwendet 60 Millionen Parameter und 650 Tausend künstliche Neuronen und wird in der Maschine durch große Matrizen abgebildet. Die Matrizen werden im Rahmen der Trainingsphase erstellt und die Klassifizierung eines Bildes besteht im Wesentlichen darin, dass Matrixoperationen (z. B. Multiplikationen) durchgeführt werden (Krizhevsky et al. 2012).
- 6.
Zur Bewertung von eines KI Systems zur binären Klassifikation verwendet man üblicherweise zwei Metriken: Precision und Recall. Diese repräsentieren die Genauigkeit und die Trefferquote und erlauben Aussagen über die richtigen Ergebnisse sowie die Fehler 1. und 2. Art (falsch negative und falsch positive Klassifizierungen).
- 7.
- 8.
Schoettle, Brandon, and Michael Sivak. „A preliminary analysis of real-world crashes involving self-driving vehicles.“ University of Michigan Transportation Research Institute (2015).
- 9.
http://www.sciencemag.org/news/2018/05/ai-researchers-allege-machine-learning-alchemy. Zugegriffen am 15.05.2018.
- 10.
Das Forschungsprogramm XAI – Explainable AI läuft an der DARPA (Defense Advanced Research Project Agency) seit 2017 und ist auf 5 Jahre angelegt (Gunning 2017).
- 11.
GI-Gutachten zu „Verbraucher-Scoring in der digitalen Welt, siehe“ https://adm.gi.de/.
Literatur
Datenschutz-Grundverordnung. 2016. Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) Stat.
Di Ciccio, Claudio, A. Marrella, und A. Russo. 2015. Knowledge-intensive processes: Characteristics, requirements and analysis of contemporary approaches. Journal on Data Semantics 4(1): 29–57. https://doi.org/10.1007/s13740-014-0038-4.
Fayyad, Usama, G. Piatetsky-Shapiro, und P. Smyth. 1996. From data mining to knowledge discovery in databases. AI magazine 17(3): 37.
Füser, Karsten. 2013. Intelligentes scoring und Rating: moderne Verfahren zur Kreditwürdigkeitsprüfung. Berlin: Springer.
Gunning, David. 2017. Explainable artificial intelligence (XAI). https://www.darpa.mil/program/explainable-artificial-intelligence. Zugegriffen am 04.05.2018.
Intersoft Consulting. 2016. Erwägungsgründe. https://dsgvo-gesetz.de/erwaegungsgruende/nr-71/. Zugegriffen am 03.05.2018.
Krizhevsky, Alex, I. Sutskever, und G. E. Hinton. 2012. Imagenet classification with deep convolutional neural networks. Paper presented at the Advances in neural information processing systems.
Lepri, Bruno, Oliver, N., Letouzé, E., Pentland, A., und Vinck, P. 2017. Fair, transparent, and accountable algorithmic decision-making processes: The premise, the proposed solutions, and the open challenges. Philosophy & Technology 31(4): 611–627.
Lipton, Zachary. (2016). The mythos of model interpretability. Communications of the ACM 61:36–43. New York: Association for Computing Machinery. https://doi.org/10.1145/3233231.
Mainzer, Klaus. 2014. Die Berechnung der Welt: Von der Weltformel zu Big Data. München: C.H. Beck.
Office of the Conptroller of the Currency. 2018. Fair lending. https://www.occ.treas.gov/topics/consumer-protection/fair-lending/index-fair-lending.html. Zugegriffen am 23.01.2020.
Pezzè, Mauro, und M. Young. 2009. Software testen und analysieren: Prozesse, Prinzipien und Techniken. München: Oldenbourg.
Ribeiro, Marco Túlio, S. Singh, und C. Guestrin. 2016. Why should i trust you?: Explaining the predictions of any classifier. Paper presented at the Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining.
Russell, Stuart, und P. Norvig. 2009. Artificial intelligence: A modern approach. New Jersey: Prentice Hall.
Sandvig, Christian, K. Hamilton, K. Karahalios, und C. Langbort. 2014. Auditing algorithms: Research methods for detecting discrimination on internet platforms. Data and discrimination: Converting critical concerns into productive inquiry, 1–23.
The Guardian. 2015a. Flickr faces complaints over ‚offensive‘ auto-tagging for photos. https://www.theguardian.com/technology/2015/may/20/flickr-complaints-offensive-auto-tagging-photos. Zugegriffen am 02.05.2018.
The Guardian. 2015b. Google says sorry for racist auto-tag in photo app. https://www.theguardian.com/technology/2015/jul/01/google-sorry-racist-auto-tag-photo-app. Zugegriffen am 02.05.2018.
Jens Tiemann et al. 2018. Vorhersagende Polizeiarbeit. Berlin. http://www.oeffentliche-it.de/-/vorhersagende-polizeiarbeit. Zugegriffen am 23.01.2020.
U. S. Department of Justice. 2017a. The equal credit opportunity act. https://www.justice.gov/crt/equal-credit-opportunity-act-3. Zugegriffen am 02.05.2018.
U. S. Department of Justice. 2017b. Fair housing act. https://www.justice.gov/crt/equal-credit-opportunity-act-3. Zugegriffen am 02.05.2018.
Bibliography
Waltl, B., und R. Vogl. 2018. Increasing transparency in algorithmic-decision-making with explainable AI. Datenschutz und Datensicherheit 42(10):613–617.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this entry
Cite this entry
Waltl, D. (2019). Erklärbarkeit und Transparenz im Machine Learning. In: Mainzer, K. (eds) Philosophisches Handbuch Künstliche Intelligenz. Springer Reference Geisteswissenschaften. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-23715-8_31-1
Download citation
DOI: https://doi.org/10.1007/978-3-658-23715-8_31-1
Received:
Accepted:
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-23715-8
Online ISBN: 978-3-658-23715-8
eBook Packages: Springer Referenz Sozialwissenschaften und Recht