Advertisement

Erklärbarkeit und Transparenz im Machine Learning

  • Dr. Bernhard WaltlEmail author
Living reference work entry
  • 44 Downloads
Part of the Springer Reference Geisteswissenschaften book series (SPREFGEIST)

Zusammenfassung

KI Systeme haben längst ihren Einzug in den Alltag moderner Gesellschaften gefunden. Sie treffen autonome Entscheidungen, beeinflussen den Alltag von Menschen und können mit rechtlichen Bestimmungen in Konflikt stehen. Die mangelnde Transparenz von KI Systemen wird zunehmend zu einem Problem und ist angesichts der technischen Möglichkeiten zu einem gewissen Grad auch eine bequeme Ausrede derer, die die Systeme entwickeln oder einsetzen. Der vorliegende Beitrag entmystifiziert KI und diskutiert die Rolle von Transparenz und Erklärbarkeit von KI Systemen anhand konkreter Beispiele.

Schlüsselwörter

Explainable AI Entscheidungsunterstützung Algorithmic-Decision-Making Diskriminierung Profiling 

Literatur

  1. Datenschutz-Grundverordnung. 2016. Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) Stat.Google Scholar
  2. Di Ciccio, Claudio, A. Marrella, und A. Russo. 2015. Knowledge-intensive processes: Characteristics, requirements and analysis of contemporary approaches. Journal on Data Semantics 4(1): 29–57.  https://doi.org/10.1007/s13740-014-0038-4.CrossRefGoogle Scholar
  3. Fayyad, Usama, G. Piatetsky-Shapiro, und P. Smyth. 1996. From data mining to knowledge discovery in databases. AI magazine 17(3): 37.Google Scholar
  4. Füser, Karsten. 2013. Intelligentes scoring und Rating: moderne Verfahren zur Kreditwürdigkeitsprüfung. Berlin: Springer.Google Scholar
  5. Gunning, David. 2017. Explainable artificial intelligence (XAI). https://www.darpa.mil/program/explainable-artificial-intelligence. Zugegriffen am 04.05.2018.
  6. Intersoft Consulting. 2016. Erwägungsgründe. https://dsgvo-gesetz.de/erwaegungsgruende/nr-71/. Zugegriffen am 03.05.2018.
  7. Krizhevsky, Alex, I. Sutskever, und G. E. Hinton. 2012. Imagenet classification with deep convolutional neural networks. Paper presented at the Advances in neural information processing systems.Google Scholar
  8. Lepri, Bruno, Oliver, N., Letouzé, E., Pentland, A., und Vinck, P. 2017. Fair, transparent, and accountable algorithmic decision-making processes: The premise, the proposed solutions, and the open challenges. Philosophy & Technology 31(4): 611–627.CrossRefGoogle Scholar
  9. Lipton, Zachary. (2016). The mythos of model interpretability. Communications of the ACM 61:36–43. New York: Association for Computing Machinery.  https://doi.org/10.1145/3233231.CrossRefGoogle Scholar
  10. Mainzer, Klaus. 2014. Die Berechnung der Welt: Von der Weltformel zu Big Data. München: C.H. Beck.Google Scholar
  11. Office of the Conptroller of the Currency. 2018. Fair lending. https://www.occ.treas.gov/topics/consumer-protection/fair-lending/index-fair-lending.html. Zugegriffen am 23.01.2020.
  12. Pezzè, Mauro, und M. Young. 2009. Software testen und analysieren: Prozesse, Prinzipien und Techniken. München: Oldenbourg.Google Scholar
  13. Ribeiro, Marco Túlio, S. Singh, und C. Guestrin. 2016. Why should i trust you?: Explaining the predictions of any classifier. Paper presented at the Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining.Google Scholar
  14. Russell, Stuart, und P. Norvig. 2009. Artificial intelligence: A modern approach. New Jersey: Prentice Hall.Google Scholar
  15. Sandvig, Christian, K. Hamilton, K. Karahalios, und C. Langbort. 2014. Auditing algorithms: Research methods for detecting discrimination on internet platforms. Data and discrimination: Converting critical concerns into productive inquiry, 1–23.Google Scholar
  16. The Guardian. 2015a. Flickr faces complaints over ‚offensive‘ auto-tagging for photos. https://www.theguardian.com/technology/2015/may/20/flickr-complaints-offensive-auto-tagging-photos. Zugegriffen am 02.05.2018.
  17. The Guardian. 2015b. Google says sorry for racist auto-tag in photo app. https://www.theguardian.com/technology/2015/jul/01/google-sorry-racist-auto-tag-photo-app. Zugegriffen am 02.05.2018.
  18. Jens Tiemann et al. 2018. Vorhersagende Polizeiarbeit. Berlin. http://www.oeffentliche-it.de/-/vorhersagende-polizeiarbeit. Zugegriffen am 23.01.2020.
  19. U. S. Department of Justice. 2017a. The equal credit opportunity act. https://www.justice.gov/crt/equal-credit-opportunity-act-3. Zugegriffen am 02.05.2018.
  20. U. S. Department of Justice. 2017b. Fair housing act. https://www.justice.gov/crt/equal-credit-opportunity-act-3. Zugegriffen am 02.05.2018.

Bibliography

  1. Waltl, B., und R. Vogl. 2018. Increasing transparency in algorithmic-decision-making with explainable AI. Datenschutz und Datensicherheit 42(10):613–617.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  1. 1.Technische Universität MünchenMünchenDeutschland

Personalised recommendations