Skip to main content

Erklärbarkeit und Transparenz im Machine Learning

  • Living reference work entry
  • First Online:
Philosophisches Handbuch Künstliche Intelligenz

Part of the book series: Springer Reference Geisteswissenschaften ((SPREFGEIST))

Zusammenfassung

KI Systeme haben längst ihren Einzug in den Alltag moderner Gesellschaften gefunden. Sie treffen autonome Entscheidungen, beeinflussen den Alltag von Menschen und können mit rechtlichen Bestimmungen in Konflikt stehen. Die mangelnde Transparenz von KI Systemen wird zunehmend zu einem Problem und ist angesichts der technischen Möglichkeiten zu einem gewissen Grad auch eine bequeme Ausrede derer, die die Systeme entwickeln oder einsetzen. Der vorliegende Beitrag entmystifiziert KI und diskutiert die Rolle von Transparenz und Erklärbarkeit von KI Systemen anhand konkreter Beispiele.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Institutional subscriptions

Notes

  1. 1.

    (U. S. Department of Justice 2017b).

  2. 2.

    (U. S. Department of Justice 2017a).

  3. 3.

    (Office of the Conptroller of the Currency 2018).

  4. 4.

    Es existieren öffentlich zugängliche Datensätze für Experimente, siehe zum Beispiel: https://github.com/gastonstat/CreditScoring. Zugegriffen am 02.05.2018.

  5. 5.

    Ein aktueller Ansatz zur Klassifizierung von Bildern auf Basis von Neuronalen Netzen verwendet 60 Millionen Parameter und 650 Tausend künstliche Neuronen und wird in der Maschine durch große Matrizen abgebildet. Die Matrizen werden im Rahmen der Trainingsphase erstellt und die Klassifizierung eines Bildes besteht im Wesentlichen darin, dass Matrixoperationen (z. B. Multiplikationen) durchgeführt werden (Krizhevsky et al. 2012).

  6. 6.

    Zur Bewertung von eines KI Systems zur binären Klassifikation verwendet man üblicherweise zwei Metriken: Precision und Recall. Diese repräsentieren die Genauigkeit und die Trefferquote und erlauben Aussagen über die richtigen Ergebnisse sowie die Fehler 1. und 2. Art (falsch negative und falsch positive Klassifizierungen).

  7. 7.

    http://monopolkommission.de/de/index.php/de/beitraege/216-xxii-algorithmen.

  8. 8.

    Schoettle, Brandon, and Michael Sivak. „A preliminary analysis of real-world crashes involving self-driving vehicles.“ University of Michigan Transportation Research Institute (2015).

  9. 9.

    http://www.sciencemag.org/news/2018/05/ai-researchers-allege-machine-learning-alchemy. Zugegriffen am 15.05.2018.

  10. 10.

    Das Forschungsprogramm XAI – Explainable AI läuft an der DARPA (Defense Advanced Research Project Agency) seit 2017 und ist auf 5 Jahre angelegt (Gunning 2017).

  11. 11.

    GI-Gutachten zu „Verbraucher-Scoring in der digitalen Welt, siehe“ https://adm.gi.de/.

Literatur

Bibliography

  • Waltl, B., und R. Vogl. 2018. Increasing transparency in algorithmic-decision-making with explainable AI. Datenschutz und Datensicherheit 42(10):613–617.

    Article  Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Dr. Bernhard Waltl .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this entry

Check for updates. Verify currency and authenticity via CrossMark

Cite this entry

Waltl, D. (2019). Erklärbarkeit und Transparenz im Machine Learning. In: Mainzer, K. (eds) Philosophisches Handbuch Künstliche Intelligenz. Springer Reference Geisteswissenschaften. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-23715-8_31-1

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-23715-8_31-1

  • Received:

  • Accepted:

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-23715-8

  • Online ISBN: 978-3-658-23715-8

  • eBook Packages: Springer Referenz Sozialwissenschaften und Recht

Publish with us

Policies and ethics