Advertisement

Informatik-Spektrum

, Volume 41, Issue 2, pp 138–143 | Cite as

Explainable AI (ex-AI)

Open Access
AKTUELLES SCHLAGWORT EXPLAINABLE AI
  • 398 Downloads

Zusammenfassung

,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.

References

  1. 1.
    Bach S, Binder A, Montavon G, Klauschen F, Müller KR, Samek W (2015) On pixel-wise explanations for non-linear classifier decisions by layer-wise relevance propagation. Plos One 10(7):e0130140, doi:10.1371/journal.pone.0130140CrossRefGoogle Scholar
  2. 2.
    Caruana R, Lou Y, Gehrke J, Koch P, Sturm M, Elhadad N (2015) Intelligible Models for Healthcare: Predicting Pneumonia Risk and Hospital 30-Day Readmission. In: 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD ’15), Sydney, 2015. ACM, doi:10.1145/2783258.2788613, pp 1721–1730Google Scholar
  3. 3.
    Girardi D, Küng J, Holzinger A (2015) A Domain-Expert Centered Process Model for Knowledge Discovery in Medical Research: Putting the Expert-in-the-Loop. In: Guo Y, Friston K, Aldo F, Hill S, Peng H (eds) Brain Informatics and Health, Lecture Notes in Computer Science LNCS 9250. Springer, Cham Heidelberg Berlin London Dordrecht New York, pp 389–398Google Scholar
  4. 4.
    Holzinger K, Mak K, Kieseberg P, Holzinger A (2018) Can we trust Machine Learning Results? Artificial Intelligence in safety-critical Decision Support. ERCIM News 112(1):42–43Google Scholar
  5. 5.
    Holzinger A, Plass M, Holzinger K, Crisan GC, Pintea CM, Palade V (2017) A Glass-Box Interactive Machine Learning Approach for Solving NP-hard Problems With The Human-in-the-Loop. arXiv:1708.01104Google Scholar
  6. 6.
    Lake BM, Ullman TD, Tenenbaum JB, Gershman SJ (2017) Building machines that learn and think like people. Behav Brain Sci 40(e253), doi:10.1017/S0140525X16001837Google Scholar
  7. 7.
    Lakkaraju H, Kamar E, Caruana R, Leskovec J (2017) Interpretable and Explorable Approximations of Black Box Models. arXiv:1707.01154Google Scholar
  8. 8.
    Letham B, Rudin C, McCormick TH, Madigan D (2015) Interpretable classifiers using rules and Bayesian analysis: Building a better stroke prediction model. Ann Appl Stat 9(3):1350–1371MathSciNetCrossRefMATHGoogle Scholar
  9. 9.
    Mikolov T, Sutskever I, Chen K, Corrado GS, Dean J (2013) Distributed Representations of Words and Phrases and Their Compositionality. In: Burges CJC, Buttou L, Welling M, Ghahramani Z, Weinberger KQ (eds) Advances in Neural Information Processing Systems 26 (NIPS 2013). pp 3111–3119Google Scholar
  10. 10.
    Peters J, Janzing D, Schölkopf B (2017) Elements of Causal Inference: Foundations and Learning Algorithms. MIT Press, Cambridge (MA)Google Scholar
  11. 11.
    Puppe F (1993) Einführung in Expertensysteme. Springer, HeidelbergMATHGoogle Scholar
  12. 12.
    Ribeiro MT, Singh S, Guestrin C (2016) Why Should I Trust You? Explaining the Predictions of Any Classifier. In: 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp 1135–1144Google Scholar
  13. 13.
    Schewe S, Quak T, Reinhardt B, Puppe F (1996) Evaluation of a Knowledge-Based Tutorial Program in Rheumatology – A Part of a Mandatory Course in Internal Medicine. In: Frasson C, Gauthier G, Lesgold A (eds) International Conference on Intelligent Tutoring Systems (ITS 1996), LNCS 1986. Springer, Heidelberg, pp 531–539Google Scholar
  14. 14.
    Sturm W, Schaefer T, Schreck T, Holzinger A, Ullrich T (2015) Extending the Scaffold Hunter Visualization Toolkit with Interactive Heatmaps. In: Borgo R, Turkay C (eds) EG UK Computer Graphics & Visual Computing CGVC 2015, University College London (UCL), Euro Graphics (EG), pp 77–84Google Scholar
  15. 15.
    Wick C (2017) Deep Learning. Informatik-Spektrum 40(1):103–107CrossRefGoogle Scholar

Copyright information

© The Author(s) 2018

Authors and Affiliations

  1. 1.Institut für Medizinische Informatik, Statistik & Dokumenation, Holzinger Group HCI-KDDMedizinische Universität GrazGrazÖsterreich
  2. 2.Fakultät für Informatik & Biomedizinische Technik, Institute for Interactive Systems and Data ScienceTechnische Universität GrazGrazÖsterreich

Personalised recommendations