Über 50 Jahre werden Anwendungen mithilfe von Künstlicher Intelligenz entwickelt. Diese Richtung der Programmierung nimmt sich als Vorbild die Funktionsweise des Gehirns und Erkenntnisse über das Denken von Menschen. Ziel ist es, komplexe Aufgaben der Wissens- und Datenverarbeitung durch Computer erledigen zu lassen. Einen Traum, den einzelne als Zukunftsvision damit verfolgen, wird in dem Spielfilm „AI“ dargestellt: „Ein Kind kann vollständig durch einen Roboter ersetzt werden“. Ähnliche Ziele spornen einzelne Forscher an, auf viele wirkt eine solche Idee allerdings beängstigend.

Bevor diese beiden Seiten zu Wort kommen, wird die wechselvolle Geschichte der KI anhand einiger wichtiger Meilensteine erzählt. Ihre Anwendungsfelder werden dann mit konkreten Anwendungsergebnissen gefüllt. Alles begann mit einer Idee.

Idee

Leibnitz wollte im 17. Jahrhundert „Wahrheiten der Vernunft wie in der Arithmetik und Algebra so auch in jedem anderen Bereich, in dem geschlossen wird, gewissermaßen durch einen Kalkül“ erreichen können [1, S. 32].

Am Anfang der Künstlichen Intelligenz (KI) der Neuzeit stand eine Erweiterung der Idee von Leibnitz durch Warren McCulloch und Walter Pitts 1943 [2] (siehe (1) in Abb. 1). Sie integrierten Erkenntnisse aus drei Disziplinen zu einem neuen Modell, das bestimmte Operationen allein durch seine Struktur ausführen konnte. Diese drei Disziplinen sind:

  1. 1.

    Physiologie und Funktionsweise von Neuronen im Gehirn. Dafür zogen sie aus den Neurowissenschaften die Neuronen heran, Bausteine des Gehirns, die Denken ermöglichen. Sie wollten mit künstlichen Neuronen ähnliche Netzwerke entstehen lassen.

  2. 2.

    Formale Analyse von Prädikatenlogik. Das verbanden sie mit der in der Philosophie von Russel und Whitehead aufbereiteten Aussagenlogik, also der Kunst, aus zwei Aussagen eine dritte abzuleiten.

  3. 3.

    Theorie der Computation. Als Drittes fügten sie aus der Mathematik Alan Turings „Theory of Computation“ hinzu, in der es darum geht, auf der Basis von Algorithmen Probleme zu lösen.

Abb. 1
figure 1

Entwicklung der Künstlichen Intelligenz. (Eigene Darstellung)

Donald Hebbs beschrieb 1949 die Eigenschaft von Neuronen, sich nach einer Verbindung so zu verändern, dass beim nächsten Mal eine derartige Verbindung effizienter entsteht [3]. Damit gab er auch für künstliche neuronale Netze einen wesentlichen Hinweis.

Dieses Konzept wurde von Marvin Minsky, der die Entwicklung der KI noch lange erheblich beeinflusste, und Dean Edmonds 1950 an der Harvard-Universität in einem ersten nach dem Prinzip des neuronalen Netzwerks funktionierenden Computer umgesetzt [4].

Begriff

Den Begriff „Artificial Intelligence“ (AI) prägte John McCarthy im Aufruf zu der von ihm 1956 initiierten Konferenz in Dartmouth, USA (2) –Abb. 1. Ziel war, jeden Aspekt von Lernen und andere Merkmale von Intelligenz so genau zu beschreiben, dass eine Maschine konstruiert werden kann, um sie nachzuahmen [5].

Russel und Norvig kommentieren, dass vielleicht „computational rationality“, in etwa „maschinelle Vernunft“, treffender und weniger verängstigend gewesen wäre, doch blieb es bei AI ([6], Fußnote S. 17). McCarthy war selbst nicht glücklich mit der ungünstigen Bezeichnung. Zusätzlich wurde bei der Übersetzung von „artificial“ ins Deutsche „künstlich“ gewählt anstelle von „simuliert“ oder „digital“ [7].

Einen wesentlichen Beitrag zur Definition von Künstlicher Intelligenz leistete Alan Turing mit seinem Turing-Test. Nach Turing soll eine Maschine als „Künstliche Intelligenz“ gelten, wenn Menschen nicht erkennen können, ob es sich um einen Menschen oder eine Maschine handelt [8].

Entwicklung

1966 veröffentlichte Joseph Weizenbaum ein Programm, das mit Listen und auf Basis einfacher Regeln Antworten geben konnte: ELIZA ((3) in Abb. 1). Das System wurde als leuchtendes Beispiel für eine KI gefeiert. Viele Menschen wollten ELIZA kennenlernen. Sie vertrauten dem System ihre intimsten Gedanken an. Weizenbaum erzählte selbst, dass seine Sekretärin ihn bat, das Zimmer zu verlassen, weil sie mit ELIZA einige persönliche Dinge besprechen wolle [9]. Die Erkenntnis über das naive Vertrauen in die Technik erschreckte Weizenbaum so sehr, dass er daraufhin zum Mahner und Kritiker blinden Technikvertrauens wurde [10].

Die europäische Wissenschaft war sehr zurückhaltend gegenüber KI, was mutmaßlich an der ungünstig gewählten Bezeichnung lag [11, S. 25]. Um 1973 entwickelten Alain Colmerauer und Phillipe Roussel an der Universität Aix-Marseille in Zusammenarbeit mit Robert Kowalski (Universität Edinburgh) eine Programmiersprache, die logische Operationen über Strukturen von logischen Ausdrücken mit einer neuen Technik, der Resolution, mühelos auch mit Texten verarbeitet: PROLOG. Die Resolution war ein wichtiger Fortschritt. Anstelle der bis dahin ausschließlich eingesetzten Zuweisung als Basisoperation maschineller Informationsverarbeitung verwendete sie den Abgleich beliebig umfangreicher logischer Ausdrücke und war damit in der Abarbeitung komplexer Strukturen weit mächtiger. Erst in letzter Zeit wird diese Technik auch für die Verarbeitung natürlicher Sprachen eingesetzt. Das erste inkrementell kompilierende und deshalb auch kommerziell eingesetzte PROLOG entstand Anfang der 1980er-Jahre in München bei der InterFace Computer GmbH [12].

Abb. 2
figure 2

Erweiterte Definition der Künstlichen Intelligenz. ([26] mit Ergänzung)

Anfang der 1980er-Jahre gab es weltweit einen regelrechten Hype. Zahlreiche Anbieter drängten mit KI-Lösungen voran. Falsche Versprechungen von Unternehmen insbesondere aus den USA, die KI im Wesentlichen auf Suchvorgänge beschränkten, aber die Komplexität nicht beherrschten, führen zu einem jähen Abfall der Reputation [9] und damit auch der Nachfrage nach derartiger Technologie ((5) in Abb. 1).

Industrie und öffentliche Finanzierer ermöglichten 1988 die Gründung des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). Zweck ist die Entwicklung innovativer Softwaretechnologien auf der Basis von Methoden der KI. Inzwischen arbeiten 640 Forscher aus 65 Ländern an über 250 Projekten [13].

In der Gesellschaft für Informatik (GI) besteht seit 1992 die Fachgruppe Verteilte Künstliche Intelligenz (VKI). Diese Fachvertretung spezialisierte sich darauf, KI zu erweitern in Richtung multipler Problemlösungsstrategien und um Skalierbarkeit und Wiederverwendbarkeit. Besonders die Forschung an Multiagentensystemen trat in den Vordergrund [14]. Damit folgte die KI-Forschung einem Aufruf von Marvin Minsky [15, S. 17].

Abb. 1 zeigt die Meilensteine der KI im Überblick. Breite Aufmerksamkeit erzielte der erste RoboCup. 1997 traten zum ersten Mal Roboter im Fußball gegeneinander an. Parallel zur Herausforderung, das Turnier zu gewinnen, geht es um den Austausch zu Künstlicher Intelligenz und Robotik [16].

In der Zeit zwischen 1997 und 2010 fand die Forschung zu KI-Themen überwiegend unter dem Begriff „Wissensverarbeitung“ bzw. Knowledge Engineering statt ((7) in Abb. 1). Wichtige Schritte wie webbasierte Wissensanreicherung oder automatisch Text umformulierende Content-Management-Systeme, die Inhalte für verschiedene Medien aufbereiteten, entstanden.

Parallel wurde Machine Learning vorangebracht. Dieser Zweig greift die Theorie von Bayes und die Wahrscheinlichkeitsrechnung von Laplace auf. Mehrere Eingangswerte werden darüber zu einem Ausgangswert vereinigt, der mit hoher Wahrscheinlichkeit richtig ist.

Seit 2010 stehen genügend Bausteine bereit, um überzeugende Anwendungen zu schaffen. Damit begann die Kommerzialisierung der KI in Anwendungen, die breit im Alltag eingesetzt werden können ((8) in Abb. 1). Gleichzeitig stieg das Ansehen, was dazu führte, dass der Markt über spezialisierte Individualprodukte für Großunternehmen hinaus zu wachsen anfing.

Heute gilt KI als ein Baustein zum langfristigen Erfolg für Unternehmen aller Größenklassen und Branchen. Die Zahl der Anwendungen wächst fast täglich. Trotz Misstrauen steigt auch die Bereitschaft zum Einsatz. Der Boden zu dieser Akzeptanz wird bereitet durch zahlreiche Apps, bei denen der Einsatz von KI nicht mehr erkennbar ist [17, S. 2].

Für 2029 prognostiziert Gartner, dass KI zum Massenphänomen wird. KI-Anwendungen werden in großer Zahl verbreitet an sehr vielen Stellen im Einsatz sein [18].

Anwendungsgruppen

  1. 1.

    Serious Games und Wettbewerbe – Zur Übung und vor allem zur Demonstration werden immer wieder Spiele als Demonstration herangezogen. Sie bieten Ansatzpunkte für Wettbewerbe.

  2. 2.

    Bilderkennung – Automatisierte Verarbeitung von Bildern, insbesondere Fotos, aber auch Videobilder und andere.

  3. 3.

    Daten – Sensoren produzieren in kurzer Zeit größere Datenmengen als Sterne im Universum berechnet wurden. KI ist eine von mehreren Methoden, die „Big Data“ ermöglichen, also Massendatenverarbeitung und -berechnungen.

  4. 4.

    Sprache – Die Manipulation von Sprache scheint dem Denken am nächsten zu kommen.

  5. 5.

    Maschinenlernen – die Umsetzung von Lernen durch Software, was auch der Ursprung der Beschäftigung mit KI ist.

  6. 6.

    Wissen – Mit Sprache wird auch Wissen ausgedrückt. Intelligenz kommt ursprünglich vom lateinischen interlegere, also daher, aus Texten Wissen herauszulesen.

  7. 7.

    Entscheidungsunterstützung – Wissen wird eingesetzt, um Entscheidungen und insbesondere daraus abgeleitet Handlungen vorzubereiten.

Serious Games und Wettbewerbe

Wettbewerbe werden in der Künstlichen Intelligenz gerne eingesetzt, um Herausforderungen zu schaffen sowie um die Leistungsfähigkeit der aktuell verfügbaren Ergebnisse zu demonstrieren. Spiele eignen sich dafür besonders gut.

Schach war die erste Herausforderung, die gemeistert wurde. 1997 besiegte IBM Deep Blue den amtierenden Schachweltmeister unter Wettkampfbedingungen durch Einsatz von KI. Vorteile der Maschine waren Schnelligkeit sowie die Fähigkeit, die Züge weiter voraus und dadurch die möglichen Endstände vollständig zu berechnen [18]. Diese Anwendung der Datenverarbeitungsschiene der KI machte auf die Möglichkeiten von KI-Software aufmerksam.

Im selben Jahr trafen sich Mannschaften mit Robotern zum ersten Roboter-Fußballmatch, dem RoboCup [19] (Meilenstein (7)). Studenten und Tüftlerteams entwickeln Roboter, die Fußball spielen. Das jährliche Ereignis fördert die Weiterentwicklung der unterschiedlichen Fähigkeiten von Robotern wie Bewegung, Koordination, Erkennung der Situation mittels Sensorik, Programmierung und weiterer notwendiger Elemente. Die Vision ist, bis Mitte des 21. Jahrhunderts eine Roboterfußballmannschaft zu entwickeln, die gegen diejenige Menschenmannschaft antritt, die zuletzt die Weltmeisterschaft gewonnen hat, und dies mit der Chance zu gewinnen [19].

Inzwischen wurden eigens spielähnliche Herausforderungen geschaffen für KI-Anwendungsgebiete wie Rettung oder Logistik [19]. Dieser Zweig der Anwendungen ist den Androiden zuzuordnen – menschenähnlichen Robotern.

IBM setzte 2011 eine Spielshow im Fernsehen ein, um den IBM 100, genannt WATSON, der Öffentlichkeit vorzustellen: Jeopardy!. Dabei werden Antworten genannt. Die Aufgabe der Kandidaten ist, die passende Frage zu formulieren. Die KI-Maschine trat gegen die Menschen an, die in der Fernsehshow am besten abgeschnitten hatten. IBM hatte WATSON mit umfangreichem Material trainiert. WATSON ist ein Server, auf dem Deep QA läuft. Ziel ist, eine neue Generation an Technologie zu schaffen, die Antworten in unstrukturierten Daten effektiver findet als Standardsuchtechnologien. Es geht hier nicht darum, Menschen zu simulieren, sondern mit KI-Methoden ein deutlich besseres Verständnis natürlicher Sprache zu erreichen [20]. Diese Technologie ist der Gruppe „Sprache“ zuzuordnen.

Die Renaissance der neuronalen Netze führte 2016 zu AlphaGo, einem Computer, der Go spielt. Go gilt mit großem Abstand als schwerstes Spiel überhaupt. Dem Programm AlphaGo standen Züge von Menschen zur Verfügung und es ist in der Lage, dazuzulernen. In einem Turnier besiegte die KI-Anwendung den amtierenden Weltmeister, der als überragender Spieler gilt, 4:1. Um das zu erreichen, wurden zwei neuronale Netze geschaffen, die zusammenarbeiten. Die Software gehört inzwischen Alphabet und wurde dort weiterentwickelt [21]. Die wesentliche Erweiterung gegenüber den Schachalgorithmen ist, nicht nur Züge und die Qualität der erreichten Stellungen weiter vorauszuberechnen, sondern auch die bei Go entscheidend wichtige Erkennung und Klassifizierung der aktuellen und zukünftigen Steinpositionierungen besser und vollständiger zu beherrschen als dies dem Menschen möglich ist.

Zusätzlich wirkt KI zunehmend an Computerspielen mit. Der Ersatz eines menschlichen Partners durch ein Bot bedingt für überzeugende Ergebnisse den Einsatz von KI-Methoden. Erste für Organisationen nützliche Anwendungen brachte die Bilderkennung.

Bilderkennung

Das Auswerten von Bildern ist als Gebiet der KI weiter entwickelt als viele andere. Das liegt zum einen daran, dass schon früh erste brauchbare Ergebnisse vorlagen, wie das folgende Beispiel zeigt: 1961 stand in München der von Billing gebaute Computer G3. Im benachbarten MPI für Astrophysik wurden Fotodaten ausgewertet. Die Platten wurden in hohe Luftschichten gebracht und zeichneten dort atomare Einzelereignisse als Spuren auf. Zur Auswertung musste jede Platte mit dem Mikroskop untersucht werden, ob eine für Physiker relevante Spur vorhanden war. Diese Auswertung war eine mühsame Arbeit, die viele junge Frauen ausführten – immer nur kurze Zeit mit Ruhepausen von jeweils einer Stunde, weil es so anstrengend war. Diese Auswertung zu automatisieren war eine der frühen Anwendungen von Bilderkennung [9].

Zum anderen aber auch an Anwendungen, die für zahlungswillige Einrichtungen wie Militärs und Medizineinrichtungen wichtig waren. Eingesetzt wird die Zerlegung von Bildern in Datenpunkte und Mustererkennung. Die Liste der Anwendungen von Bildverarbeitung ist lang. Militärische Aufklärung anhand von Luft- oder Satellitenbildern, Zusammensetzen von Bildern eines Himmelsabschnitts in der Astronomie oder vom Mars oder einem Planeten in der Raumfahrt, aber auch das Unterstützen bei der Diagnose durch Auswertung von Röntgenbildern oder Ergebnissen anderer bildgebender Verfahren in der Medizin.

Dazu kam in den letzten 10 Jahren die Gesichtserkennung als Mittel, um Straftäter anhand von Überwachungsvideos ausfindig zu machen. Google arbeitet intensiv daran, Bilder automatisch zu vergleichen, um die Bildersuche zu optimieren. 2017 brachte das Unternehmen eine Rückwärtssuche heraus. Wird ein Foto zum Beispiel von einer Sehenswürdigkeit mit einem Smartphone geschossen, liefert eine KI-Anwendung eine Beschreibung, worum es sich dabei handelt. Anwendungen in der Industrie sind Schadenserkennung bei Paketen und Sendungen sowie bei Fahrzeugrückgabe eines Verleihs. Neuste Anwendungen unterstützen bei automatisierter Kommissionierung.

Die Erkennung von Gesten ist ein weiterer Schritt, der aktuell in verschiedenen Feldern erprobt wird. Die Überführung von Gesten in textuelle Beschreibungen steht dabei noch am Anfang. Auch setzt sich die Steuerung von Maschinen mittels Gesten noch nicht durch. Weite Verbreitung findet auch diese Technologie im Spieleumfeld: Tanz- und Bewegungsbeurteilung durch TV-gestützte Systeme funktioniert gut und ist weit verbreitet. Im industriellen Umfeld kann das zur Früherkennung von menschlichen Fehlern eingesetzt werden, ähnlich wie im Kraftfahrzeug die Müdigkeitserkennung, oder zur Erhebung von Prozessdaten.

Ein aktuelles Beispiel sind die verbreiteten computergestützten, medizinischen Bilddiagnosesysteme wie zum Beispiel zur Erkennung von Corona-Kandidaten mittels Videobilderkennung einschließlich Gestenverarbeitung, die auch in China intensiv weiterentwickelt wird [24].

Daten

„Big Data“ fasst alle Rechenverfahren zusammen, die massenhaft Daten in Informationen umwandeln. Anwendungsbereiche sind seit langem Wetterdatenauswertungen. Diese wurden inzwischen erweitert um Klimabeobachtungen mit unterschiedlichsten Sensoren wie Wellenbewegungsmessern, Luftdruck‑, Feuchtigkeits- und Temperaturmessern verteilt auf viele Stellen der Erde. Durch das Internet können die Daten ohne persönlichen Besuch der Messstation übertragen werden. So oder so ähnlich erfassen Sensoren und andere Datenerfassungssysteme ständig wachsende Massen an Daten. Aus diesen Daten sollen Informationen ermittelt werden, die wiederum als Grundlage für Entscheidungen herangezogen werden sollen.

Big Data liefert im Handel Informationen über das Kaufverhalten von Kunden. Die Aufarbeitung der Massendaten hilft hier wie beim Wetter und Klima, Prognosen erheblich zu verbessern.

In der Industrie bringt die KI-gestützte Wartungsüberwachung nennenswerte Einsparungen. Auch die Verwaltung von Werkzeugen wird durch KI unterstützt. Das Werkzeug erfasst die Einsatzzeit und die KI überwacht die Aufträge oder die verarbeiteten Materialien. Daraus wird abgeleitet, wann ein Werkzeug auszutauschen ist.

Datenverarbeitung liefert zahlreiche Methoden, die in KI-Systemen integriert werden können. Eine ganz andere Art an Herausforderung bietet Sprache.

Sprache

Für die ersten Manipulationen von Sprache folgten die Entwickler der Idee Turings, Maschinen auf dem Wissensniveau eines Kleinkindes zu schaffen und dann lernen zu lassen. Deswegen war es naheliegend, die Beschreibung von Chomsky, wie Kinder Sprache lernen, heranzuziehen. Die Methoden basieren bis heute auf diesen Annahmen. Damit konnten einige nützliche Anwendungen geschaffen werden. Die neuesten Veröffentlichungen von Steven Pinker [26] nehmen diesen Gedanken wieder auf und entwickeln anstelle des eingeführten Chomsky‘schen Linguistikmodells eine formale Struktur natürlicher Sprache. Pinker geht unter anderem vom Spracherwerb von Kindern und der Zuordnung von Semantik zu Sprachstrukturen aus. Dies ermöglicht auch eine entsprechende Analyse von Sprachen, die sich weitgehend dem Chomsky-Modell entziehen, wie etwa dem Türkischen, Georgischen bis hin zu Inuit, der Eskimo-Sprache, die noch nicht einmal ein Verb kennt [9].

1971 ließ die Deutsche Post eine Suche für die Telexauskunft entwickeln. Das System war schon in der Lage, zwischen vollständigen Einträgen wie „Hotel Berlin Berlin“ und unvollständigen wie „Hotel Berlin“ zu unterscheiden. Im ersten Fall lieferte es die Angaben zu Hotel Berlin in Berlin. Im zweiten Fall konnte es nachfragen, was gemeint ist: ein Hotel Berlin in irgendeiner Stadt oder ein Hotel in Berlin [9]?

Die Suche im Internet und in Intranets startete ab 1990 [3]. Das Erkennen der Sprache einer Eingabe ergab sich als Anforderung im Zusammenhang mit der Suche. Eine andere Anwendung der Spracherkennung, die SPAM-Abwehr, stand ab 1998 bereit, als die Notwendigkeit dafür tatsächlich vorhanden war [3, S. 29].

Eine wichtige Herausforderung ist die Spracherkennung, die eigentlich Sprecherkennung heißen müsste, da ja nicht die Sprache erkannt wird, sondern das Gesprochene [3, S. 28]. 1992 funktionierten Systeme mit vorab klar definierten Worten, die dazu eingesetzt werden konnten, Details festzuhalten, ohne die Hände dafür nutzen zu müssen. Das ist nützlich bei der Untersuchung einer Fahrzeugflotte oder beim Auspacken von Retouren.

Eine größere Herausforderung bietet die maschinelle Übersetzung, die ab 2007 angeboten wird [3, 16]. Im Zuge dessen kam auch die Spracherkennung im Sinne des Erkennens der Sprache, in der ein Text verfasst ist, auf. Während die ersten Angebote vor allem zur Erheiterung der Nutzer beitrugen, führe eine intensive Weiterentwicklung zu hervorragenden Ergebnissen. Seit 2017 wird in Deutschland mit DeepL ein Produkt angeboten [22], das zum Beispiel für Gesetze direkt einsetzbare Übersetzungen liefert.

Chinesische Wissenschaftler arbeiten an einer automatischen Audiointelligenz [24]. Dazu stellte Boxworks 2017 ein Produkt vor, das auf dem IBM Watson basiert, der unter Wissen vorgestellt wird. Anwendungsfeld ist neben dem Auffinden empfehlenswerter Hörbücher die Überwachung von Telefonaten. Je anspruchsvoller die Aufgaben werden, desto wichtiger wird ein weiterer Baustein: das Maschinenlernen.

Maschinenlernen

Die ersten neuronalen Netze zeigten schon ein Ergebnis, das einem Lernen nahekommt. Sie sind jedoch nur für genau vorbestimmte Zwecke geeignet. Neben diesem Ansatz wurde dann noch ein zweiter gestellt, die „lernenden Algorithmen“. Ein Beispiel für die Umsetzung ist der Entscheidungsbaum. Auf Basis umfangreichen Trainingsmaterials können die Anwendungen soweit trainiert werden, dass sie ebenso gut wie menschliche Sachbearbeiter genau definierte Aufgaben erledigen. Darunter fällt auch die Diagnoseunterstützung im medizinischen Bereich, zu der häufig eine Kombination aus Daten, Bildverarbeitung und Lernen herangezogen wird.

Anwendungen sind Diagnoseunterstützung insbesondere bei Krankheiten, die sich in komplexen Symptomen äußern oder die viel Erfahrung in der Interpretation von Bildern erfordern. Unterstützung in der Produktion, insbesondere von Wartungszyklen oder Maschinenbeobachtung sowie bei der Werkzeugverwaltung. Das spart dort teilweise schon viel Geld. Doch die Hürde, umfangreiches Trainingsmaterial zusammenzustellen, ist hoch. Das schränkt die Anwendungsfälle noch stark ein. Innovative Anwendungen, die Wissen verarbeiten, bieten Ansätze, diese Hürde zu überwinden.

Wissen

Die Verarbeitung von Wissen erfordert andere Herangehensweisen als der Umgang mit Sprache. Wissen besteht aus einem komplexen Bündel an verschiedensten Informationen und Verarbeitungsmethoden, von denen einige bei oberflächlicher Betrachtung verborgen bleiben. Ein wichtiger Ansatz ist die Modellierung eines Wissensgebietes durch eine formalisierte Beschreibung. Ontologien oder Muster von Wissenseinheiten unterstützen hierbei. Dies lässt sich effizient mit einer „model centered architecture“ [23] umsetzen.

Ein anderer Ansatz verzichtet auf Ontologien und arbeitet mit komprimierten Teilabbildungen, ähnlich wie das Sehen des Menschen funktioniert.

Beeindruckende, wenn auch wenig bekannte Umsetzungen der Wissensverarbeitung gibt es schon lange: 1985 entstand ein System, das in der Lage war, die umfangreichen Dokumentationen und Bestimmungen der Straßenzulassung für Kfz-Typen zu verwalten. BMW CATEK („Computer Aided Techniques im Karosseriebau“) erstellte automatisch die vollständigen von den wichtigsten Abnehmerländern verlangten Formularstapel. Dazu wies es die Techniker an, welche Einbauten sie in den Crashtestschlitten und welche Sonden sie an den darinsitzenden Prüfpuppen anzubringen hatten. Anschließend lief der Test automatisch ab und die Messapparaturen lieferten die Beschleunigungs- und sonstigen Daten direkt an CATEK. Das System bereitete sie zu Kurven und Texten auf und schrieb die Ergebnisse direkt in die erforderlichen Formulare. Diese waren bereits vollständig in der jeweiligen Landessprache aufbereitet und konnten nach kurzer Prüfung an die Genehmigungsbehörde versandt werden [9].

Bei weniger formalisierten Themen wie der Fahrzeugzulassung wird häufig eine Recherche benötigt. Diese geht über einfache Suche nach einem Datum oder einer Information deutlich hinaus. Dabei geht es darum, ausreichend viele relevante Quellen zu finden und zu verwalten, damit sich der Bearbeitende ein Gesamtbild aus Wissen unterschiedlicher Sichtweise machen kann.

WATSON zeigt, dass der Einsatz von Wissen, also die Auswertung unterschiedlichster Informationsquellen und Anwendung verschiedener Methoden, bisher schon gelöste Aufgaben erheblich verbessern kann. Dazu setzt er eine Kombination aus Maschinenlernen, Sprache und Daten ein.

Die bei AlphaGo vorgestellte Vorgehensweise entspricht dem sich gerade abzeichnenden Wandel der KI von der überwiegenden Datenorientierung – „Big Data“ – zur Strukturerkennung und -verarbeitung: ein wichtiger Schritt für die (erneut) auflebende „linguistische KI“. Eine vielversprechende Erweiterung ist der Einsatz von Mustererkennung (siehe Bilderkennung), um Modelle in großen Informationsmengen aufzufinden („model mining“). Mittels Graphdatenbanken kann hier ein Thema sogar ohne Trainingsaufwand wie beim Maschinenlernen abgebildet und zur Problemlösung herangezogen werden.

Anwendungen in der Industrie sind Betriebstagebücher, oft angereichert durch Big-Data-Ergebnisse und die Unterstützung des Helpdesks. Eine echte Automatisierung von Servicediensten erfordert jedoch zusätzlich Entscheidungsunterstützung.

Entscheidungsunterstützung

Durch Einsatz von Prädikatenlogik, also von logischen Schlüssen, können Probleme gelöst werden. Zur Entscheidungsunterstützung nutzen manche KI-Systeme nur diesen Ansatz. Andere ziehen zusätzlich oder stattdessen Rechenverfahren heran. Insbesondere für Anwendungen in diesem Umfeld werden neuronale Netze seit den 1980er-Jahren mit zunehmender Intensität eingesetzt.

Als erste kommerzielle Anwendung in der KI überhaupt gilt das Expertensystem XCON, das 1980 für DEC in Betrieb ging (4) in Abb. 1. Es übernahm die Aufgabe, Computerzubehör für die VAX-Serie zu konfigurieren. Bis 1986 hatte es 80.000 Konfigurationen mit einer Genauigkeit von 95–98 % bearbeitet [9, S. 249 ff]. Das sparte dem Unternehmen viel Geld für den Austausch von Fehllieferungen und brachte zufriedene Kunden.

Es folgten zahlreiche Anwendungen in Medizin, im Bankwesen und anderen Umfeldern.

1994 sorgten Erweiterungen von Expertensystemen für die ersten Logistikplanungssysteme [3, S. 29]. Autonome Planung und Terminierung basieren auf ähnlicher, aber weiterentwickelter Technologie. Die ersten Systeme dieser Art gibt es seit ca. 2000 [3, S. 28].

Inzwischen stehen solche Systeme mit Avataren – menschlich aussehenden Computerdarstellungen – an Hotelrezeptionen und anderen Informations- und Dienstleistungsstellen zur Verfügung.

Diese Entscheidungsunterstützung bietet eine Grundlage für komplexere Steuerungen.

Komplexe Steuerung

KI ermöglicht, mehrere miteinander zusammenhängende Systeme als Gesamtheit zu steuern. Dadurch werden Anwendungen wie „Smart Home“ möglich. Das beschreibt Häuser, deren verschiedene Systeme Heizung, Verdunklung, Licht, Klimatisierung und andere von der KI so aufeinander abgestimmt eingestellt werden, dass eine angenehme Lebensumgebung entsteht und gleichzeitig Energie gespart wird. Derartige Systeme werden seit ca. 2000 breit angeboten. Digitalisierung ermöglicht zusätzlich den Bewohnern, das System über das Smartphone auch aus der Ferne zu steuern.

Ähnliche Mechanismen verbessern auch die Steuerung von Strom- und Wasserversorgungen, der Bewässerung von Pflanzen, der Fütterung von Tieren und vielen anderen Anwendungen im Versorgungsbereich. Können sich die gesteuerten Maschinen auch bewegen, erfordern sie die Integration weiterer Elemente der KI und werden Roboter genannt.

Robotik

Autonomes Agieren von Robotern jeglicher Art, also sowohl von Funktionseinheiten wie Putzrobotern oder Produktionseinheiten als auch von autonomen Systemen wie Fahrzeugen, Rettungshelfer oder Humanoiden, wird nur möglich durch Einsatz einer passenden Kombination aus den meisten bisher beschriebenen Feldern.

Die ersten Roboter agierten ohne KI mechanisch und computergesteuert. Das hatte Grenzen. So wurden die meisten dieser Roboter vollkommen getrennt von menschlichen Arbeitsplätzen eingesetzt. Diese Grenze konnte erst vor Kurzem durch KI-gestützte Systeme überwunden werden. Heute gibt es Produktionsroboter, die zusammen mit Menschen am selben Arbeitsplatz im Einsatz sein können.

Das ermöglicht auch, intelligente Dienstleistungsroboter [24] in Haushalte zu schicken, die den Boden fegen, saugen oder wischen, die Wäsche umweltfreundlich waschen, an der Kühlschrankwand Rezeptvorschläge anbieten und Einkaufslisten daraus ableiten. Ein einziges Unternehmen hat von seinem Saugroboter bis 2011 bereits 2 Mio. Stück verkauft [3, S. 29]. Dienstleistungsroboter machen das Leben bequemer. Das verspricht hier noch viele Innovationen, die weitere Aufgaben übernehmen.

Seit 2005 messen sich autonome Fahrzeuge [3, S. 28, 16] in Wettbewerben darum, welches am besten ein Ziel erreicht oder welches im Stadtverkehr mit Fußgängern, Radfahrern, Ampeln und den komplexen Einflüssen am besten zurechtkommt. Der nächste Schritt sind miteinander in Beziehung stehende Fahrzeuge, also Intelligent Connected Vehicles (ICV) [24]. Die Gesetzgebung bereitet sich darauf vor, Straßenzulassungen für autonome Fahrzeuge zu ermöglichen. In Deutschland bleibt bis heute der Fahrer, also der Mensch, verantwortlich [25].

2012 wurden weltweit schätzungsweise 450.000 Operationen von Robotern ausgeführt [31]. Eine weitere Anwendung sind Exo-Skelette, die eingeschränkten Menschen Beweglichkeit ermöglichen. Auch in der Pflege von Alten und Kranken übernehmen Roboter immer mehr Aufgaben. Gerade für Pflegeaufgaben werden in Japan zunehmend Roboter mit menschenähnlicher Gestalt eingesetzt.

Unter den humanoiden, also menschenähnlichen Robotern sind die Fußballroboter beim RoboCup am weitesten entwickelt. Das führt zu den Grenzen der KI und zu folgender Frage: Müssen „Roboter“ immer humanoid sein, möglichst kleiner als Menschen und mit netten, großen Hundeaugen? Oder sollte man sie nicht vollständig digitalisieren, einfach als digitale intelligente Software-Objekte, die in den Clouds „leben“, Internetinhalte und die Kommunikation mit Menschen und ihren Artgenossen verarbeiten und „Wissen liefern“, so wie ein Schaf Wolle [9]? Wissen wird genau dann, wenn der Mensch Bedarf hat, unaufdringlich bereitgestellt in einer Form, die nicht mehr erkennen lässt, dass KI zum Einsatz kommt.

Erweiterung der Definition

Die europäische High Level Expert Group KI hat in ihre Definition Maschinenlernen, Schlussfolgern und einen Teil der Robotik einbezogen [30]. Diese Definition ist zu ergänzen um moderne Verarbeitung von Wissen. Damit ergibt sich das in Abb. 2 dargestellte Gesamtbild:

In Abb. 2 wurde Robotik weggelassen, da sie das gesamte aufgespannte Feld plus darüber hinausgehende Themen umfasst. In der Linguistischen Digitalen Intelligenz (LDI) bleibt der Mensch zentrale Entscheidungsinstanz. Hier geht es um eine Zusammenarbeit von Menschen (Human), Digitaler Intelligenz (DI) und Künstlicher Intelligenz (AI).

Zukunft

In (9) von Abb. 1 sind vier mögliche Verläufe dargestellt. Längeres exponentielles Wachstum (I.) ist ebenso unwahrscheinlich wie auf heutigem Niveau gleichbleibende Nachfrage (III.) oder ein baldiger Abschwung (IV.). Damit bleibt als wahrscheinliche Entwicklung ein weiterer Anstieg, der später in eine Sättigung übergeht (II.) Das unterstützen sowohl die Erfahrungen von Geoffrey Moore [27] als auch eine Einschätzung der Gartner Group [28].

Aktuell entstehen viele kleine Anbieter und der Markt wächst steil an. Am Ende wird sich das Angebot konsolidieren zu einem sehr großen Anbieter, ungefähr drei größeren und einer Reihe kleinerer. Diese sehen sich vor die Herausforderung gestellt, den Umstieg von starkem Wachstum zu verhältnismäßig stabil gleichbleibender Nachfrage zu schaffen. Denjenigen, die das meistern, steht eine Grundlage für langfristigen Erfolg zur Verfügung.

Aus der Vielzahl an Angeboten werden sich also diejenigen herauskristallisieren, die einen echten Nutzen bieten. Sie werden optimiert und erhalten Varianten, sodass den Kunden immer wieder etwas Ergänzendes geboten wird. Ob KI dann schon dabei hilft, diese Varianten zu bestimmen oder sogar zu entwickeln, wird erst in Zukunft erkennbar. Erste Produkte in diese Richtung liegen heute schon vor.

Es bleibt abzuwarten, ob KIs auch ohne Verbindung zur realen Welt aktiv werden. In Verbindung mit Plattformen wie Second World wäre das denkbar. Einen Einblick liefert der Zukunftsroman „Otherland“ [30].

Moral und Ethik

Insbesondere im Zusammenhang mit autonom fahrenden Fahrzeugen wird viel diskutiert, wo die Grenzen des Einsatzes von KI liegen. Aber auch zum Einsatz in der Pflege und der Kinderbetreuung gehen die Meinungen stark auseinander. Einzelne Institute sind überzeugt, dass es in Deutschland keine humanoiden Roboter geben wird ([29] letzter Satz). Doch nicht nur die Gestaltung der äußeren Hülle erfordert einen zweiten Blick.

Die Ausstattung von KIs mit ethischen Normen und Werten ist eine wichtige Herausforderung. Gefordert wird, dass die Entwickler Experten auf ihrem Gebiet sind, und dass eine informierte Öffentlichkeit die Ergebnisse überprüft und diskutiert. Der Einbau moralischer Regeln darf nicht allein in den Händen der Hersteller bleiben, sondern muss transparent gemacht und einer Diskussion zugänglich sein [31, S. 472]. Voraussetzung für umsetzbare Ergebnisse einer Normen- und Wertediskussion ist die Bereitschaft vieler, sich aktiv daran zu beteiligen.

Fazit

Nach einer wechselvollen Geschichte mit Höhen und Tiefen ist KI aktuell auf dem Weg zur massenhaften Verbreitung. Die Ablösung von Menschen in Jobs wie Kommissionierung, Hotelrezeption, Buchungssystemen und an vielen anderen Stellen führt zu Veränderungen. Gleichzeitig wandelt sich das Leben durch die Annehmlichkeiten, die KI-Systeme für die Nutzenden mit sich bringen. Es wird nicht lange dauern, bis vergessen wird, dass KI mitwirkt und die Systeme ins tägliche Leben einfach integriert sind – insbesondere, wenn sie nicht in humanoider oder animalischer Gestalt „herumlaufen“, sondern unauffällig und nützlich im Internet, in Clouds, in proprietären Netzen „denken“ und wirken, wie die meiste konventionelle Software inzwischen auch.

Ob Grenzen überschritten werden sollten, wie der Nachbau eines Kindes durch einen Robotermenschen, der im eingangs erwähnten Film „AI“ thematisiert ist, hängt vom verantwortlichen Umgang mit Technik ab. Ob dieser gelingt, liegt an jedem Einzelnen von uns, wie John Weizenbaum immer wieder betonte. Die Zukunft bleibt spannend.