Skip to main content

Decision Making: Theorieinventur in praktischer Absicht

  • Chapter
  • First Online:
Herrschaft und Technik
  • 1957 Accesses

Zusammenfassung

Unser privater wie beruflicher Alltag beruht auf zahlreichen Gewohnheiten, organisationalen Regelkatalogen und intelligenten Techniken. Aber erst in dem Moment, in dem sie uns unerwartet ihre jeweiligen Dienste versagen und wir nach neuen Handlungsanschlüssen suchen müssen, vergegenwärtigen wir ihr unsichtbares Entlastungspotential. Der Frage, wie Technik unser menschliches Entscheidungsverhalten zu unterstützen vermag, haben sich viele Wissenschaftsdisziplinen gewidmet. Die Befassungen von Aristoteles stehen mit seiner zwei- und dreiwertigen Logik für einen fulminanten Anfang, Entscheidungsprozesse zu konzipieren. Die ökonomischen Wissenschaften nahmen diese und weitere Kenntnisse auf, um Marktprozesse zu analysieren und zu gestalten. Zu diesen Wissenschaftlern gesellten sich die Soziologen Emile Durkheim (1893/1977) und Max Weber (1922/1980), die den bis dahin vorherrschenden ökonomisch-rationalen Diskurs um die Dimensionen der normativen, traditionalen und charismatischen Legitimation von Entscheidungen erweiterten. Spätestens seit Mitte des letzten Jahrhunderts gilt das Erkenntnisinteresse nicht mehr nur dem Unterstützungsgedanken menschlichen Entscheidungsverhaltens. Wissenschaftler verschiedenster Disziplinen streben seither immer selbstbewusster danach, die starken Seiten des menschlichen und technischen Entscheidungsvermögens auch so zu verbinden, dass die Technik zum Entscheidungsträger wird.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 59.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 64.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    „Neuronale Netzwerke werden eingesetzt, um komplexe und schlecht verstandene Probleme zu modellieren, für die schon sehr große Datenmengen gesammelt wurden“ (Laudon et al. 2006, S. 481). Sie basieren auf künstlichen Neuronen und stellen Anwendungssysteme dar, die auf Verarbeitungsmodi beruhen, die dem menschlichen Gehirn nachempfunden wurden (siehe kurze Zusammenfassung: DB-I.2).

  2. 2.

    Siehe u. a Kron 2005.

  3. 3.

    DSS werden auch als Assistenzsysteme zur Entscheidungsunterstützung bezeichnet.

  4. 4.

    Die disziplinübergreifenden Analysen bringen es leider mit sich, dass der Begriff „Prozess“ teils für einen Agenten steht, der im Rahmen eines IT-Systems einen Prozess darstellt, und teils für organisationale oder gesellschaftliche Prozesse steht (z. B. organisationale Entscheidungsprozesse).

  5. 5.

    Abkürzungen siehe vorige Seite oder Abkürzungsverzeichnis.

  6. 6.

    Fortan nutze ich den Begriff „Umwelt“ synonym für die Begriffe „(Agenten-)umgebung“ oder „Arbeitsumgebung“.

  7. 7.

    Ein unbekanntes Objekt kann mittels eines Agenten in Vektorenform dargestellt werden. Die sinnhafte Interpretation des Objekts kann nur durch eine generalisierte Vorlage erfolgen, über die der Agent verfügt.

  8. 8.

    Die Steuerungstechnik behandelt Aktuatoren als Pendant zu Sensoren: Die Umwandlung von Signalen zum Öffnen und Schließen eines Ventils oder von Parametern eines Analog-to-Digital-Converters sind Beispiele dafür.

  9. 9.

    Kognitive Agenten werden häufig auch als deliberative Agenten bezeichnet, wobei der BDI-Agent (Belief-Desire-Intention, Rao et al. 1991, Rao und Georgeff 1995) ein prominentes Beispiel dafür darstellt (Wesche 2004, S. 9).

  10. 10.

    Ohne Frage wäre eine weiter ins Detail gehende Darstellung solcher Agenten möglich. Für den Vergleich akteurs- und agentenbezogenen Entscheidungsverhaltens ist ein höherer Detaillierungsgrad jedoch nicht nötig.

  11. 11.

    Die folgende Darstellung eines kognitiven Agenten orientiert sich an Brenner et al. 1998 sowie an Rao und Georgeff 1995.

  12. 12.

    Parallel dazu gibt es auch Agenten, die so genannte Ko-Routinen ausführen und der Entlastung dienen, wenn ein Programm mehrere Prozeduren simultan durchführt. Jede Ko-Routine hat einen Eingangs- und Ausgangsport und besteht aus einer Schleife, die Wahrnehmungen vom Eingabe-Port liest und Aktionen auf den Ausgabe-Port schreibt (Russell und Norvig 2004, S. 71). Der prinzipielle Unterschied zwischen Ko-Routinen und Prozeduren ist, dass Ko-Routinen ihren Ablauf unterbrechen und später wieder aufnehmen können, wobei sie ihren Status beibehalten. Der Aufruf einer Prozedur wird durch einen Stapel realisiert. Oben auf dem Stapel sind die Parameter und lokalen Variablen der gerade aktiven Prozedur hinterlegt. Weiter unten im Stapel sind die Parameter und lokalen Variablen der aufzurufenden Prozedur und die Rücksprungposition, an der das Programm fortgesetzt wird, wenn die aktuelle Prozedur beendet wird. Werden mehrere Stapel angelegt, wird von Ko-Routinen gesprochen. Jede Ko-Routine kontrolliert sich selbst; nur jeweils eine Ko-Routine darf aktiv sein. Smith et al. (1994) unterscheiden zwischen Subroutinen und Agenten, weil Subroutinen nicht mit den Eigenschaften eigene Ideen, eigene Agenda, eigene Art der Aufgabenbewältigung ausgestattet sind. Da mein Erkenntnisinteresse auf Gemeinsamkeiten und Unterschiede zwischen menschlichem und technischem Entscheidungsverhalten zielt, setzte ich Agenten, die Routinen ausführen, mit Akteuren gleich, die rein verfahrensorientiert handeln.

  13. 13.

    Bei einem zielinformierten Agenten aktualisiert der Agent sein Wissen durch die explizite Beantwortung der Frage „Was passiert, wenn ich Aktion X ausführe?“ mit der Folge, dass alle relevanten Verhaltensmuster automatisch an die aktuelle Situation angepasst werden (Russell und Norvig 2004, S. 78).

  14. 14.

    Die detaillierte Darstellung des Aufbaus eines Neurons und dessen Eigenschaften fußen auf Kriesel 2007, S. 20–22.

  15. 15.

    Wenn ein Neuron eine Eingabe von einem anderen Neuron erhält und beide gleichzeitig stark aktiviert sind, dann erhöht sich das Gewicht ihrer Verbindung, d. h., die Verbindung zwischen beiden Neuronen verstärkt sich. Das ist eine sinngemäße Reformulierung der Hebbschen Regel, die bis heute Erkenntnisse über neuronales Netze grundiert – auch wenn längst bewiesen worden ist, dass eine solche Verstärkung nicht bis ins Unendliche geht. Den Vorgang der Verstärkung bis zum Erreichen des Schwellenwerts bezeichnet man seither als „Feuern“.

  16. 16.

    Mit der Formulierung im dritten Fenster der Grafik Ausgabefunktion interpretiere ich die Wortgruppe ‚ist oft Identität‘ als ‚ist oft mit ihr identisch‘.

  17. 17.

    Die Begriffswahl Kontingenz greift auf die entsprechende Verwendung von Luhmann (1988) zurück und beschreibt Prozesse als zufällig, aber nicht beliebig. Handlungstheoretisch bedeutet diese Sichtweise, dass Handeln Entscheidungskorridore (Ortmann 1995) konstituiert, die pfadabhängige Entwicklungen präjudizieren.

  18. 18.

    Siehe Abkürzungsverzeichnis.

  19. 19.

    Spiele bilden das Gerüst von Institutionen und meinen in erster Linie Handlungsmuster, die im Handeln produziert und reproduziert werden.

  20. 20.

    Überqueren einer Straße durch einen Agenten bedeutet: Schauen nach links und rechts. Er wählt die Aktion „Schauen“, bevor er losgeht. Dadurch erhöht er seine Leistungsmaximierung (Russell und Norvig 2004, S. 61).

  21. 21.

    Automatisches Autofahren ist stochastisch, weil das Verhalten anderer Verkehrsteilnehmer nicht genau voraussehbar ist.

  22. 22.

    Das Erkennen und Sortieren von Sendungen nach einer vorgegebenen Klassifizierung (z. B. PLZ) durch eine automatische Sortieranlage ist ein Beispiel dafür.

  23. 23.

    Automatisches Autofahren findet in einer dynamischen Umgebung statt, weil sich die Fahrsituation der sich bewegenden Verkehrsteilnehmer ändert.

  24. 24.

    Zur Vermeidung von Zusammenstößen im Verkehr tritt partielle Kooperation auf. So wie mehrmalige Wahlentscheidungen möglich sind, wird auch die Möglichkeit der Ausprägung zweier dominanter Strategien bedacht. Kooperationsbereitschaft ist ebenso zu erwarten wie Kooperationsenthaltung. Einerseits kann Kooperation infolge einer Koordination gegenseitiger Erwartungen wahrscheinlich werden, andererseits kann Kooperation als Antwort auf Kooperation (Axelrod 1988) anderer erfolgen.

  25. 25.

    „Verschärft wurde der Kurssturz durch die zunehmende Automatisierung des Handels.“ In: Schwarzer Montag 1987; http://www.spiegel.de/wirtschaft/0,1518,565939,00.html, 30.1.2011. „Die enge Vernetzung der Wirtschaften und die immer weiter vorangeschrittene Computerisierung des Handels führte damals zu einem weltweiten Kurseinbruch der Aktienmärkte…. Erstmals in der Geschichte hatten dabei Computer großen Anteil an den fallenden Kursen. Der damals noch neue elektronische Handel eröffnete erstmals die Möglichkeit, Aktien in großen Mengen automatisch abzustoßen, sobald der Kurs unter eine bestimmte Kursmarke fällt. Der Überhang an Verkaufsaufträgen und die computergesteuerten Verkaufsprogrammen zur Kursabsicherung führten so zu einem sich selbst verstärkenden Preisverfall. Verkaufsorders führten zum Auslösen von Stoppmarken und diese wieder zu neuen Verkaufsorders, die die Kurse erneut unter die nächsten Stoppmarken schickten usw.“ In: Der schwarze Montag am 19. Oktober 1987; http://zeitenwende.ch/finanzgeschichte/der-schwarze-montag-am-19.-oktober-1987/, 30.1.2011.

  26. 26.

    Agenten verraten nichts über ihr Zusammenspiel zwischen Kognitionen und Motivationen, wenn sie zwischen Zielen vermitteln oder auf ihre wechselseitigen Beziehungen zurückgreifen (Strube 1998, S. 112).

  27. 27.

    Die Zivilisation konnte sich nur in einer gemäßigten Klimazone entwickeln, weil sie unter kargen Umweltbedingungen nicht möglich und unter verschwenderischen Umweltbedingungen nicht nötig ist (Elster 1989, S. 18).

  28. 28.

    Elster illustriert diese Form der adaptiven Präferenzbildung anhand der Fabel „Saure Trauben“: Weil der Fuchs keine Chance hat, die süßen Trauben hinter dem Zaun zu erreichen, sind sie für ihn sauer. An sauren Trauben ist er nicht interessiert (Elster 1987, S. 211).

  29. 29.

    Den strategischen Umgang mit der Willensschwäche illustriert Elster (1989, S. 19) anhand der Situation, in der Odysseus auf die Sirenen trifft. Odysseus weiß, dass er dem Sirenengesang nicht widerstehen kann. Er möchte ihn hören, ohne sein Leben dafür herzugeben. Um beide Ziele zu erreichen, bedient er sich des Mittels der Selbstbindung. Er lässt sich von seinen Untertanen an einen Schiffsmast binden und weist an: „Fleh ich euch an und befehle, die Seile zu lösen – Eilend fesselt mich dann mit mehreren Banden noch stärker!“ (Odyssee).

  30. 30.

    Es sei denn, sie sind dazu ausgelegt. Aber dann sind sie auch mit entsprechenden Funktionalitäten ausgestattet (siehe Fallstudien 2 und 3).

  31. 31.

    „Unsere Theorie vernachlässigt vollkommen den Ursprung der Werte, die in die Nutzenfunktion eingehen; sie sind einfach da, schon wohlgeordnet, um konsistente Präferenzen für die verschiedenen Zukunftsmöglichkeiten auszudrücken, die zur Wahl stehen könnten. Genauso wenig werden die Prozesse, mit deren Hilfe die Tatsachen der gegenwärtigen und zukünftigen Zustände der Welt festgestellt werden, erfasst. Im besten Fall zeigt uns dieses Modell, wie man über Tatsachen und Wertprämissen vernünftig nachdenkt; es sagt nichts darüber aus, woher sie kommen.“ (Simon 1993, S. 23) Wie Plessner (1928/1975), Simmel (1908) und die Relationale Soziologie zeigen, erwachsen diese aus der Mitte, d. h. aus den Beziehungen.

  32. 32.

    „Pure rationality and limited rationality share a common perspective, seeing decisions as based on an evaluation of alternatives in terms of their consequences for preferences. This logic of consequences can be contrasted with logic of appropriateness by which actions are matched to situations by means of rules organized into identities.“ (March 1994, S. 57).

  33. 33.

    Bei Elster gehören in das „opportunity set“ ökonomische, legale, psychologische und physiologische Sachverhalte. Diese sind insofern vom Akteur abhängig, wie dieser seine Ziele wählt (Elster 1989).

  34. 34.

    „They use selective heuristics and means-end analysis to explore a small number of promising alternatives. They draw heavily upon past experience to detect the important features of the situation before them, features which are associated in memory with possibility relevant actions. They depend upon aspiration-like mechanisms to terminate search when a satisfactory alternative has been found.“ Simon 1976a, S. 129–148.

  35. 35.

    Optimale Entscheidungen mit mehreren Spielern funktionieren technisch auf die gleiche Weise.

  36. 36.

    Der Ausgangszustand und die erlaubten Züge (Handlungen) jedes Spielers oder Agenten werden durch einen Spielbaum dargestellt. Für einen beliebigen Spielbaum kann die optimale Strategie errechnet werden, indem der MIN-MAX-Wert jedes Knotens eines Pfadbaums betrachtet wird. Unterstellt wird dabei, dass beide Spieler optimal spielen. Der MIN-MAX Algorithmus berechnet die MIN-MAX-Entscheidung aus dem aktuellen Zustand. Er weist die Aktion aus, die dem bestmöglichen Zug im Sinne der Nützlichkeit entspricht. Dabei wird der gesamte Spielbaum bis zu seinen äußersten Blättern durchlaufen, um den Wert eines Zustands zu ermitteln.

  37. 37.

    Shannon (1950) resümiert zur Programmierung eines Schachprogramms: „[…] even with the high computing speed available in electronic calculators this computation is impractical […]“. Moderne Schachprogramme wie Fritz können unter Nutzung einer entsprechenden Hardware Millionen von Stellungen pro Sekunde berechnen. Das Problem bleibt dennoch. Das Ziel der Programmentwicklung ist es daher nicht, Schach perfekt spielen zu können, sondern genügend Züge vorauszuberechnen, um die Spielstärke der besten menschlichen Spieler zu erreichen. Der Großrechner „Deep Blue“, Sieger über Kasparow, könnte ein Beispiel dafür sein. Er ist es aber nicht. Dieser Rechner hat weniger mit „Künstlicher Intelligenz“ zu tun als wir wahrhaben wollen. Genaugenommen basiert der Erfolg dieses Schachcomputers auf einer massiven Parallelisierung.

  38. 38.

    Bei der Anwendung dieser Prozedur wird darauf geachtet, dass die die Situation nicht durch Wertschwankungen gekennzeichnet ist.

  39. 39.

    Dieser Umstand lässt sich am Beispiel der formal gleichen Bewertung der Schachfiguren Springer und Läufer illustrieren. Im Endspiel reichen ein König und zwei Springer nicht dazu aus, den gegnerischen König Matt zu setzen. Stehen dem Spieler König, Läufer und Springer zu Verfügung, ist das Schicksal des gegnerischen Königs besiegelt. Diese Figurenkonstellation führt zum Matt.

  40. 40.

    Bei jedem folgenden Schritt werden parallel alle Nachfolger dieser Zustände erzeugt. Führt einer zum Ziel, ist die Suche beendet. Bei einer solchen parallel verlaufenden lokalen Strahl-Suche werden Informationen zwischen den Suchprozessen ausgetauscht mit der Folge, dass ein Zustand, der über mehrere gute Nachfolger verfügt, den Algorithmus abbrechen lässt, wenn die anderen Zustände schlechtere Nachfolger erzielten. Durch die daraus resultierende Konzentration auf die am meisten Erfolg versprechenden Zustände wird die Effizienz der Suche erhöht.

  41. 41.

    Diese Vorgehensweise ist dem sexuellen Reproduktionsmechanismus entlehnt.

  42. 42.

    In diesem Sinne wird zwischen sensorlosem Planen (es wird ein Plan konstruiert, der ohne Wahrnehmung ausgeführt werden kann) und bedingtem (kontingentem) Planen unterschieden. Bei letzterem darf der Agent die Welt während der Ausführung der Aktion beobachten und daraufhin entscheiden, welcher Verzweigung des Plans gefolgt wird (Russell und Norvig 2004).

  43. 43.

    Dabei beruhen Veränderungen auf relativ stabilen Routineprozessen, die die Organisationen mit ihren Umwelten verbinden, und finden statt, „because most of the time most people in an organization do about what they are supposed to do, they are intelligently attentive to their enviroments and their jobs“ (ebd., S. 169).

  44. 44.

    In diesem Beitrag wird Mitgliedschaft in Bezug auf verteilte Entscheidungsträgerschaft zwischen Mensch und Technik und unter den Stichworten Verantwortungsübernahme und Risiko analysiert.

  45. 45.

    „Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“ Kant (1785).

  46. 46.

    Die Konstitution des Linux-Kernel der Open Source Linux ist ein Beispiel dafür. U. a. Dave Miller, Stephan Tweedie und Alan Cox erwarben bei Linus Torvald das Vertrauen und zählten fortan zum inoffiziellen Entwicklerteam (Grassmuck 2004, S. 237).

  47. 47.

    Dem Liebenden kann nicht gedroht werden, seine Liebe zu verlieren.

  48. 48.

    Die Open Source Innovation OSGV, ein Open Source Automobil, ist ein Beispiel dafür.

  49. 49.

    Realisierungen, die einen solchen agenteninitiierten Einsatz eines anderen Agenten bedeuten könnten, setzen die Ausstattung des auslösenden Agenten mit einem Werkzeugkasten voraus, der entweder mit einem Compiler zur Ausführung eines Prozesses (mit der Programmiersprache C#) oder bei Suchmaschinen wie Google denkbar ist, wobei in diesem Fall die Suche dadurch unterstützt wird, dass kleine Suchprozesse anhand der gerade erzielten Suchfortschritte programmiert werden. Die Umsetzung beider Varianten würden große Schritte in Richtung autonomer Agenten bedeuten. In bestimmten Wirtschaftsbereichen sind sie bereits Realität.

  50. 50.

    U. a. mit dem Beispiel, welcher Agent geht als Erster durch die Tür.

  51. 51.

    Dieser Sachverhalt entspricht dem bekannten Problem der doppelten Kontingenz (Luhmann 1984).

  52. 52.

    Zitiert nach Lorentzen und Nickles 2002, S. 71.

  53. 53.

    Ebd.

  54. 54.

    Eine typische Agentenkonzeption, die auf Ziele, Absichten und beliefs von Agenten rekurriert, stellt der so genannte BDI-Ansatz (B = Beliefs; D = Desires; I = Intention, Rao und Georgeff 1991) dar. Diese Agenten streben danach, sowohl ihre Ziele als auch jene ihrer potentiellen Kooperationspartner zu kennen, um beides miteinander abstimmen zu können (Jennings 1996). Um diese Form der Koordination erfolgreich zu gestalten, ist nicht nur der Abgleich der Ziele notwendig. Es müssen Informationen ausgetauscht werden, die die Dringlichkeit der einzelnen Ziele, die jeweiligen Fähigkeiten und Lösungsmöglichkeiten betreffen, um eine faire und effiziente Koordination zu erzielen (Wellner 2002, S. 12).

  55. 55.

    Die Abwesenheit eines positiven Feedbacks wird signalisiert, indem weniger neue Spuren gelegt werden und im Ergebnis dessen alte Spuren verschwinden (Horn 2009, S. 11).

  56. 56.

    Beispiele aus der Biologie sind Insektenstaaten und Bienenvölker.

  57. 57.

    Genau diese Entlastung von sinngebundenen Operationen stellt die Quelle zur Entwicklung der IT zur Schlüsseltechnologie dar.

  58. 58.

    Gesetz der vermittelten Unmittelbarkeit.

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Doris Blutner .

Rights and permissions

Reprints and permissions

Copyright information

© 2015 Springer Fachmedien Wiesbaden

About this chapter

Cite this chapter

Blutner, D. (2015). Decision Making: Theorieinventur in praktischer Absicht. In: Herrschaft und Technik. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-05374-1_2

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-05374-1_2

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-05373-4

  • Online ISBN: 978-3-658-05374-1

  • eBook Packages: Humanities, Social Science (German Language)

Publish with us

Policies and ethics