Zusammenfassung
Die Umwelt des handelnden Individuums stellt den Ausgangspunkt einer individuellen Situationsdefinition dar, auf deren Grundlage Handlungsalternativen gebildet werden können. Um handlungsbeeinflussend wirken zu können, müssen aktuelle Ausprägungen von Umwelteigenschaften durch den Akteur wahrgenommen werden. Durch Zuordnung der Wahrnehmungsfähigkeit zu den grundlegenden Eigenschaften des Akteurs erfolgt die Problematisierung der Situationsdefinition ausdrücklich.1 Als Situation wird ein Ausschnitt der Umwelt verstanden; 2 die Umwelt wird unter dem Wahrnehmungsaspekt als die dem Individuum zu einem Zeitpunkt überhaupt zugängliche „Gesamtheit materieller Information“ 3 definiert. Gerade wegen der vielfältigen Verwendung des Informationsbegriffs — Steinbuch zählte schon 1978 insgesamt 160 publizierte Definitionen4 — und der damit einhergehenden „erheblichen Unschärfe“5 ist diese Präzisierung des in dieser Arbeit vertretenen Verständnisses wesentlich, denn „a clear understanding of the concept of information is a necessary prerequisite for any discussion of economic topics.“6
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Dieses Vorgehen entspricht der Forderung von Geulen (1982, S. 59): „Für eine moderne Theorie des sozialen Handelns bedeutet dies, daß sie die Kategorie der Situationsdefinition explizit aufnehmen und die Prozesse erklären muß, durch die handelnde Subjekte zu ihrem Konsens über die Situationsdefinition kommen.“ Zur Bedeutung der Beziehung zwischen Umwelt und Akteur siehe auch Holland et alii (1987b, S. 30f.), Simon (1986b, S. 210f.) sowie North (1992, S. 27).
Vgl. Israel/Perry (1990, S. 7).
Stachowiak (1973, S. 343). Die Hervorhebung der Zugänglichkeit stellt noch keinen Ausschluß der Annahme vollständiger Information dar. Diese ist in dieser Definition als Grenztyp enthalten.
Vgl. Steinbuch (1978, S. 78f.).
Weber (1993, S. 647). Diese Unschärfe veranlaßte Kuhn (1966, S. 152f.), den Begriff für undefinierbar zu erklären. Ähnlich auch Haken (1988, S. 14), der feststellt: „The use of the word information is connected with considerable confusion.“
Hanappi (1994, S. 21)
Vgl. zum Begriff des Reduktionismus Abschnitt 2.1. Brauner (1993, S. 31) verlangt aufgrund der Hinzunahme materieller Informationen eine Einschränkung des Untersuchungsraums: „Wenn ich die Außenwelt als aus physikalischen Reizen bestehend auffasse, muß ich den Organismus als einen physikalischen fassen.“
Einen Überblick über die neuronalen Grundlagen der Wahrnehmung findet sich beispielsweise bei Schwarz (1987).
Stachowiak (1973, S. 200) (Hervorhebung im Original kursiv) So ist auch Brunswik (1934, S. 65ff.) zu verstehen, der Reize nicht als Reizquelle, sondern funktionalistisch als Träger von Information interpretiert.
Vgl. Shannon/Weaver (1949).
Vgl. Haken (1988, S. 15). Dort wird die angegebene Formel zur Bestimmung von „Information“ verwendet. Jedoch deutet der Kontext darauf hin, daß der Informationsbegriff an dieser Stelle mit dem des Informationsgehalts wechselseitig gebraucht wird.
Vgl. Walsh/Webber (1977, S. 396). Für die Verwendung eines logarithmischen Maßes sprechen nach Shannon (1948, S. 379) drei Gründe. Unter anderem wird dort die Additivität angeführt. Die Wahl der Basis zwei des Logarithmus ermöglicht die Verwendung der Einheit „bit“ für den Informationsgehalt. Vgl. Shannon (1948, S. 379). Da der Logarithmus für 0 ≤ p j ≤ 1 negativ ist, wird das führende negative Vorzeichen verwendet.
Vgl. C.F. von Weizsäcker (1985, S. 171).
Vgl. Haken (1996, S. 16); Binswanger (1992, S. 47).
Vgl. Binswanger (1992, S. 47). In Shannon (1948) werden noch weitere Eigenschaften genannt.
Vgl. Völz (1991, S. 88); Steinbuch (1976, S. 49).
Vgl. Reese (1994, S. 131).
Weaver (1967, S. 15)
Vgl. Weaver (1967, S. 9ff).
Vgl. u.a. C.F. von Weizsäcker (1985, S. 170ff.); Fuchs (1973, S. 111ff.); Rapoport (1986, S. 128); Lewis (1930, S. 537); Ayres (1988, S. 10ff.); Zucker (1974, S. 36ff.). Anders wird das Verhältnis zwischen den beiden Begriffen gesehen durch Georgescu-Roegen (1971, S. 9) und Proops (1987, S. 232).
Zu den Hauptsätzen der Thermodynamik siehe beispielsweise Prigogine (1978). Das Grundprinzip der Entropie wurde durch Clausius schon 185o in einer ersten Fassung des späteren Hauptsatzes ohne explizite Verwendung des Entropiebegriffes formuliert (Vgl. Binswanger (1992, S. 28)). In Rifkin (1980, S. 5ff.) wird der Ausspruch „Die Zeit entwertet die Welt“ des Philosophen Horaz im ersten Jahrhundert v. Chr. als erstes Indiz für die Beschäftigung mit entropie-ähnlichen Phänomenen gesehen.
Binswanger führt in Binswanger (1992, S. 27) als Beispiele für solche makroskopischen Variablen „Masse, Druck, Volumen oder Temperatur“ an.
Synonym zum Komplexionsbegriff werden nach Wehrt (1974, S. 131) auch die Begriffe statistisches Gewicht oder thermodynamische Wahrscheinlichkeit verwendet. Vgl. zur Definition des Komplexionsbegriffs Binswanger (1992, S. 36). Allgemein bezogen sich Bolzmanns Versuche auf ideale Gase mit der Teilchenzahl N, auf die gegebene Energie verteilt wurde und die sich ihrerseits in einem Raum mit gegebenem Volumen verteilten. Dabei entspricht eine Verteilung einem Makrozustand.
Vgl. Binswanger (1992, S. 39).
k stellt die Boltzmannsche Universalkonstante dar, die 3, 2983 · 10-24 kal/C entspricht (Vgl. Schrödinger (1968, S. 143)). Wegen δS/δW > 0 ist S in Abhängigkeit von W streng monoton steigend.
Horwich (1987, S. 62) Ähnlich auch Prigogine/Stengers (1988, S. 132): „Für Systeme, die aus einer grossen Teilchenzahl bestehen, ist also jeder Zustand, der vom Zustand der Gleichverteilung abweicht, sehr unwahrscheinlich.“ Die Anlehnung des mikrophysikalischen Entropiebegriff an den aus der phänomenologischen Thermodynamik ist nicht unumstritten. Siehe dazu Georgescu-Roegen (1971).
Vgl. Proops (1987, S. 240), Binswanger (1992, S. 39).
Die Stirlingsche Formel wird hier in einer vereinfachten Form mit ln N! ≈ N · ln N - N verwendet. Im Original lautet sie ln N! ≈ (N + 1/2) ln N - N + ln √2π. Der Fehler für N > 70 liegt durch die vereinfachte Formel bei weniger als einem Prozent. Vgl. Bronstein et alii (1995, S. 352).
Die genauen Umformungsschritte finden sich beispielsweise in Binswanger (1992, S. 40).
Vgl. Binswanger (1992, S. 53); Caves (1994, S. 1). Zur potentiellen Information siehe Formel (3.1) auf Seite 29.
Binswanger (1992, S. 52)
In Brillouin (1968, S. 162) wird von einer „similarity between negentropy and information“ gesprochen.
Vgl. Binswanger (1992, S. 54). Als Beispiele für Situationen, deren Negentropie schnell sinkt, führt Brillouin (1968, S. 162) „weather data, stock exchange quotations, political information“ an. Jedoch auch vergleichsweise stabile aktuelle Informationen, wie „scientific laws and well-established historical facts“, sind diesem Verfallsprozeß ausgesetzt.
Erstmals wurde diese Feststellung von Schrödinger (1944, S. 17) durch die zentrale Aussage „Life feeds on low entropy“ formuliert. Vgl. zum speziellen Bezug auf ökonomische Systeme Allen (1988). Chmielewicz (1979, S. 200) weist darauf hin, daß sogar der Versuch einer künstlichen Isolierung sozialer Systeme schwerer fällt, als das bei natürlichen Systemen der Fall ist.
Knight (1921) führte diesen Begriff ein. Daher wird synonym auch der Ausdruck „Knight’sche Unsicherheit“ verwendet. Vgl. auch Bamberg/Coenenberg (1992, S. 23f.).
Die Präzisierung erfolgt in Abschnitt 3.1.2 auf Seite 49, die Problematisierung in den Abschnitten des Unterkapitels 3.1.3 ab Seite 55.
Zur allgemeinen Betrachtung von ökonomischen Systemen fern von thermodynamischen Gleichgewichtszuständen siehe Bach (1998, passim).
Vgl. Shannon (1948, Fig. 1).
Vgl. E. von Weizsäcker (1974, S. 86).
Haken (1988, S. 16). Vgl. auch Weaver (1949, S. 99), der auf die besondere Verwendung des Informationsbegriffs in seiner Theorie hinweist: In particular, information must not be confused with meaning.“ Shannon selbst sieht den Ursprung seines Informationsbegriffs in den hier aufgezeigten ingenieurwissenschaftlichen bzw. mikrophysikalischen Grundlagen und stellt daraus folgend dessen ausschließlich syntaktischen Gehalt fest. Denn „semantic aspects of communication are irrelevant to the engineering problem.“(Shannon (1948, S. 379)) Vgl. auch Shannon/Weaver (1949, S. 42); Binswanger (1992, S. 50).
Vgl. Lane/Maxfield (1997, S. 191).
Staehle (1999, S. 276). Im 1968 geführten interdisziplinären „Starnberger Gespräch“ stellten Steinbuch, Haseloff und Bar Hillel für ihre jeweiligen Wissenschaftsgebiete der Computertechnik, Psychologie bzw. Sprachtheorie die praktische Nutzlosigkeit der Shannonschen Informationstheorie fest. Vgl. E. von Weizsäcker (1974, S. 88).
Die Diskussion des Informationsbegriffs nach Wittmann erfolgt in Kapitel 3.1.1.2.
Vgl. Ferschl (1982, S. 35).
Israel/Perry (1990, S. 6) (Hervorhebung im Original kursiv) Teichmann (1971, S. 746f.) unterscheidet zwischen Informationsgewinnung und Informationsstand: „Verkürzend als Information werden wir, ebenfalls übereinstimmend mit der Literatur, auch das Handeln bezeichnen, das hierfür erforderlich ist, als die Informationsgewinnung, und den Zustand, zu dem dieses Handeln führt, also den Informationsstand.“ (Hervorhebungen im Original kursiv)
Tamborini (1997, S. 55). Vgl. Marschak (1963, S. 719f.).
Vgl. Seite 43ff.
Vgl. Osgood/Sebeok (1967).
Laucken (1987)
Vgl. Stachowiak (1973, S. 200). „Die Semiotik untersucht als Wissenschaft von den Zeichenprozessen alle Arten von Kommunikation und Informationsaustausch zwischen Menschen, zwischen nichtmenschlichen Organismen und innerhalb von Organismen.“ Posner (1979, S. 1).
Vgl. Stachowiak (1973, S. 207). Eine stärker formalisierte Präzisierung findet sich beispielsweise in den Transformationsgrammatiken von Chomsky (1957).
Stachowiak (1973, S. 200)
Stachowiak (1973, S. 200) (Hervorhebung im Original kursiv) Dort wird die morphologische Schicht auch als „Springfläche der explizit bedeutungstragenden Zeichengestalten und damit [...] Schicht der eigentlichen Kommunikation“ bezeichnet.
Stachowiak (1973, S. 204)
Das Semant kann je nach Zugehörigkeit nach L-Semant (Lex) bzw. S-Semant (Syntax) differenziert werden.
Anhand der Definition des Lexems wird deutlich, daß die Einheiten unterhalb der semologischen Ebene selbst keine Bedeutung tragen, sie ihnen erst dort zugewiesen wird: „Zwei Lexe [sollen] genau dann als einander äquivalent gelten, wenn 1. beide die gleiche Zahl von Morphen besitzen, 2. die Morphe des einen denen des zweiten umkehrbar eindeutig zugeordnet werden können und 3. für alle diese Morphe gilt, daß die je einander zugeordneten dem gleichen Morphem angehören.“ (Stachowiak (1973, S. 205))
Stachowiak (1973, S. 207f.) (Hervorhebung im Original kursiv)
Eine Detaillierung der hier dargestellten Struktur findet sich beispielsweise in Hammarström (1966).
Vgl. Stachowiak (1973, S. 210).
Die hier vorgestellte Form der Informationsstruktur ist eine Modifikation des allgemeinen Informationsstrukturmodells, vorgestellt in Ferschl (1982, S. 45ff.) oder ähnlich Bamberg/Coenenberg (1992, S. 18).
Zur Unterscheidung zwischen kausalen und diagnostischen Wahrscheinlichkeiten siehe Spies (1993, S. 39).
In Spies (1993, S.49) wird dazu festgestellt, „daß ein menschlicher Experte die eigene Einschätzung eines unsicheren Sachverhalts gar nicht als Wahrscheinlichkeit ausdrücken kann.“
Vgl. Bamberg/Coenenberg (1992, S. 16).
Das hier vorgeschlagene Stärkemaß orientiert sich an der Fitness aus der Populationsgenetik. Die eindi- mensionale Bemessung des potentiellen Erfolgs erweist sich auch in ökonomischen Zusammenhängen als schwierig. Vgl. dazu die Diskussion in Simon (1993a).
Damit werden die si in disjunktiver Normalform miteinander verknüpft. Das stellt keine Beschränkung der Allgemeinheit dar, da „jede nicht kontradiktorische (also erfüllbare) Formel eine äquivalente und eindeutig bestimmbare disjunktive Normalform“ hat. (Dörfler/Peschek (1988, S. 91))
Die hier eingeführte Tabellenform wird im weiteren Verlauf dieser Arbeit als Grundlage der Modellierung der individuellen Akteure verwendet.
Vgl. Ferschl (1982). Eine ähnliche Struktur weisen die in Chang/Hong/Tseng (1996, S. 207) vorgestellten „Training Instances“ auf.
Vgl. Bamberg/Coenenberg (1992, S. 18). Zum Begriff der kategorialen Variablen siehe Spies (1993, S. 92).
Die zeitliche Integration ermöglicht in Sonderfällen der Wahrnehmung erst die Bedeutungsbeimessung zeitlich zurückliegend empfangener Morpheme. In diesen Fällen müssen aufgrund der vorhandenen Kontextsensitivität der Sprache bereits aufgestellte Hypothesen über die Zuordnung eines Semems zu einem Morphem wieder verworfen werden. In Spies (1993, S. 352) wird der folgende Satz beispielhaft angeführt: „Der Aufzug hielt; das erste Geschoß mußte den Mann unmittelbar in die Schläfe getroffen haben.“ Vgl. auch Zwitserlood (1989) und Swinney (1979). In Israel/Perry (1990) wird Information, die nur durch die Fähigkeit zur Speicherung des Akteurs ermöglicht wird, als inkrementell bezeichnet. Ohne die Speicherungsfähigkeit ist gemäß der dort verwendeten Begrifflichkeit ausschließlich „pure information“ möglich.
Cramer (1993, S. 246)
Wehrt (1974, S. 174) Als Beispiel für derartig invariante Bewegungsgesetze werden beispielhaft die idealisierte Schwingung eines Pendels oder als quantenmechanischer Prozeß die von dissipativen Effekten freie Bewegung eines Atoms im Kristallgitter aufgeführt. Vgl. auch Zucker (1974, S. 74). Die jeweiligen Gültigkeitsbereiche der Bewegungsgesetze werden zusätzlich durch Universalkonstanten eingeschränkt. Beispielsweise beschreibt die Plancksche Konstante mit 6,6 · 10-27erg sec das kleinstmögliche Wirkungsquantum oder die Lichtgeschwindigkeit durch 3 · 1010cm/sec die höchste Geschwindigkeit. Vgl. Cramer (1993, S. 247).
Vgl. Hicks (1946, S. 115), der darlegt: „I call [...] Economic Dynamics those parts where every quantity must be dated.“ Vgl. Faber/Proops (1993, S. 68).
Wehrt (1974, S. 174). Vgl. auch C.F. von Weizsäcker (1994, S. 140).
Vgl. Cramer (1993, S. 250) faßt in den Umgang mit der Zeit in der klassischen Physik treffend zusammen: „In gewisser Weise kann man sagen, die Zeit ist — außer als skalare Meßgröße — durch die Newtonsche Physik aus der Wissenschaft und damit für die meisten mit der Wissenschaft und ihren Technikfolgen lebenden Menschen auch aus der Welt herausgekürzt worden.“
Vgl. Koopmans (1951, S. 48ff.), Debreu (1959, S. 39ff.).
Faber/Proops (1993, S. 69). Vgl. Leijonhufvud (1984, S. 30); Hicks (1965, S. 47).
Zucker (1974, S. 74). Diese Betonung einer eindeutigen Richtung der Zeit wird auch als „Symmetriebruch der Zeit“ (Bach (1998, S. 171)) bezeichnet. Vgl. Jantsch (1992, S. 142). Der Begriff der Anisotropie wurde zuerst von Grünbaum (1970, S. 476) in Zusammenhang mit der Zeit verwendet.
Vgl. C.F. von Weizsäcker (1994, S. 139), Cramer (1993, S. 253f.). Zucker (1974, S. 76) nahm zwar schon Kenntnis von den diesbezüglichen Forschungsaktivitäten von WeizsäCkers, jedoch stellt er fest, daß „die phänomengerechte Beschreibung der Zeitstruktur [...] in der Tat nur in einer notwendig metaphorischen Sprache zu gelingen“ scheint. Vgl. die Erläuterungen zum zweiten Hauptsatz im Rahmen der Einführung des Entropiebegriffs in Abschnitt 3.1.1.1.1.
Vgl. C.F. von Weizsäcker (1994, S. 106), Cramer (1994, S. 251). Ausdrücklich sei darauf hingewiesen, daß der mathematische Formalismus des zweiten Hauptsatzes keine Strukturierung der Zeit kennt, sondern ebenso durch eine Parameterzeit interpretiert werden kann. Erst die Einführung des asymmetrischen Wahrscheinlichkeitsbegriffs auf der semantischen Ebene der Theorie führt zu der angestrebten Zeitstruktur.
8o C.F. von Weizsäcker (1994, S. 149)
Vgl. C.F. von Weizsäcker (1994, S. 142f.). Dort wird ebenfalls auf einen Unterschied zwischen irreversiblen Theorien und Dokumenten hingewiesen, auf den auf Seite 42 vertiefend eingegangen wird.
Wittmann (1959, S. 15). Aufgrund dieser Feststellung schließt Wittmann in bezug auf den durch ihn geprägten Informationsbegriff dort auch, daß „im Bereich der Zukunft nicht von Wissen, also auch nicht von zweckorientiertem Wissen und damit Information gesprochen werden“ darf. Zum Informationsbegriff nach Wittmann vgl. Abschnitt 3.1.1.2 auf Seite 44.
Neben der Betrachtung eines geschlossenen Systems wird auch die Unmöglichkeit kausaler, im Sinne naturgesetzlicher Schlüsse, als einschränkende Bedingung vorausgesetzt. „Aber die Abweichun- gen von diesen Bedingungen zeichnen im Durchschnitt keinen Zeitmodus aus.“ (C.F. von Weizsäcker (1994, S. 147))
Diese Nachweisskizze lehnt sich an der Zusammenfassung von Weizsäckers im Anschluß an die detaillierte Fassung in C.F. von Weizsäcker (1994, S. 144–148) an.
Vgl. Küppers (1986, S. 19).
Cramer (1993, S. 251) (Hervorhebung im Original kursiv) C.F. von Weizsäcker (1994, S. 140) beschreibt die Vorgehensweise bei seinem Konsistenznachweis in anhand eines einfachen Beispiels aus der Logik: Aus A ⇔ B läßt sich sowohl A ⇒ B als auch B ⇒ A ableiten ohne einem Zirkelschluß zu unterliegen. Erst wenn aus der Behauptung von A über A ⇒ B ⇒ A der Beweis der Wahrheit von A behauptet wird, liegt ein unzulässiger Circulus vitiosus vor.
Vgl. Drieschner (1981).
Vgl. Samuelson (1947, S. 315). Siehe auch Schumpeter (1954, S. 965) und Faber/Proops (1993, S. 68).
Bühl (1990, S. 55)
Vgl. Knight (1921); Bamberg/Coenenberg (1992, S. 36ff.).
Neben den hier aufgeführten Auswirkungen auf die Wahrnehmung bzw. Handlungsprognose beeinflußt die Strukturierung der Zeit weitere Teile des zu entwickelnden Modells. So beispielsweise in der Dynamisierung des Handlungsmodells in Kapitel 3.2.3.4 oder der Betrachtung von Ordnungsbildungen in Kapitel 4.2. Eine generelle Untersuchung der Bedeutung irreversibler Prozesse für Unternehmen findet sich in Bach (1998, passim).
Vgl. C.F. von Weizsäcker (1994, S. 143f.). Dort werden die Knochen eines Dinosauriers oder das Licht eines neuen Sterns als Beispiele für nicht menschlich erzeugte, jedoch wahrnehmbare Dokumente angeführt.
C.F. von Weizsäcker (1994, S. 144)
Die so verstandene Wahrnehmung ist rekursiv angelegt, denn auch die Wahrnehmung eines faktischen Dokuments stellt ein Perzeptionsereignis dar.
C.F. von Weizsäcker (1994, S. 148) (Hervorhebung im Original kursiv)
Im Nachweis der Zeitstruktur mit Hilfe des zweiten Hauptsatzes wurde auf Seite 39 die Unabhängigkeit der betrachteten Ereignisse vorausgesetzt. Bedingt unabhängig heißen „Ereignisse, die nur in einem bestimmten Kontext unabhängig sind“ (Spies (1993, S. 47)). Allgemeiner ist der Begriff der stochastischen Unabhängigkeit, der ohne Kontextbedingung definiert ist. Vgl. Bauer (1974).
In Merfeld/Zupan/Peterka (1999, S. 615–618) wird dieses Schlußfolgerungspotential von Naturgesetzen am Beispiel der Wahrnehmung von linearer Beschleunigung und Anziehungskräften durch menschliche Individuen nachgewiesen. Vgl. für weitere Beispiele C.F. von Weizsäcker (1994, S. 142f.).
C.F. von Weizsäcker (1994, S. 143) stellt fest, daß „gerade der irreversible Charakter des Vorgangs zeitliche Grenzen der sinnvollen Epi- bzw. Prognose“ mit sich bringt.
Vgl. Bach (1998, S. 175f.).
Vgl. Weidlich/Haag (1983, S. 15f.). Dort wird die Prognoseungenauigkeit von einerseits soziologischen und andererseits physikalisch-chemischen Prozessen miteinander verglichen. Diese Typisierung wird weitgehend synonym für irreversible bzw. reversible Prozesse genommen. Vgl. Grothe (1997, S. 122), der aus der Unsicherheit der Prognose die besondere Notwendigkeit von Führung in sozioökonomischen Systemen ableitet.
Vgl. C.F. von Weizsäcker (1994, S. 142), dessen Aussagen über die Zuverlässigkeit der Epi- bzw. Prognose einer Sonnenfinsternis aus den heutigen Gestirnpositionen und -geschwindigkeiten hier verallgemeinert wiedergegeben werden.
Vgl. Stachowiak (1973, S. 213). Reduktive Schlußfolgerungen umfassen induktive als Spezialfall.
Auf Seite 46 wird auf den Grad der Korrelation zwischen Sememen als Optimalitätskriterium detail- liert eingegangen.
Stachowiak (1973, S. 210)
Durch Stachowiak (1973, S. 213) wird das Ergebnis dieser Operationen als „Internes Kombinationsmodell“, bzw. „Internes Derivationsmodell“ bezeichnet. Auf den in diesem Zusammenhang verwendeten Modellbegriff wird in Kapitel 3.2.1 eingegangen.
Vgl. Looney (1997, S. 336).
Looney (1997, S. 336) führt neben den drei hier genannten ein weiteres Bildungsprinzip ein: „[...] compute a value indirectly for v as a function of other variables that can be obtained directly [...].“ Diese funktionale Berechnung einer nicht direkt beobachteten Variablen aus beobachteten, ist als Grenzfall des Vorliegens einer vollständigen Korrelation beschreibbar und als solche in obigem Schritt zwei enthalten.
Die Bestimmung des Informationsbegriffs über semiotische Grundelemente läßt sich auf Kirsch (1977, S. 82) zurückführen. Stärker formalisiert findet sich diese Definition auch im Begriff der Informationsmenge in der Spieltheorie: „Player i’s information set ω i at any particular point of the game is the set of different nodes in the game tree that he knows might be the actual node, but between which he cannot distinguish by direct observation.“ (Rasmusen (1989, S. 40) (Hervorhebung im Original fett gedruckt) Ähnlich auch Jost (1998, S. 179).
Vgl. Haken (1988, S. 15). Dort wird die angegebene Formel zur Bestimmung von Information verwendet. Jedoch deutet der Kontext darauf hin, daß der Informationsbegriff an dieser Stelle mit dem des Informationsgehalts wechselseitig gebraucht wird.
Damit kann die durch Kirsch (1977, S. 82) festgestellte Gegensätzlichkeit zwischen einem semiotisch orientierten Informationsbegriff und einem aus der mathematischen Informationstheorie stammenden, verworfen werden.
Amler (1983, S. 54). So auch Weber (1993, S. 633). Zum Informationsbegriff siehe Wittmann (1980, Sp. 894).
Wittmann (1959, S. 14)
In Wittmann (1980, Sp. 894) wird das allgemeinere Verständnis ausgedrückt, daß der Zweck sei, „das Handeln vorzubereiten“.
Vgl. Amler (1983, S. 55), Kramer (1962, S. 12).
Vgl. Holland et alii (1987b, S. 31).
Vgl. Fukunaga (1972).
Vgl. Spies (1993, S. 263).
Mustervektoren von Graphen haben beispielsweise ausschließlich Komponenten, die sich auf die Eigenschaft „Grauwert“ räumlich verschiedener Bildpunkte beziehen. Vgl. Spies (1993, S. 263).
Stachowiak (1973, S. 209) nennt als Eigenschaft, die nicht durch menschliche Akteure wahrgenommen werden kann, den Magnetisierungsgrad eines Gegenstandes.
Beispielhafte Funktionen zur Transformation eines oder mehrerer Attribute sind Verhältnismaße zwischen zwei Attributen, Integrationen oder Fourier-Transformationen über zeitliche verteilte Attribute. Vgl. Looney (1997, S. 9).
Vgl. Spies (1993, S. 288).
Looney (1997, S. 334) Dort wird als drittes Ziel noch die Entscheidungsrelevanz hinzugefügt: „(iii) render the measurement data to variables that are more suitable for decision making.“ Dieses Ziel bedarf jedoch einer pragmatischen Komponente und ist daher auf der nullten semantischen Stufe irrelevant. In Abschnitt 3.2 wird auf die Pragmatik näher eingegangen. In Hinblick auf die beiden ersten Ziele fällt auf, daß durch die Betonung des Redundanz-Begriffs im zweiten Ziel das erste direkt aus diesem folgt und somit selbst redundant ist. Zur Verdeutlichung wurde es trotzdem aufgeführt.
Gowdy (1985, S. 319f.) führt für Kategorien, die nicht auf nicht vollständig definierenden Merkmalen beruhen, den Begriff „Halbschatten“ ein. „The existence of such pernumbrae violates a neccesary attribute of an analytical representation. An element α in the boundary between two categories A and B, for example, can be both A(α ∈ A) and not — A(α ∈ B).“
Vgl. Looney (1997, S. 10). Lägen nur idealtypische Fälle vor, dürfte es keine Derivationsmodelle nach Stachowiak (1973, S. 213) geben.
Vgl. Dörner et alii (1983).
Im häufigen Falle ausschließlich binärer Merkmalsausprägungen ist der Vektorraum ein Würfel ([0, 1]N).
Vgl. Looney (1997, S. 4): „Classification is the process of grouping objects together into classes (subpopulations) according to their perceived likenesses or similarities.“ (Hervorhebungen im Original kursiv)
Vgl. wieder Looney (1997, S. 6): „The recognition problem is: Decide whether or not any given sample feature vectore is equivalent to an exemplar (prototypical, archetypical, representative, template) vector or a set of such exemplar vectors, that represents a class.“ (Hervorhebungen im Original kursiv)
Vgl. Looney (1997, S. 13).
In Spies (1993, S. 281) wird diesbezüglich von der „bisweilen fast legendenumwobene[n] Fähigkeit eines gewissen Typs solcher Netze zur Selbstorganisation berichtet.“ (Hervorhebung im Original kursiv)
Binäre Vektoren haben als Komponentenausprägung lediglich 0 oder 1; bipolare Vektoren werden nur durch die Werte -1 oder 1 bestimmt.
Wie Kruskal (1964, S. 117f.) zeigt, sind diese beiden Distanzbegriffe auf einen allgemeinen Distanzbegriff zurückzuführen. Dieser ist prinzipiell durch Gödelisierung der Komponenten herzustellen. Daneben existieren noch weitere Distanzmaße. Vgl. dazu Therrien (1989).
Vgl. Looney (1997, S. 22).
Quelle: In Anlehnung an Looney (1997, S. 13).
Vgl. Wild (1971, S. 318).
Brauner (1993, S. 12) unter Verweis auf Geulen (1982, S. 59).
Als „Neoklassik“ wird in dieser Arbeit diejenige ökonomische Theorierichtung verstanden, die auf Marshall, Walras und Fisher zurückgeht und durch Arrow, Debreu, Hahn sowie Modigliani hauptsächlich vertreten wurden. Eine Zusammenfassung der in diesem Sinne neoklassischen Annahmen findet sich beispielsweise in North (1992, S. 23f.).
Richter/Furubotn (1996, S. 353)
Karpe (1997, S. 83) Die Bezeichnung von Information als „vollständig“ ist an dieser Stelle irreführend und meint „vollkommen“. Diese Unterscheidung ist insbesondere im Hinblick auf die unten folgende Orientierung an spieltheoretischen Begriffen erforderlich. Vgl. Richter/Furubotn (1996, S. 9f.): „In der dünnen Luft einer Welt ohne Transaktionskosten können Entscheidungssubjekte annahmegemäß gewünschte Informationen augenblicklich und kostenlos erhalten und verarbeiten.“ Vgl. auch Weintraub (1985, S. 109), der in sechs Aussagen, den „harten Kern der Neoklassik“ zusammenfaßt. Die fünfte Aussage hebt gerade die Annahme vollkommener Information hervor: „(HC5) Agents have full relevant knowledge.“ Vgl. auch Witt (1988, S. 76) und Stigler (1972, S. 12). Zur Interpretation des Begriffs der Vollkommenheit in Zusammenhang mit dem dieser Arbeit zugrundeliegenden Informationsbegriffs siehe Abschnitt 3.1.3.1.
Vgl. Bamberg/Coenenberg (1992, S. 18f.) und Ferschl (1982, S. 49).
Zum Begriff der Informationsmenge vgl. die Diskussion auf Seite 43.
Rasmusen (1989, S. 45). Ähnlich auch Jost (1998, S. 178), der anhand von Konfliktsituationen festlegt: „Allgemein bezeichnen wir eine Konfliktsituation, in der jede Partei das Handeln aller anderen Parteien beobachten kann, als Konfliktsituation mit perfekter Information.“ (Hervorhebung im Original fett gedruckt)
Vgl. Rasmusen (1989, S. 47), Jost (1998, S. 149f.).
Vgl. Richter/Furubotn (1996, S. 163), Furubotn/Richter (1991, S. 9). Der Ursprung des Konzepts wird auf Ross (1973) mit seinem Beitrag zur optimalen Konstruktion von Entlohnungsysteme zurückgeführt. Mit Jensen (1983, S. 334) lassen sich zwei Forschungsansätze unterscheiden: Die positive Agency-Theory hat einen stärker empirischen Fokus als die mathematisch orientierte normative Agency-Theory, die auch als Prinzipal-Agenten-Theorie bezeichnet wird. Vgl. auch Elschen (1991, S. 1006). Vgl. Weißenberger (1997, S. 133ff.), die diese auf die Informationsbeziehung zwischen Management und Rechnungswesen anwendet.
Vgl. Jost (1998, S. 284ff.), Richter/Furubotn (1996, S. 196). Das moralische Risiko kann genauer in das Vorliegen versteckter Information sowie die Tatsache versteckten Handelns unterschieden werden. Vgl. Arrow (1985). Neben diesen beiden Phänomenen wird in der Literatur die opportunistische Ausnutzung von Vertragslücken, als „holdup“ bezeichnet, unterschieden. Vgl. Alchian/Woodward (1988, S. 67f.), Spremann (1990, S. 562ff.). Die Einteilungen und ihre Bezeichnungen sind in der Literatur nicht einheitlich. Vgl. Wolff (1995, S. 48). Eine abweichende Darstellung findet sich beispielsweise bei Schmidt-Wilke (1998, S. 138f.).
Vgl. Spremann (1987, S. 6ff.), Schmidt-Wilke (1998, S. 139).
Vgl. Jensen/Meckling (1976, S. 308).
Vgl. auf der vorherigen Seite Punkt zwei.
Ashby (1958, S. 83). Vgl. auch Ashby (1957, S. 121ff.), Grothe (1997, S. 166).
Der Varietätsbegriff ist ebenenbezogen. Anstelle der hier vorgenommenen Betrachtung auf elementa- rer Stufe, ließe sich beispielsweise auch die als Aggregat in Abschnitt 3.1.1.1.2 auf Seite 43 definierte Information zur Feststellung der wahrnehmungsbezogenen Varietät eines Akteurs heranziehen. Der Varietätsbegriff ist demnach keine absolute Eigenschaft, sondern abhängig von der zweckbezogen gewählten Betrachtungsperspektive. So stellt auch Ashby (1970, S. 125) fest: „It will be noticed, that a set’s variety is not an intrinsic property of the set: the observer and his powers of discrimination may have to be specified if the variety is to be well defined.“
Vgl. Grothe (1997, S. 171). Im Falle menschlicher Akteure sind die Sinnesorgane Beispiele für dementsprechende Schnittstellen zur Umwelt.
Ashby (1968b, S. 135) (Hervorhebung im Original in Kapitälchen gesetzt) Vgl. ähnlich auch Beer (1975, S. 110): „Only variety can absorb variety.“
Vgl. Ashby (1968b, S. 135).
Siehe Ashby (1958, S. 87): „What it means is that restriction of the outcomes to the subset is valued as Good demands a certain variety in R.“
Vgl. dazu auch Seite 42. Detailliert ausgeführt wird diese Annahme sowie deren Konsequenzen in Abschnitt 3.2.
Vgl. Haken (1981, S. 157); Cramer (1993, S. 160) und Schnabl (1991, S. 559f.).
Häufig wird die Varietät in logarithmischer Form angegeben. Anstelle des Quotienten der beiden Varietäten ist dann deren Differenz zu bilden. Vgl. Ashby (1970, S. 208).
Damit wird Grothe (1997, S. 174) gefolgt, der feststellt, daß die Varietät eines Systems „durch die Elemente der Komposition und die Menge der Beziehungen hervorgebracht“ wird. Varietät wird demzufolge nicht ausschließlich quantitativ verwendet, sondern um einen qualitativen Aspekt bereichert.
Grothe (1997, S. 174)
Vgl. Fußnote 150 auf Seite 51.
Vgl. Bamberg/Coenenberg (1992, S. 39), der bestätigt: „Der Fall vollkommener Information bezüglich der zielrelevanten Ergebnisse dürfte in der Wirklichkeit nur selten anzutreffen sein.“
Richter/Furubotn (1996, S.10). Vgl. Vilks (1991, S. 87); Schanz (1977, S. 26); Karpe (1997, S. 83); Stigler (1972, S. 12).
Vilks (1991, S. 87): „Kaum jemand scheint ernsthaft zu bestreiten, daß praktisch alle im Kontext der Neoklassik untersuchten Gleichgewichtsmodelle Fiktionen sind in dem Sinne, daß ihre Annahmen außerhalb des theoretischen Kontextes kaum jemals akzeptiert werden würden.“ (Hervorhebung im Original kursiv) Im Sinne der in Kapitel 2.2 auf Seite 18 getroffenen Unterscheidung meint Vilks an dieser Stelle Grenztypen statt Fiktionen, denn er spricht auf der folgenden Seite diesen zu, „durch eine bloße Reinterpretation zu einer zutreffenden Aussage über die Welt zu werden.“ Vgl. Kornai (1971); Hahn (1973).
Im Sinne Poppers sind Fiktionen in sich falsifiziert, und durch den Grundsatz „Ex falsio quod libet“ der elementaren Logik ist aus solchen Aussagen beliebig viel ableitbar. Damit sind sie wenig aufschlußreich. Vgl. Schanz (1977, S. 26f.).
Hahn (1973, S. 324)
Vgl. Tamborini (1997, S. 68): „Neo and New Classical methodology went only half way: the point is not whether their hypotheses are realistic or not, but whether they set enough restrictions on intelligible human behavior.“
Jaffè (1965, Brief n.1496-bis), zitiert nach Tamborini (1997, S.50).
Vgl. Bunge (1967, S. 256f.). Dort werden vier Stufen der Bildung von Hypothesen dargestellt. Im Frühstadium der theoretischen Arbeit werden ungeprüfte Spekulationen aufgestellt, die im weiteren Verlauf über empirische und später plausible Hypothesen schließlich als bewährte oder nomologische Hypothesen zu Axiomen eines theoretischen Systems werden können. Vgl. Schanz (1988, S. 27f.); Albert (1980, S. 22).
Vgl. Watzlawick (1981).
Vgl. ausführlich Stegmüller (1975, passim).
Vgl. C.F. von Weizsäcker (1994, S. 81).
Tamborini (1997, S. 53) (Hervorhebungen im Original kursiv) Diese Fragestellung ist als „Humes Kritik“ bekanntgeworden. Vgl. Lakatos (1970, 117ff.); Chalmers (1989, S. 11ff.).
Vgl. Lopes (1987, S. 626ff.).
Albert (1980, S. 13) spricht in diesem Zusammenhang von einem „Münchhausen- Trilemma“: Der infinite Regreß ist nicht durchführbar, der Zirkelschluß ist unbefriedigend und der deshalb erforderliche Abbruch der Begründung willkürlich. Vgl. auch Schanz (1988, S. 41).
Vgl. Aumann (1976, S. 1238f.). Durch strengere Auslegung der empiristischen Sicht verlangt der radikale Empirismus einen vollkommen vorurteilsfreien Beginn, im Sinne von Bacons „gereinigtem Geist“, der Beobachtung. Vgl. Albert (1980, S. 23). Das Rationalitätsprinzip wird detailliert in Kapitel 3.2.2 behandelt.
Russell nach Popper (1998, S. 5). Beachtenswert ist die strukturelle Ähnlichkeit zum Entropiebegriff in der statistischen Mechanik. Vgl. insbesondere Fußnote 26 auf Seite 30. Vgl. auch Schanz (1988, S. 41) und Meschkowski (1984, S. 111f.).
Vgl. Popper (1998, S. 13f.).
Schanz (1988, S. 42) (Hervorhebung im Original kursiv)
Albert (1980, S. 27)
Vgl. Schmidt (1992, S. 297f.). Zur Selektivität siehe Popper (1972, S. 44) und Kuhn (1970, passim).
Die folgende Darstellung ist angelehnt an Tamborini (1997, S. 52f.). Zu spekulativen Märkten vgl. Keynes (1936).
Zur erstmalig 1925 beschriebenen Unbestimmtheitsrelation siehe Heisenberg (1969). Vgl. C.F. von Weizsäcker (1994, S. 500ff.). Derartige Verläufe von Hypothesenbildung wurden in der Literatur allgemein und mit speziellem Bezug auf z.B. die Wechselkurstheorie beschrieben. Vgl. zur allgemeinen Darstellung Marcet/Sargent (1989), und zur speziellen Frankel/Froot (1986) und Tabellini (1988).
Schanz (1988, S. 42)
Hinter die hier dargelegte Argumentation zurückgehend, bliebe für die Verteidigung einer radikalempiristischen Sichtweise der Verweis auf eine Urinduktion von einem, durch Schanz (1988, S. 43) als „tabula rasa-Vorstellung“ (Im Original fett gedruckt) bezeichnenten, Zustand des absoluten Nichtwissens. Zu dessen Ablehnung siehe beispielsweise Popper (1972, S. 44) oder sehr explizit Popper (1998, S. 72): „Ich sagte, die tabula-rasa-Theorie sei absurd: In jedem Stadium der Entwicklung des Lebens und des Einzelorganismus müssen wir das Vorhandensein eines bestimmten Wissens in Form von Dispositionen und Erwartungen annehmen.“ (Hervorhebung im Original kursiv)
Gerum (1979, S. 206) (Hervorhebungen im Original fett gedruckt) Vgl. Stein (1997, S. 731); Heisenberg (1969, S. 92): „Erst die Theorie entscheidet, was beobachtet werden kann.“ Wittgenstein faßte den Gedanken des Konstruktivismus in einer gestaltpsychologischen These zusammen: „Was ein Mensch sieht, hängt [damit] sowohl davon ab, worauf er blickt, wie davon, worauf er zu sehen ihn seine visuell-begriffliche Erfahrung gelehrt hat.“ Kuhn (1976, S. 125). Zum Einfluß der Gestaltpsychologen auf die Entwicklung des Konstruktivismus vgl. Schmidt (1992, S. 298) und Metzger (1963, S. 284ff.).
Stadler/Kruse (1992, S. 137)
Opp (1983, S. 53)
Berger/Bernhard-Mehlich (1993, S. 137) (Hervorhebung im Original kursiv). Vgl. Simon (1976b, S. 90), Kühne (1982, S. 45).
Vgl. Tamborini (1997, S. 67): „Validation cannot be an individual, atomistic, self-evident conquest: validation is a social activity. The assessment of a given state of knowledge is a matter of compa- rison, and the heuristics of validation entail explicit or implicit intersubjective agreements.“ (Hervorhebung im Original kursiv) Vgl. auch Johnson-Laird (1983, S. 182ff.);Lakatos (1970, S. 91ff.); McCloskey (1983). Stachowiak (1973, S. 208) verwendet statt des Begriff der Intersubjektivität den der Metasubjektivität.
Simon (1986b, S. 210)
Vgl. North (1992), Denzau/North (1994), Kühne (1982) sowie Witt (1987). Siehe für einen Überblick Karpe (1997, S. 119).
Vgl. Denzau/North (1994, S. 4), North (1992, S. 23–29). Die Existenzannahme eines Gleichgewichtszustands wurde von Winter (1986, S. 429) als erster Punkt seiner „klassischen Verteidigung“ der neoklassischen Verhaltensannahmen getroffen.
Hahn (1987, S. 324)
Zum Begriff der Störung und der Verdrängung dieser durch Assimilation siehe Karpe (1997, S. 121). Piaget (1975, S. 32) spricht stattdessen auch von Kompensation durch Inversion, jedoch findet sich bei Piaget (1950, S. 263) der Hinweis, daß die reine Form der Assimilation tatsächlich nicht vorkommt. Vgl. Seiler (1978, S. 631).
Die dynamische Veränderung der Hypothesenbasis des Akteurs durch Lernen wird detailliert in Kapitel 3.2.3.4 betrachtet. An dieser Stelle sei bereits vorweggenommen, daß akteurseitig verankerte Hypothesen eine hohe Trägheit gegenüber der Entwicklung durch Akkomodation aufweisen. Vgl. Stein (1997, S. 731).
Vilks (1991, S. 34). Vgl. auch Lachmann (1984, S. 71).
Vgl. beispielsweise Kahnemann/Tversky (1979); Kahnemann/Tversky (1982), Spies (1993, S. 58ff.). Als eine wesentliche, als Representativität bezeichnete, Erkenntnis ist dort zu finden, daß menschliche Individuen dahin tendieren, Wahrscheinlichkeiten von Ereigniseintritten unter Unsicherheit je nach dem Grad der Bekanntheit, i.e. der Repräsentation in Hypothesen, zu unter- bzw. überschätzen.
Vgl. Holland et alii (1987b, S. 31f.) und Opp (1983, S. 57).
Vgl. Brunswik (1934). Vgl. Duttenhofer (1985, S. 18).
Böhrs (1977, S. 123ff.) stellt neben diesen beiden Ursachen insbesondere auf menschliche Akteure bezogen noch das Verhältnis von der Ausbildungs- zur Beschäftigungsdauer, die Substitution menschlicher durch technische Arbeitsmittel und eine steigende Beherrschung der Arbeit heraus. Ebenfalls für menschliche Akteure stellt Kurzweil (1993, S. 290) fest, daß diese höchstens eine Millionen Dokumente unterscheiden können und Spezialisten eines Fachgebietes allein für dieses ca. fünf Prozent ihres Unterscheidungsvermögens verwenden.
Holland et alii (1987b, S. 31) (Hervorhebung im Original kursiv) Vgl. zur Eignung des hier bereits verwendeten Modellbegriffs zur Beschreibung der Wahrnehmung eines Akteurs Abschnitt 3.1.4. Vgl. auch Gomez/Malik/Oeller (1975, S. 146ff.).
Siehe die Ausführungen in Abschnitt 3.1.3.1 auf Seite 58.
Die grundsätzliche Beschränktheit der Kapazität bezüglich der Verarbeitung von Informationen läßt sich anhand des Bremermann’schen Limits nachweisen. Vgl. Grothe (1997, S. 178f.); Bremermann (1962, S. 93ff.); Ashby (1968a, S. 69ff.). Die Annahme gleicher Verarbeitungskapazität wird in dieser Arbeit nicht weiter konkretisiert.
Vgl. zum Begriff der Spezialisierung Drosdowski (1990, S. 734).
Schütz (1972, S. 158). Vgl. auch Kurzweil (1993, S. 290).
Vgl. Kieser/Kubicek (1992, S. 75ff.). Dort wird hervorgehoben, daß eine reine Mengenteilung nicht als Spezialisierung bezeichnet werden kann. Vgl. auch Weber (1999b, S. 245ff.); Böhrs (1977, S. 207f.).
Schäffer (1996, S. 150)
Vgl. von Hippel (1990, S. 409): „[...] [L]et me define the interdependence between any two innovation project tasks with respect to problem-solving as the probability that efforts to perform one of the tasks to specification will require related problem-solving in the other. The higher the probability in a given instance, the greater the problem-solving interdependence [...]“.
Der so verstandenen Spezialisierung geht dann die Differenzierung einer Gesamtaufgabe in ähnlich wahrgenommene Aufgabenbündel logisch voraus. Derartig wird die Spezialisierung nach Funktionen in Grothe (1997, S. 276f.) definiert.
Vgl. Kieser/Kubicek (1992, S. 76).
Weber/Kummer (1994, S. 102)
Vgl. Raub/Voss (1981, S. 143).
Vgl. Seiffert/Radnitzky (1994, S. 12).
Vgl. zur Vererbungsbegriff Rumbaugh et alii (1993, S. 48ff.); Kurzweil (1993, S. 286).
Vgl. Seiffert/Radnitzky (1994, S. 12).
Die sich daraus ergebende baumartige Struktur der Verhältnisse von Informationsklassen zueinander stellt den Spezialfall eines Netzes dar, dessen Diskussion in dieser Arbeit nicht geleistet werden soll. Vgl. dazu auch Perl (1981, S. 78ff.).
Vgl. zum Aufbau auch Abbildung 3.1 auf Seite 37.
Die Gattung der Lepidopteren selbst wird in disjunktiver Normalform angegeben, da sowohl Tiere mit geraden als auch solche mit nicht geradem Fühler zu dieser Gattung gehören. Vgl. Fußnote 65 auf Seite 37.
Vgl. Reese (1993, Sp. 3941); Kern (1990, S. 118ff.). In David/Greenstein (1990, S. 4) wird der Zusammenhang von Spezialisierung durch Beschränkung einerseits und der bewußten Setzung von Standards andererseits am Beispiel von technischen Verfahren verdeutlicht: „A ‚standard‘ is to be understood [...] as a set of technical specifications adhered to by a producer.“ Grothe (1997, S. 279) stellt die Verbindung zum vorhergehenden Abschnitt her: „Eine enge Beziehung besteht zwischen Spezialisierung und Standardisierung.“ (Hervorhebung im Original fett gedruckt)
Grothe (1997, S. 281)
Stefanic-Allmayer (1950, S. 51)
Vgl. David/Greenstein (1990, S. 4): „It is helpful to distinguish among several kinds of standards — reference, minimum quality, and interface or ‚compatibility ‘ standards.“
Vgl. Dichtl/Eggers (1993).
David/Greenstein (1990, S. 4). Vgl. David (1987).
Diese Verbindung zwischen Bedeutungsträger und Bedeutung wird in Abschnitt 3.1.1.1.2 über Morpheme und Sememe definiert.
Dichtl (1993, S. 19). Dieser Effekt tritt insbesondere bei der Zusammenfassung fast aller Produkte eines Unternehmens unter einer Marke im Sinne einer Dachmarkenstrategie auf. Vgl. Meffert (1993, S. 144).
Albach (1999, S. 415). Die hier angesprochene Feinheit entspricht gerade dem Quotienten der tatsächlich differenzierten Informationselemente und der maximal durch den Akteur differenzierbaren Elemente. Wild (1971, S. 316) spricht in diesem Zusammenhang von einer „zweckgerechten Verdichtung und Selektion der Information.“
Vgl. Schneeweiß (1966, S. 125ff.) und das Verständnis von Teichmann (1971, S. 746), der von Information als „Datum“ spricht.
Drukarcczyk (1974, S. 3). Die Annahme Drukarczyks, daß stets eine optimale Entscheidung auf der Basis des vorhandenen Informationsstands getroffen wird, soll hier vorerst ohne Beschränkung der Allgemeinheit übernommen werden. Simon postuliert, daß der Akteur nicht die optimale, sondern lediglich eine sein Anspruchsniveau zufriedenstellende, i.e. „satisficing“, Entscheidung treffen wird. Vgl. Simon (1976a, Kap. 5), Simon (1993b). In Kapitel 3.2 wird die Explikation von Handlungen, die Entscheidungen als Untermenge umfassen, thematisiert.
Vgl. Albach (1961, S. 364ff.); Marschak/Radner (1972); Marschak (1974).
Wild (1971, S. 333). Vgl. Arrow (1974a, S. 152), der dieses Paradoxon als „fundamental“ bezeichnet. Vgl. auch Schneider (1995, S. 165).
Vgl. Teichmann (1971, S. 754); Wittmann (1959, S. 90); Albach (1961, S. 365ff.).
Vgl. Wild (1971, S. 333).
Vgl. Weber (1993, S. 630).
Grothe (1997, S. 289) (Hervorhebung im Original fett gedruckt). Vgl. auch David/Greenstein (1990, S. 4), dort wird auf technische Produkte bezogen der Vorteil von Schnittstellenstandards ebenfalls über die positive Wirkung der Koordination begründet: „Interface standards assure the user that an intermediate product or component can be sucessfully incorporated in a larger system comprised of closely specified inputs and outputs.“ Vgl. auch Bach (1998, S. 68).
West/Salk (1987, S. 117). Kieser/Kubicek (1992, S. 100ff.) bezeichnen diese Abstimmung von Aktivitäten ex ante als Vorauskoordination und differenzieren sie damit von Reaktionen auf Störungen, denen durch Feedbackkoordination begegnet werden soll.
Gutenberg (1983, S. 235). Vgl. Kieser/Kubicek (1992, S. 4), dort wird als definitorisches Merkmal von Organisationen hervorgehoben, daß diese „eine formale Struktur aufweisen, mit deren Hilfe Aktivitäten der Mitglieder auf das verfolgte Ziel ausgerichtet werden sollen.“ (Im Original kursiv)
Vgl. Grochla (1980, Sp. 1797): „Betrachtet man ein System organisatorischer Regeln in der Realität, so weist dieses System stets auch ein gewisses Muster oder eine bestimmte Struktur [...] auf“.
Vgl. Küpper/Weber (1995, S. 298).
Gutenberg (1983, S. 114)
Vgl. Wiese/Geisler (1996, Sp. 1900ff.).
Farrell/Saloner (1985, S. 7). Vgl. Grothe (1997, S. 288).
Vgl. Gutenberg (1983, S. 241).
Vgl. die Ausführungen auf Seite 61.
Vgl. Stefanic-Allmayer (1950, S. 55). Dort wird die Trennung von fallweisen und generellen Regelungen erstmalig vorgeschlagen. Als trennendes Merkmal wird die unterschiedliche zeitliche Einordnung hervorgehoben: „Die fallweisen (einmaligen) Aufgaben bzw. Funktionen erfordern auch fallweise Regelungen; die periodischen oder dauernden Aufgaben aber erfordern eine dauernde — künstliche oder natürliche — Regelung, schon um die meist wünschenwerte Konstanz (zeitliche Einheitlichkeit) in den Funktionen zu sichern und — bei den periodischen Aufgaben — ein immer wiederholtes Nachdenken über die Art der ‚Erledigung‘ (Funktion) zu ersparen.“ (Hervorhebungen im Original fett gedruckt) Vgl. Gutenberg (1983, S. 239ff.) zum Substitionsgesetz, der den Begriff des Substitutionsprinzips synonym verwendet. Vgl. Weimer (1988, S. 1).
Siebert (1968, S. 508)
Vgl. die Ausführungen auf Seite 64.
Gutenberg (1983, S. 241). Vgl. Siebert (1968, S. 507) und zur Beschränkung auf das Jetzt Grothe (1997, S. 262).
Siebert (1968, S. 508)
Vgl. Grothe (1997, S. 262): „Eine generelle Regelung [...]ist folglich nur bedingt anzuwenden und benötigt eine Beschreibung des Typs der sie auslösenden Aufgabe bzw. Bedingung.“ (Hervorhebung im Original fett gedruckt) Die Hinzunahme von Aufgaben als möglicher Auslöser verlagert hier den Blickwinkel auf die organisatorische Verknüpfung von Handlungen. Vgl. Gutenberg (1983, S. 237).
Siebert (1968, S. 508)
Gutenberg (1983, S. 239). Vgl. auch Weimer (1988, S. 53f.).
Gutenberg (1962, S. 146). Vgl. auch Kosiol (1962, S. 29); Nürck (1965, S. 581). Eine Zusammenfassung und Diskussion von weiteren Vor- und Nachteilen des Einsatzes genereller Regelungen findet sich in Grothe (1997, S. 266).
Vgl. Homans (1968, S. 417).
Homans (1968, S. 417). Vgl. Hax (1965, S. 74ff.): Dort wird dieser Unterschied in der Entstehung durch die Bezeichnung von generellen Regelungen als „explizite Verhaltensnormen“ betont. In David/ Greenstein (1990, S. 4ff.) werden explizit ausgehandelte „standards agreements“ von spontan entstehenden „standards“ unterschieden. Vgl. zur expliziten Standardisierung die Ausführungen auf Seite 64.
Vgl. Homans (1968, S. 417): „Both norms and orders emerge from interaction between the members of the group, and again the difference seems to be matters of degree and not of kind.“
Gutenberg (1962, S. 150). Vgl. auch Gutenberg (1975, S. 52f.).
Vgl. Vanberg (1982, S. 101f.); Vanberg/Buchanan (1981).
Vgl. zu einer ausführlichen Diskussion beispielsweise Grothe (1997, S. 290ff.) oder Burr (1998, S. 318).
Vgl. Nonaka/Takeuchi (1995, S. 63).
Vgl. den Formalisierungsansatz in Weimer (1988, S. 59ff.). Dort werden fallweise von generellen Regelungen über (1) den Freiheitsgrad, den die geregelte Organisationseinheit bei der Erfüllung der Regel hat und (2) über die Häufigkeit, mit der die Regel zu erfüllen ist, differenziert. Bezogen auf die hier besprochene Wahrnehmung ist die Diskussion von Freiheitsgraden irrelevant. Folglich unterscheidet Weimer nur aufgrund von Häufigkeiten, die er bei fallweisen Regelungen als exakt eins und bei generellen Regelungen größer eins festsetzt. Der inhaltliche Bezug auf eine Klasse von Ereignissen geht dadurch verloren.
In dieser unscharfen Situationsbeschreibung dürfen sehr wohl auch zeitliche Aspekte berücksichtigt werden. Diese stehen aber stets verknüpft mit sachinhaltlichen Attributen.
Die perfekte Differenzierung wird durch alle Attribute, auf deren Basis der Akteur spezialisieren kann, dargestellt. Mit der in Abschnitt 3.1.3.2 eingeführten Formalisierung sind das genau die nicht durch ein Tildesymbol als unbelegbar markierten Attribute.
Dabei wird unterstellt, daß zwischen den relevanten Akteuren kein unterschiedliches Fähigkeitenpotential bei der Wahrnehmung der Zeit zu erwarten ist. Nach Abschnitt 3.1.3.2 wird diesbezüglich von einem unterschiedlichen Spezialisierunggrad nicht ausgegangen.
Vgl. die Ausführungen in Abschnitt 3.1.1.1.2 auf Seite 38.
Siebert (1968, S. 508)
Prim (1968, S. 128)
Vgl. zur folgenden Darstellung insbesondere Stachowiak (1973, S. 209f.).
Vgl. Brunswik (1934).
Das in Stachowiak (1973, S. 209) für menschliche Akteure genannte Beispiel der fehlenden Fähigkeit zur Wahrnehmung magnetischer Eigenschaften eines Objekts ist beispielsweise ausschließlich durch Instrumente heilbar.
Auf die Handlung läßt sich nach Hacker (1986) bereits die menschliche Tätigkeit reduzieren: „Die menschliche Tätigkeit existiert nicht anders als in Form einer Handlung oder einer Kette von Handlungen.“ Zur Vernetzung einzelner Handlungen vgl. auch auf Seite 113.
Die treffende Zusammenfassung von Bateson (1979, S. 5) lautet: „[I]nformation consists of differences that make a difference.“ Ähnlich auch Dretske (1981, S. 44f.).
Popper (1966, S. 97). Dabei versteht Popper (1967, S. 144) den Situationsbegriff sehr weit. „We must remember, of course, that the situation as I use this term already contains all the relevant aims and all the available relevant knowledge, especially that of possible means for realising this aims.“
Weber et alii (1995, S. 5) (Hervorhebung im Original kursiv). Ähnlich auch in Weber/Brettel/Schäffer (1996, S. 7).
Vgl. Gutenberg (1989, S. 36); Gutenberg (1957, S. 607); Gutenberg (1962, S. 68); Gutenberg (1967, S. 11). Frese charakterisiert Organisationen als Systeme zielorientierter Handlungen. Vgl. Frese (1991, S. 29);Frese (1990, S. 2). Eine Begründung auf Basis der betriebswirtschaftlichen Theorie gibt Koch (1975, S. 7ff.).
Vgl. Gutenberg (1989, S. 63). Dort wird diese Beschreibung des Unternehmensprozesses anhand von Transformationen durch Gutenberg (1983, S. 302) als erste Näherung bezeichnet, auf deren „Beziehung: Faktorertrag zu Faktoreinsatz“ sich „die vielgestaltigen Formen und Arten betrieblicher Leistungserstellung [...] zurückführen“ lassen.
Vgl. Weber/Brettel/Schäffer (1996, S. 8), die aus diesem funktionalen Zusammenhang die vollständige Bestimmtheit von Faktoreinsatz und -ertrag ableiten. Siehe auch Gutenberg (1983, S. 302f.).
Gäfgen (1963, S. 1) (Hervorhebung im Original kursiv) unter Verweis auf Kempski (1954). Ähnlich auch Dahme (1997, S. 61), der feststellt: „Das Ziel der Handlung ist die Realisierung der angestrebten Situation.“ Vgl. auch die Einschätzung in Gutenberg (1967, S. 96) zur Bedeutung der Situationstransformation: „Den eigentlichen, in nächster Nähe der betriebswirtschaftlichen Wirklichkeit gelegenen Gegenstand einzelwirtschaftlicher Theorie bildet jene durch Datenänderungen ausgelöste Abfolge von Reaktionen, welche die Unternehmung durchlaufen, eine Situation in eine andere überführen, nicht nur den Eigensektor, sondern gleichermaßen auch den Beschaffungs- und Absatzsektor durchzucken.“ (Im Original gesperrt gesetzt)
Weber et alii (1995, S. 6) (Hervorhebung im Original kursiv)
Koch (1975, S. 50)
Weber/Brettel/Schäffer (1996, S. 8). In Weber et alii (1995, S. 6) werden als Grund für das vermeintliche Mißlingen einer Handlung auch mögliche Wissensbegrenzungen des Akteurs bezüglich der Wahrnehmung der Situation nach der Handlung angeführt. Vgl. auch Schütz (1971b, S. 77): „‚Handeln‘ soll einen ablaufenden Prozeß menschlichen Verhaltens bezeichnen, der vom Handelnden vorgezeichnet wurde, anders gesagt, der auf einem vorgefaßten Entwurf beruht.“
C.F. von Weizsäcker (1970, S. 473)
Vgl. zu dieser Feststellung, die Herleitung in Abschnitt 3.1.1.1.2 auf Seite 41f.
Vgl. Stegmüller (1970, S. 164f.).
Damit ist aus dem Prozeßcharakter einer Handlung die Feststellung, daß diese stets eine Situationstransformation bewirkt, ableitbar. Der mögliche Vorwurf eines unerlaubten Zirkelschlusses in der Argumentation greift nicht, da die Anisotropie der Zeit wesentlicher Bestandteil der Schlußfolgerung ist sowie extern eingeführt und bewiesen wurde.
Schütz (1971b, S. 78). Ähnlich auch Vilks (1991, S. 33).
Vgl. Leontjew (1979, S. 106).
Vgl. Leontjew (1979, S. 95f.). „Als innere Tätigkeit will ich die praktische Tätigkeit bezeichnen, die in unserem Kopf abläuft, auch geistige oder psychische Tätigkeit genannt.“ Dahme (1997, S. 65) (Hervorhebung im Original fett gedruckt)
Allenfalls wird diesen Tätigkeiten eine schwache Ausprägung einer Handlung zugesprochen. Vgl. Wooldridge/Jennings (1995, S. 2).
Vgl. Lenk (1994, S. 120) „Der Mensch nimmt seine Handlungen nämlich nicht nur wahr wie einen außerhalb von ihm ablaufenden Bewegungsprozeß, wie eine objektiv feststellbare und intersubjektiv nachprüfbare Ereignisfolge, sondern er erlebt sein Handeln auch (und dies ist ein Charakteristikum des Handelns gegenüber bloßem Sich-Verhalten, bzw. gegenüber objektiv beschreibbaren Bewegungen) als von ihm gesetzte, gewollte und zumeist bewußt initiierte zielorientierte Tätigkeit.“ Vgl. auch Koch (1975, S. 38f.), Bach (1998, S. 34, FN 77) oder Gebhardt (1996, S. 13).
Vgl. Johnson-Laird (1983, S. 399f.). Neben dem hier kurz angesprochenen Einzeller finden sich dort auch noch weitere Beispiele anhand der Bakterien Salmonella typhimurium und Escherichia cob sowie Verweise auf biologische Untersuchungen, welche die hier dargelegten Erkenntnisse stützen.
Alternativ findet sich auch die Bezeichnung als reaktiver Agent, beispielsweise bei Drogoul/Ferber (1994, S. 6): The behaviour of a reactive agent can be first defined using [...] a strict ‚S-R‘ (Stimulus-Reaction) scheme. This scheme excludes a priori any ‚reasoning‘ between S and R, where S is considered as a particular state of the environment containing the entity, and R as a sequence of basic actions.“
Vgl. Latsis (1972, S. 209). Dort wird als Beispiel die schnelle Rückzugsbewegung einer Hand, die mit einer heißen Oberfläche in Berührung kommt, genannt. Vgl. auch Schulz-Schaeffer (1998, S. 132f.) und Silverman (1970, S. 129).
Silverman (1970, S. 128) (Im Original kursiv)
Johnson-Laird (1983, S. 402)
Quelle: In Anlehnung an Johnson-Laird (1983, S. 403ff.).
Lenk (1994, S. 125). M.Weber (1964, S. 94) verlangt „[t]he interpretation of action in terms of its subjective meaning“ und versteht unter Handlung (ebenda, S. 88) „all human behaviour when and insofar as the acting individual attaches a subjective meaning to it“.
Vgl. Johnson-Laird (1983, S. 403f.). Die Bezeichnung dieses Automatentyps nach Kenneth Craik ist als Anerkennung seiner grundlegenden Arbeit — Craik (1943) — zur Informationsverarbeitung von menschlichen Akteuren zu verstehen. Popper (1998, S. 257) weist auf den unterschiedlichen Rationalitätsgrad einer Amöbe und Einstein, jeweils Repräsentanten der beiden Automatentypen, hin und führt diesen auf die verschiedene Interpretation von Verstärkungssignalen vergangener Handlungen zurück. Vgl. dazu detailliert Abschnitt 3.2.3.4 auf Seite 121.
Zitiert nach Lenk (1994, S. 123).
Lenk (1994, S. 123)
Weniger formal wird eine Definition eines intentionalen Systems bei Tamborini (1997, S. 55) gegeben: „An intentional system is a system which: (1) has a set of objectives, (2) is endowed with a finite set of heuristic procedures, (3) is able to make computations in order to reach a chosen end state from a given initial state.“
Schütz (1972, S. 159)
Popper führt seine Version der Situationsanalyse in Popper (1966) und Popper (1967) als Gegenpol eines Psychologismus im Sinne der oben vorgestellen Methode der abnehmenden Abstraktion ein. Im Gegensatz zum Psychologismus ist die Situationsanalyse in der Lage, „the unintended social repercussions of intentional human actions“(Popper (1966, S. 95)) zu erklären. Vgl. auch Schütz (1967).
Vgl. Esser (1991, S. 254).
Vgl. Zintl (1989, S. 56).
Latsis (1972, S. 209). (Hervorhebung im Original kursiv) Dieser Quelle sind auch die ersten beiden Punkte entnommen.
Vgl. auch zu den folgenden Ausführungen Latsis (1972, S. 211). Donaldson (1997, S. 78) beschreibt den Situationsdeterminismus als entscheidendes Merkmal eines im Sinne Durkheims verstandenen Positivismus: „Positivism holds that human action is determined by the situation in which people find themselves.“ Vgl. Durkheim (1938).
Donaldson (1997, S. 80)
(1) Profitmaximierung (2) Vollständige Information (3) Perfekter Markt (4) Unabhängigkeit von Entscheidungen
Vgl. Zintl (1989, S. 61)
Im Fall einer perfekten Wettbewerbssituation wird die objektive Bedigung durch die Kosten beschrieben. Es können aber auch Kriterien wie Nachfrage oder Technologie entscheidend sein. Vgl. Latsis (1972, S. 211).
Zintl (1989, S. 61)
Latsis (1972, S. 211) (Hervorhebung im Original kursiv) Dort wird synonym auch der Begriff der straightjacket situation verwendet.
Zintl (1989, S. 62)
Smith (1983, S. 146)
Wieland (1992, S. 366)
Vgl. Cantillon (1931, S. 19f.).
Vgl. Stegmüller (1970, S. 159).
Hempel (1970, S. 216) verwendet auch die Bezeichnungen „Gleichförmigkeiten“ bzw. „Einzelfakten“. Vgl. auch Hempel/Oppenheim (1948, S. 138).
Vgl. insbesondere die Abschnitte 3.1.3.2 und 3.1.3.3.
Stegmüller (1970, S. 162)
In Stegmüller (1970, S. 166) werden darüber hinaus noch weitere Eigenschaften genannt.
Vgl. Prigogine (1997, S. 4): „When appropiate initial conditions are given, we can predict with certainty the future, or ‚retrodict‘ the past.“ Ähnlich auch Saperstein (1997, S. 103).
Gigerenzer et alii (1989, S. xiii)
Vgl. Boudon (1977, S. 218). Die dieser Aussage unterlegte Strukturierung der Zeit entspricht der „Verschränkung der Zeitmodi“ erster Ordnung nach Küppers (1986, S. 19), die unter anderem die „zukünftige Vergangenheit“ und die „zukünftige Gegenwart“ kennt. Vgl. auch Cramer (1993, S. 253ff.).
Vgl. Kapitel 3.1.1.1.2.
Vgl. Lorenz (1989, S. 201f.); Prigogine (1997, S. 81ff.).
Der Lyapunov-Exponent wird als Maß für die sich entwickelnde Entfernung verwendet. Positive Werte sind das Resultat sich entfernender Trajektorien, sprich chaotisch deterministischem Verhalten. Negative Werte bedeuten Stabilität im Verlauf. Eine nahe Null liegender Lyapunov-Exponent weist auf einen Bifurkationspunkt, also eine Stelle geringster Stabilität hin. Vgl. Saperstein (1997, S. 105ff.); Grothe (1997, S. 40).
Grothe (1997, S. 40)
Saperstein (1997, S. 105)
Vgl. von Hayek (1996, S. 299): „Gegen die Behauptung, die Wissenschaft könne einen universellen Determinismus nachweisen, mag es sehr wohl zutreffende und philosophisch wichtige Einwände geben; für alle praktischen Zwecke sind jedoch die Grenzen, die durch die Unmöglichkeit entstehen, alle individuellen Daten zu erfassen, die nötig sind, um detaillierte Schlußfolgerungen aus unseren Theorien ziehen zu können, wahrscheinlich viel enger.“
Latsis (1972, S. 210) (Hervorhebung im Original kursiv) Vgl. auch Gowdy (1985, S. 190).
Zur Funktionsweise der Deduktion mittels modus ponens siehe Seite 12 in Abschnitt 2.1.
Vgl. Latsis (1972, S. 223).
Die Abschwächung der psychologischen Annahme von der Profitmaximierung zur lediglichen Vermeidung des Konkurses kann im Fall der perfekten Wettbewerbssituation vorgenommen werden, ohne das gegebene Erklärungsschema zu verletzen. Vgl. Latsis (1972, S. 223).
Eine Ordnungsrelation über eine Menge zeichnet sich durch Reflexivität, Antisymmetrie und Transitivität ihrer Elemente aus.
An verschiedenen Stellen wird altruistisches und kooperatives Verhalten auf Eigeninteresse des Akteurs zurückgeführt. Vgl. beispielsweise Axelrod (1984), Schenk (1987), Becker (1982, S. 317ff.).
Zintl (1986, S. 228)
Vgl. Smith (1968, S. 446): „Wir neigen nicht dazu, von irgend jemandem anzunehmen, daß sein Egoismus unvollkommen ausgebildet ist.“ In der Sicht von Marshall (1922, S. 228) jedoch „arbeiten und sparen Menschen hauptsächlich für das Wohl ihrer Familien und nicht für sich selbst.“
„Das Streben nach Anerkennung [...] kann man als die mächtigste aller menschlichen Leidenschaften bezeichnen.“ Senior (1938, S. 12)
Vgl. Zintl (1989, S. 53).
Zintl (1989, S. 53). Vgl. auch Vanberg (1993, S. 93), der bestätigt: That human behavior is, in a general sense, a function of its payoffs is hard to deny.“
Vgl. Latsis (1972, S. 228): „In general, in neoclassical microeconomics, the gap between the agent’s situation appraisal and the decision he makes is bridged by the optimisation principle.“
M.Weber (1980, S. 12f.) (Hervorhebungen im Original kursiv), der eine regelrechte Typologie des Handelns entwickelt, deren einzelne Ausprägungen sich durch abnehmende Grade der eingesetzten Rationalität voneinander unterscheiden. An der Spitze steht das zweckrationale Verhalten, welches er wie folgt charakterisiert: „zweckrational: durch Erwartungen des Verhaltens von Gegenständen der Außenwelt und von anderen Menschen und unter Benutzung dieser Erwartungen als ‚Bedingungen‘ oder als ‚Mittel‘ für rational, als Erfolg, erstrebte und abgewogene eigene Zwecke.“ In der Hierarchie folgen wertrationales, affektuelles und traditionales Handeln in dieser Reihenfolge. Jedoch kann auf eine detaillierte Erläuterung und weitere Betrachtung dieser drei möglichen Handlungsweisen verzichtet werden, da sie gerade auch bei Weber auf zweckrationale Grunddispositionen zurückgeführt werden können. Vgl. Schöllgen (1984, S. 94f.), vgl. auch Münch (1982, S. 559): „[Weber verwendet] einen Typus, nämlich das zweckrationale Handeln, als Meßlatte für die anderen Typen. Dadurch erscheinen die drei anderen Typen nur noch als negative Abweichungen von der Zweckrationalität, ohne positive Bestimmung ihrer besonderen Funktion.“
Gutenberg (1967, S. 30). Die Charakterisierung der Ökonomik als Wissenschaft der Zweck-Mittel-Beziehung wurde bereits von Robbins (1935) vorgeschlagen. Vgl. Kliemt (1991, S. 184).
Vgl. Zintl (1989, S. 60).
Simon (1986b, S. 210)
In Zintl (1989, S. 63) wird anders formuliert Ähnliches festgestellt: „Es geht also, mit anderen Worten, nicht um die Fragwürdigkeit eines Menschenbildes [...]; es geht vielmehr um die jeweilige Angemessenheit einer Situationsbeschreibung, um das Ausmaß, in dem es gerechtfertigt ist, bestimmte Handlungssituationen oder Sequenzen solcher Situationen isoliert zu untersuchen.“
Gutenberg (1989, S. 41). Dort wird auf die Legitimierung dieser Vorgehensweise durch die Methode der abnehmenden Abstraktion hingewiesen.
Lindenberg (1991, S. 33). (Hervorhebung im Original fett gedruckt)
Tamborini (1997, S. 51). Vgl. Simon (1986b, S. 210ff.).
Vgl. Zintl (1986, S. 236). Dort werden individuelle Handlungen als Resultat aus „(a) ‚Überlebensdruck‘ (b) ‚Umweltansprüchen‘ (c) ‚Individualität‘“ rekonstruiert.
Vgl. Donaldson (1997, S. 81): „For those concerned with the morality of managers, the question of the empirical validity of structural determinism is an important one, for if structural determinism is invalid then managers can be held morally accountable.“ Vgl. weiter Whittington (1989).
Vgl. Zintl (1986, S. 236).
McKenna/Zannoni (1998, S. 239) stellen fest: To be morally responsible, to be worthy of praise or criticism, one must be a causal agent; one’s actions must be one’s own rather than the result of external determinating factors.“
McKenna/Zannoni (1998, S. 239). Vgl. Giddens (1984, S. 14ff.), der Strukturen, wie beispielsweise Regeln, als grundsätzlich interpretationsfähig und damit offen für alternative Handlungsweisen ansieht. Damit wird Akteuren eine Handlungsmacht („capability“) im Sinne eines Vermögens zur Umgestaltung zugesprochen.
Kirsch (1994, S. 2)
Vgl. Zintl (1986, S. 237). Als Beispiel für derartige Situationen kann die Mitgliedschaft in Organisationen, die kollektive Güter liefern, gelten. Olson beobachtet in seiner Theorie über die Mitgliedschaft in freiwilligen Verbänden wie politischen Parteien oder Gewerkschaften, daß subjektive Werte wie Pflichtgefühl, Nächstenliebe oder Geltungsdrang mit der geringen Erwartung über den individuellen Einfluß auf den kollektiven Nutzen in Opposition stehen (Olson (1965)). Die freie Entscheidung des einzelnen Akteurs ist hier ausschlaggebend; Erwartungen über eine erhöhte Partizipation sind nicht berechtigt. „Zwar ist es in jedermanns Interesse, daß das kollektive Ziel erreicht wird, dafür ist es jedoch in niemandes Interesse, einen Beitrag zur Erreichung dieses Ziels zu leisten.“ (Boudon (1977, S. 233f.)) Vgl. zur Interpretation kollektiver Interessen als sozialer Tausch auch Groser (1989, S. 260ff.).
von Hayek (1996, S. 245). Vgl. Prigogine (1997, S. 6): „How can we conceive of human creativity or ethics in a deterministic world?“
Shackle (1955, S. 7)
Davidson (1996, S. 498)
Boudon (1977, S. 265)
Der Begriff der Bifurkation stammt vom lateinischen Begriff „furca“: Gabel. Gleichbedeutend wird die Bezeichnung „Fulgurationspunkt“ (lat. „fulgur“: Blitz) verwendet. Die Analogie zu Blitzen erschließt eine interessante Erkenntnis: Entscheidungsbäume sind vom Prinzip her ein um den Faktor 1012 verlangsamter Blitz. Auf hohem Energieniveau werden Stoffe transportiert, Energien dissipiert und dadurch irreversible Entscheidungen getroffen. Vgl. Cramer (1993, S. 146).
Zum Begriff der Entscheidung vgl. unter anderem Breinlinger et alii (1964, S. 689).
McKenna/Zannoni (1998, S. 238) Diese Erkenntnis bleibt nicht auf ökonomische Kontexte beschränkt. Am Beispiel zweier Abschüsse von zivilen Flugzeugen und den daraus resultierenden Unruhen stellt Saperstein (1997, S. 105) fest: „In international politics, similar events or contextes can lead to very dissimilar outcomes.“
Keynes (1936, Kap. 12) weist auf die Eigenschaft der „echten Unsicherheit“ oder Unsicherheit zweiter Ordnung hin. Im Gegensatz zur Unsicherheit erster Ordnung sind auch die möglichen Ereignisse und damit deren Eintrittswahrscheinlichkeiten unbekannt.
Vgl. die Ausführungen in Abschnitt 3.1.3.
McKenna/Zannoni (1998, S. 238)
Vgl. Davidson (1996, S. 498), der aus dieser Erkenntnis die Verwendung der Kostenaufschlagskalkulation begründet, deren weite Verbreitung nicht durch die Gewinnmaximierungsannahme erklärbar ist. Vgl. auch Davidson (1972, Kap. 3). Ausführlich erläutert Alchian (1950, S. 212f.) die Unvereinbarkeit von Profitmaximierung und ontologischer Unsicherheit. Dort wird dies auf überlappende potentielle Gewinnverteilungen zurückgeführt.
Boudon (1977, S. 265) (Hervorhebung im Original kursiv)
Vgl. insb. Kapitel 4 und Bach (1998).
Vgl. McKenna/Zannoni (1998, S. 239).
Haken (1981, S. 143)
Vgl. hier und fortfolgend Feinberg (1996, S. 410ff.).
Feinberg (1996, S. 413)
Boudon (1977, S. 215)
Campbell (1996, S. 455)
Vgl. Weber/Brettel/Schäffer (1996, S. 8), die aus diesem funktionalen Zusammenhang die vollständige Bestimmtheit von Faktoreinsatz und -ertrag ableiten. Vgl. auch Gutenberg (1983, S. 302f.).
Habermas (1997a, S. 126f.). Auf menschliche Akteure bezogen stellt Rasmussen (1983, S. 257) fest: „Humans are not simply deterministic input-output devices but goal-oriented creatures who actively select their goals and seek the relevant information. The behavior of humans is teleological by nature.“
Habermas (1997a, S. 127) (Hervorhebung im Original kursiv)
Vgl. Kliemt (1991, S. 184f.) und insbesondere zu altruistischen Zwecken Schenk (1987, S. 187ff.) oder Collard (1978). Vgl. auch Abschnitt 3.2.2.
M.Weber (1988, S. 42ff.)
Vgl. Schöllgen (1984, S. 92), der sich auf Ernst Bloch bezieht, wenn er diesen Idealtypus als „methodischer ‚Überschlag‘“ charakterisiert.
Die hier verwendeten Bezeichnungen gehen zurück auf die von Rowe (1989) eingeführten Begriffe „Act-Individualism“ vs. „Rule-Individualism“. Vgl. auch von Hayek (1996, S. 28), der den Aktionsindividualismus auch als „partikularistische Form“ des Utilitarismus bezeichnet. Vgl. Lenk (1994, S. 124f.) und Zintl (1989, S. 60).
Vgl. Kliemt (1991, S. 184).
Vgl. Vanberg (1993, S. 94, FN 3), der darauf hinweist, daß die Optimierung stets über die mit den jeweiligen Aktionen verbundenen Outcomes stattfindet; nicht über die Handlungen selbst. „Actions are only instrumental in producing outcomes.“ Vgl. Sen (1987, S. 80f.), der Entscheidungsverhalten diesen Typs als „Self-goal choice“ (Im Original kursiv) bezeichnet.
Vgl. Kliemt (1991, S. 184f.).
Die Präferenzstruktur des Akteurs bleibt individuell. Daher weist Vanberg (1993, S. 95) darauf hin, daß auch dieses objektive Modell eine subjektive Komponente hat: „The objectivist/subjectivist distinction concerns the way in which they specify the constraint-component.“ (Hervorhebung im Original kursiv)
Vgl. zum Verständnis von Information als Situationsdefinition und zugehörige Perfektionsgrade Abschnitt 3.1.2.
M.Weber (oJ, S. 37)
Der wesentliche Vertreter einer subjektiven Handlungstheorie ist die SEU-Theorie. Zu einer detaillierten Beschreibung siehe beispielsweise Riker/Ordeshook (1973, Kap. 2). Vgl. Rockloff/Latané (1996, S. 359), die diese Feststellungen wie folgt zusammenfassen: „Prediction [...] is hampered by the variability people exhibit in their thoughts and behaviors — different people often fail to respond similarly to like situations, and even the same person may do different things on different days, unlike the stars, whose behavior seems consistent or periodic.“
Kliemt (1991, S. 185)
Vgl. Vanberg (1993, S. 95).
Esser (1991, S. 257) (Hervorhebung im Original fett gedruckt)
Vgl. Vanberg (1993, S. 95) „The conjecture, that an actor will choose, from what he perceives as potential alternatives, the one that he believes will work out best for him, is not a very informative statement.“
Simon (1986a, S. 101) kritisiert bezogen auf die SEU-Theorie: „At best, the model tells us how to reason about fact and value premises; it says nothing about where they come from.“ Daraus folgert er, daß diese Theorie nicht auf reale Probleme angewendet werden kann. Vgl. auch Sen (1987, S. 14).
Die Ausblendung irrationalen Verhaltens aus diesem theoretischen Modell macht in der Folge auch die Untersuchung von irrationalen Handlungen in Organisationen und damit auch die Entwicklung von Mechanismen zur Sicherstellung von Rationalität in der Führung, beispielsweise durch Controlling obsolet. Vgl. zum ersten Punkt unter anderem Brunsson (1982); zum zweiten Punkt Weber/Schäffer (1999a) und Weber/Schäffer/Langenbach (2001).
Vgl. Becker (1982, S. 12): „Die ökonomische Literatur ist voll von Beispielen dafür, daß Veränderun- gen der Präferenzstruktur ad hoc unterstellt werden, um unverständliches Verhalten ohne Schwierigkeiten zu erklären.“ und kritisch (ebenda, S. 147): „Nun ist es aber merkwürdig, daß Ökonomen ihre Theorie der Wahlhandlungen weitgehend auf die Annahme unterschiedlicher Präferenzen stützen, da sie zugegebenermaßen keine brauchbare Theorie der Bildung von Präferenzen besitzen.“
Vgl. zur hedonistischen Interpretation beispielsweise Harsanyi (1986, S. 1).
Becker (1982, S. 4). An anderer Stelle finden sich auch weitere Beispiele aus der Literatur. Vgl. Becker (1982, S. 152f.).
Becker (1982, S. 4)
Vgl. Becker (1982, S. 145–150). Bei der hier gewählten Darstellung wird von der im Original gewählten Indizierung abgewichen, da von einer Identität der Anzahl von Produktionsfaktoren und -erträgen nicht ausgegangen werden kann.
Unter der Annahme „daß in der Tat alle Haushalte genau die gleiche Nutzenfunktion besitzen [...] [und] daß sie alle diesen Nutzen von den gleichen ‚grundlegenden Freuden‘ oder der gleichen Präferenzfunktion ableiten“, unterscheiden sie sich „lediglich in der Fähigkeit zur Produktion dieser Freuden.“ (Becker (1982, S. 162))
Stigler/Becker (1977, S. 84) heben gerade das Wissen des Akteurs in ihrer textuellen Beschreibung der Produktionsfunktion hervor: The ultimate objects of choice are commodities produced by each household with market goods, own time, knowledge, and perhaps other inputs.“ (Hervorhebung im Original kursiv)
Vanberg (1993, S. 98)
Vgl. Opp (1993, S.111).
Das Ordnungsproblem wird von Hobbes (1651) zusammengefaßt: „[Die] soziale Bezogenheit der Menschen aufeinander, die im sogenannten Naturzustand eine an-archisch ungeregelte und rückhaltslos der Gefahr mörderischer Auseinandersetzungen ausgelieferte zu sein scheint, bedarf einer rechtlichen und politischen — erst zu stiftenden, nirgends fertigen ‚gegebenen‘ Ordnung.“
So argumentiert auch Kliemt (1991, S. 184).
Vgl. Vanberg/Buchanan (1988, S. 140). Konstitutionelle Interessen beschreiben die individuellen Präferenzen verschiedener sozialer Ordnungen. Vgl. weiter Sudgen (1989, S. 86).
Prominent wird dieser Ansatz beispielsweise vertreten von Hume, Menger oder von Hayek.
In jedem endlichen Spiel wird Kooperation nicht dominant werden können. Dieses „Chain-Store- Paradoxon“ läßt sich durch Rückwärtsinduktion vom letzten Zug zum ersten beweisen. Vgl. Selten (1978) oder Luce/Raiffa (1957, S. 94ff.). Eine detaillierte Beschreibung der Voraussetzungen des Folk-Theorems findet sich in Rasmusen (1989, S. 124f.).
Vgl. Vanberg/Buchanan (1988, S. 145): „The notion of reciprocity is a central one in this context.“ Für den Senat der USA stellt Matthews (1960, S. 160) ebenfalls reziprokes Verhalten als gängiges Handlungsmotiv fest: „It is not an exaggeration to say that reciprocity is a way of life in the Senate.“ Als erfolgreichstes Muster reziproken Verhaltens im Gefangenendilemma hat sich die Tit-for-Tat-Strategie herausgestellt. Vgl. Axelrod (1984, S. 120ff.).
Vgl. Kliemt (1991, S. 190). „Wenn man regelmäßige Kooperation als Ordnung bezeichnet, dann illustrieren das Folk-Theorem und seine Taylorsche Konkretisierung, wie opportunistisch rationale Individuen aus Orientierung allein am individuellen Interesse ‚Ordnung schaffen‘.“
Kliemt (1991, S. 192)
Vgl. Kliemt (1991, S. 193).
Kliemt (1991, S. 193)
Vgl. Parsons (1968, S. 346), der am utilitaristischen Individualismus kritisiert, daß dieser „takes as its fundamental basis the rational unit act and treats it atomistically“ und damit nicht in der Lage ist, to account for the element of normative order in society.“
Gäfgen (1963, S. 31) unter Verweis auf Sombart (1925, S. 15f.). Vgl. ähnlich auch Malik (1993, S. 97): „Bewußt gesetzte Ziele, Pläne und Absichten genügen nicht, um das Verhalten von Menschen zu erklären oder es zu bestimmen. Ein weiterer, ebenfalls häufig übersehener oder in seiner Bedeutung jedenfalls unterschätzten Faktor besteht darin, dass menschliches Verhalten darüberhinaus [sic!] in hohem Masse von Regeln bestimmt und geformt wird und zwar derart, dass sie den grundsätzlich gegebenen Verhaltensmöglichkeiten gewisse Grenzen oder Beschränkungen auferlegen [...].“ (Hervorhebung im Original kursiv)
Vgl. Abschnitt 3.2.3.2.1. Das Produktionsumfeld ist dort mit E bezeichnet.
Zum Problembezug des Lernens und zum eigentlichen Lernprozeß vgl. die Ausführungen in Abschnitt 3.2.3.4.
Vgl. zu dieser Interpretation Langlois/Garrouste (1997, S. 287ff.).
Vgl. Langlois (1983, S. 586f.). Die von Weber (1999b, S. 176) bezüglich des Wissensbegriffs offen formulierte Frage, „ob der Wissensbestand (Information ist Wissen) oder der Wissensaufbau (Information schafft Wissen) gemeint ist“, (Hervorhebungen im Original kursiv) kann damit zugunsten des Wissensaufbaus entschieden werden, mit der zusätzlichen Einschränkung, daß die Schaffung nicht durch bloße Speicherung erzielbar ist. So auch Boulding (1956, S. 103f.), der feststellt, daß „we cannot regard knowledge as simply the accumulation of information in a stockpile, even though all messages that are received by the brain may leave some sort of deposit there. Knowledge must itself be regarded as a structurem a very complex and frequently quite loose pattern.“
Vgl. die Darstellung der Untersuchung in Cherkaoui (1974, S. 585ff.). Ähnliche Ergebnisse wurden in Dearborn/Simon (1967) in bezug auf komplexe Managemententscheidungen bei verschiedenen Ständen des Ingenieurwissens der beteiligten Akteure erzielt.
Als Argumentation wird hier eine Sprechhandlung verstanden, die versucht „mit Hilfe des kollektiv Geltenden etwas kollektiv Fragliches in etwas kollektiv Geltendes zu überführen.“ (Im Original kursiv) Klein (1980b, S. 19).
Vgl. Boudon (1977, S. 254).
In Boudon (1977, S. 255) werden detaillierte Begründungen anhand der gelernten Klassifikationstechniken, die das Kind für grammatische Analysen verwenden kann und anhand der unterscheidenden Darstellung von Alternativhandlungen gelernt hat, und mathematischen Verfahren durch Nutzenvergleiche der dargelegten Alternativen gegeben.
Kliemt (1991, S. 195)
Dutke (1994, S. 23)
Zuerst wurde der Begriff von Bartlett (1932) eingeführt, der seinerseits auf Head (1920) verweist. Rumelhart/Ortony (1977) sehen den Kantschen Schemabegriff als Ursprung. Für eine historische Analyse des Begriffes siehe Thorndyke (1984).
Vgl. Bartlett (1932, S. 93f).
Veränderungen der Texte fanden in zwei Richtungen statt. Zum einen wurden Details entfernt, die zu Inkonsistenzen führten, und zum anderen wurden Teile unabsichtlich hinzugefügt, die den Ablauf der Geschichte verständlicher machten.
Dutke (1994, S. 24)
Schwarz (1985, S. 273) versteht Schemata „als allgemeine Wissenstrukturen [...], die die wichtigsten Merkmale des Gegenstandsbereichs wiedergeben, auf den sie sich beziehen und zugleich angeben, welche Beziehungen zwischen diesen Merkmalen bestehen“.
Vgl. Rich (1988, S. 230f.). Über die hier genannten Formen hinaus haben sich prominent auch Skripte zur Beschreibung von Ereignisabfolgen in sozialen Situationen etabliert. Vgl. Schank/Abelson (1977).
Vgl. Quillian (1968) und Raphael (1968).
Vgl. Minsky (1975).
Vgl. zu Selbstkonzepten Markus/Wurf (1987); zur Speicherung motorischer Fähigkeiten eines Akteurs Schmidt (1975). Eine Übersicht über weitere Anwendungsbereiche findet sich bei Schwarz (1985, S. 274ff.).
Dutke (1994, S. 27)
Rumelhart (1980, S. 31). Vgl. auch die Kritik von Klix (1984, S. 60f.).
Vgl. Holland et alii (1987b, S. 12): „Although schemas are valuable for chunking information together they exact a toll in inflexibility.“
Dutke (1994, S. 27)
Vgl. Holyoak (1984, S. 205).
Vgl. Holland et alii (1987b, S. 12f.): „Scripts [...] are schemas for stereotypical event sequences that provide predictive knowledge for highly regular and routine situations.“ So auch Kehrmann (2000, S. 38), der den Anwendungsbereich für Schemata ebenfalls einschränkt: „Ist die Problemstellung repetiv [sic !], so kann der handelnde Akteur in der Regel auf Schemata zurückgreifen, die sich bereits bei früheren und vergleichbaren Problemsituationen bewährt haben.“
Vgl. Schank (1982).
Vgl. Holland et alii (1987b, S. 13).
Das Konzept der mentalen Modelle beruht auf den von Craik (1943) vorgestellten Automatenanalogien und wurde durch die Arbeit von Johnson-Laird (1980) und den in Gentner/Stevens (1983) enthaltenen Aufsätzen populär. Zu den Überlegungen von Craik vgl. auch Abschnitt 3.2.1. Eine erste betriebswirtschaftliche Interpretation gibt Krieg (1971, S. 81). Zu einer ausführlichen Diskussion des Begriffes im betriebswirtschaftlichen Kontext siehe Weber/Grothe/Schäffer (2000, S. 239ff.). Der Begriff des mentalen Modells wird trotz gemeinsamen Bezug auf die genannten Quellen schillernd verwendet und mittlerweile „mit jeder Form von Wissen gleichgesetzt.“ (Kehrmann (2000, S. 40))
Holland et alii (1987b, S. 14)
Vgl. Kapitel 3.2.3.4.
Vgl. Newell/Simon (1972), Rich (1988) und zu regelbasierten Expertensystemen Buchanan/Shortliffe (1984).
Der Begriff „kontextfrei“ ist als Eigenschaft einer Sprache in der Berechenbarkeitstheorie etabliert. Kontextfreie Sprachen sind, wie die weniger komplexen regulären Mengen auch, von großer Bedeutung zur Analyse von künstlichen Sprachen. Sie werden von nichtdeterministischen Kellerautomaten erkannt. Im Gegensatz zu regulären Mengen und nicht eingeschränkten Grammatiken kann bei kontextfreien Sprachen keine Äquivalenz zwischen den jeweiligen deterministischen und nichtdeterministischen erkennenden Automaten nachgewiesen werden. Die deterministische Variante des Kellerautomaten erkennt nur eine Teilmenge der kontextfreien Sprachen. Diese Erkenntnis wird bei der Dynamisierung der hier vorgestellten Handlungsprognose von Bedeutung sein. Vgl. zur Sprachentheorie Hoperaft/Ullman (1994).
Holland et alii (1987b, S. 15)
Die Beschäftigung mit Regeln und ihre Bedeutung für die Handlungsexplikation von Akteuren wurde seit den 6oer Jahren durch die Arbeiten von Coase, Williamson, Alchian und Buchanan begründet. Vgl. Burr (1998, S. 313). Die von Brennan/Buchanan (1993, S. 18) festgestellte „Neigung von Ökonomen, eher auf die Ergebnisse als auf die Regeln zu schauen, die die jeweiligen Ergebnisse hervorbringen“, führt zu einem Mangel an einer gültigen Definition des Regelbegriffs, die Neumärker (1996, S. 199) als „nicht zuletzt zweckorientiert und grundsätzlich offen“ charakterisiert.
Vgl. Rasmussen (1983, S. 259) und Vanberg (1993, S. 107).
Vgl. Piaget (1975, S. 49f.).
Ähnlich definiert wird das Konzept der Habits. Vgl. dazu Camic (1986, S. 1044), der Habits als „more or less self actuating disposition or tendency to engage in a previously adopted or acquired form of action“ beschreibt.
Schmidt (1996, S. 102). Vgl. auch Gale (1974, S. 309).
Direkte Erinnerungen sind damit von Regeln anhand des Abstraktionsgrades zu unterscheiden. Vgl. Kehrmann (2000, S. 35).
Vanberg (1994, S. 12) Anschaulich beschreibt Wittmann (1959, S. 14) den Handlungsbezug: „Wenn wir das Haus verlassen, um einkaufen zu gehen, so tun wir es mit der Überzeugung, daß die Straßenbahnen fahren, die Läden geöffnet sind, Waren, die wir wünschen, verkauft und unsere Zahlungsmittel angenommen werden [...] Und entsprechend richten sich auch — bewußt, zum großen Teil aber auch unbewußt — unsere Pläne zur Gestaltung unserer in der Zukunft vorzunehmenden Handlungen aus.“
Newell/Simon (1972) Vgl. Holland et alii (1987b, S. 41).
Rich (1988, S. 39)
Klix (1971, S. 649)
Als aktive Information wird die Definition der aktuellen Situation bezeichnet. Ähnlich auch Holland et alii (1987b, S. 41), die jedoch statt des Begriffs der bedingenden Information von „stored information“ sprechen: „‚Active‘ information, in contrast to ‚stored‘ information, is declarative knowledge currently being processed by the system.“ Vgl. auch Schwarz (1985, S. 278).
Mitchell (2000, S. 1) definiert den Analogieschluß als „the perception of two or more non-identical objects or situations as being the ‚same‘ at some abstract level.“ Vgl. Vosniadou/Ortony (1989).
Die Unendlichkeit möglicher Analogien läßt sich am einfachen Beispiel einer Zeichenkettenänderung feststellen. Mit der Kenntnis, daß sich die Kette -abc- zu -abd- ändert, ist eine mögliche Antwort auf die Frage, wie sich -ijk- analog geändert werden muß: „Durch Ersetzung des äußerst rechten Buchstaben durch seinen Nachfolger, also -ijl-.“ Ebenso ist aber auch die unbedingte Ersetzung des rechten Buchstabens durch den Buchstaben d möglich (-ijd-). Trotz des endlichen Alphabets, wird durch den möglichen Schluß, daß rechte Vorkommen des Buchstabens c immer durch den Buchstaben d ersetzt werden, alle anderen Buchstaben jedoch durch beliebige Anzahl von x. Demzufolge wäre -ijxxx- eine mögliche Antwort. Vgl. Mitchell (2000, S. 4f.).
Grundsätzliche Prinzipien des Analogieschlusses nennt Mitchell (2000, S. 7).
Vgl. zum Varietätsgesetz Abschnitt 3.1.2 auf Seite 52.
Vgl. Grothe (1997, S. 199).
Vgl. Holland (1994).
Vgl. Mitchell (2000, S. 8ff.). Dort werden Ameisenkolonien und Immunsysteme als Beispiele genannt. Ameisen versprühen auf dem Rückweg von einer erfolgreichen Futterstelle zum Nest Duftstoffe, die anderen Ameisen einen potentiell erfolgreichen Weg weisen. Mit der Zeit verstärken sich auf diese Weise „gute“ Strecken und verblassen nicht mehr erfolgsversprechende. Vgl. Abschnitt 3.2.3.4.5 für eine detaillierte Sicht und die hier verwendete Methodik.
Zur intersubjektiven Vergleichbarkeit mehrerer Akteure wurde in Abschnitt 3.1.3.2 auf Seite 60 das zusätzliche Symbol ∼ eingeführt. Bei der Formalisierung des Handlungsmodells eines Akteurs ist dieses jedoch verzichtbar. Die auf Seite 71 eingeführte und hier weiterhin verwendete Raute beschreibt die zum Zwecke der generellen Formulierung durch den Akteur nicht wahrzunehmenden Attribute. Der in Formel (3.6) verwendete Stern (★) entspricht der Verwendung in der Backus-Naur-Form als Zeichen zur beliebig häufigen, jedoch mindestens einmaligen, Wiederholung des vorhergehenden Terms. Vgl. dazu Hoperaft/Ullman (1994, S. 84).
Vgl. Holland et alii (1987b, S. 42). Vgl. Gale (1974, S. 314), der diese Art von Regeln als „process laws“ bezeichnet.
Vgl. die Definition des Schemas auf Seite 101. Häufig wird der kognitionspsychologische Begriff des Schemas auf die Bedeutung von assoziativen Regeln reduziert. So legt sich Herkner (1993, S. 168) fest, daß „man [...] sich Schemata als relativ selbständige und abgrenzbare Teile eines semantischen Netzwerks vorstellen [kann].“
Vgl. zum Begriff der Analogie die Definition auf der vorherigen Seite. Die hier vorgenommene Beschreibung assoziativer Strukturen als Analogien zweiten Grades beruht auf der Unterscheidung zwischen initialen, d.h. unmittelbar auf Umweltbeobachtungen beruhenden Wahrnehmungen und inneren Handlungen durch Redefinitionen. Diese Zweiteilung wird auf Seite 109 zugunsten einer einheitlichen Formalisierung aufgegeben.
Zur Definition eines Kartesischen Automatens vgl. die Ausführungen auf Seite 77. Vgl. zu dieser Annahme auch Hanappi (1994, S. 43). Holland et alii (1987a, S. 42f.) unterscheiden zu diesem Zweck zwischen „predictor rules, which tell the system what to expect in the future, and effector rules, which cause the system to act on the environment“. (Hervorhebungen im Original kursiv)
Vgl. Bach et alii (2001, S. 97), die als Realisationsfähigkeit das „Vermögen [bezeichnen], Änderungen im Handlungsraum (bezogen auf eine Nicht-Realisation des Akteurs) tatsächlich vornehmen zu können.“ Weitergehende Annahmen über die Realisationsfähigkeit eines Akteurs bedürfen eine Konkretisierung durch die sozialpsychologischen Konzepte des „locus of control“ sowie der „self-efficacy“. Erstes betrachtet den Zusammenhang zwischen den Handlungsprognosen und dem effektorischen Wirkungsgrad aus der Perspektive des Akteurs. Rotter (1954, S. 184ff.) sieht einen Einfluß der subjektiven Einschätzung der Kontrolle über das sichtbare Handlungsergebnis und dem Erfolg eines Lernprozesses. Diese Verstärkungswirkung subjektiver Einschätzungen für Lernprozesse wird hier und auch in Abschnitt 3.2.3.4.5 nicht problematisiert. Das zweite Konzept der „self-efficacy“ betrachtet die Vermutung eines Akteurs, daß er Kontrolle über den Output durch seine Realisationsfähigkeit besitzt. Durch diese Vermutung wird subjektiv der Suchraum aus gewünschten Zuständen und eigenen Fähigkeiten aufgespannt. Vgl. Bandura (1989, S. 1175): „Among the mechanisms of personal agency, none is more central or pervasive than people’s beliefs about their capabilities to exercise control over events that affect their lives. Self-efficacy beliefs function as an important set of proximal determinants of human motivation, affect, and action. They operate on action through motivational, cognitive, and affective intervening processes.“
Vgl. Holland et al.. (1987b, S. 16): The natural sense of a rule as an imperative is misleading [...]. [R]ules are thus more like tentative suggestions than like commands.“
Vgl. Dörner (1974, S. 6); Die allgemeine Systemtheorie geht auf Bertalanffy zurück, der von der Vorstellung ausging, daß es Gesetzmäßigkeiten gibt, die für alle Systeme gleichermaßen gelten. Damit entsprechen diese Gesetzmäßigkeiten abstrakten Kategorien. Auf der Basis mathematischer Gleichungen und Modelle stellt Bertalanffy allgemeingültige Prinzipien für alle Systeme auf, die zur Entwicklung von Systemmerkmalen wie Äquifinalität und Finalität herangezogen wurden. Vgl. von Bertalanffy (1950), Bertalanffy (1972). Der Systembegriff hat sich nach Kornwachs/Wehrt (1984, S. 8) als „interdisziplinäres Instrumentarium einer exakten Beschreibung“ etabliert.
Dörner (1974, S. 5)
Holland et alii (1987b, S. 16). Schneider (1995, S. 69f.) versteht Hypothesen als „gesetzesartige Aussagen in Theorien“ und gibt als Beispiel eine Ableitung aus einem einfachen Kostentheoriemodell: „Immer dann, wenn unter sonst gleichen Umständen die Produktionsmenge gegenüber dem Vormonat wächst, sinken die Stückkosten.“
Vgl. Dörner (1974, S. 5): „In einem reticulären System dagegen gibt es keine voneinander isolierten Wirkungsketten, sondern ein Wirkungsnetz mit mehr oder minder vielgestaltigen Rückkopplungen und Interaktionen.“ Ähnlich können Systeme mit und solche ohne Rückkopplungen unterschieden werden. Vgl. Friedrich (1984, S. 172f.). Dondl (1992, S. 55) sieht die Eigenschaft der starken Vernetzung als wesentliches Charakteristikum der Systemtheorie insgesamt: „[U]nter der ‚Headline‘ Systemtheorie [...]sind die unterschiedlichsten Theorien zu finden, deren gemeinsamer Fluchtpunkt eine Abkehr von reduktionistischen Einzelbetrachtungen und monokausal-linearen Erklärungsmodi ist und die statt dessen auf eine [...] Betrachtung von Wechselwirkungen und Interdependenzen zwischen einzelnen Elementen eines Systemensembles zu setzen.“
Vgl. Bertalanffy (1972, S. 18ff.). Die Komplexität des zu studierenden Systems bestimmt die Untersuchungsmethode, wie Dörner (1974, S. 6) feststellt. Man muß versuchen, „solche reticulären Systeme ‚als Ganzes‘ zu studieren. Dies aber übersteigt [...] sehr leicht die Vorstellungskraft des Forschers. Ein Ausweg aus dieser Schwierigkeit ist die Computersimulation solcher Systeme.“(Hervorhebung im Original unterstrichen)
Ulrich (1985, S. 7)
Vgl. die Erläuterungen auf Seite 104. Zum Begriff der Kontextfreiheit siehe im Detail Fußnote 450.
von Hayek (1996, S. 23). Zur Entwicklung von Regeln durch Lernen vergleiche Abschnitt 3.2.3.4.
Da die Bedingungen neben den Variablen auch das Indifferenzsymbol # enthalten ist die Grammatik nicht deterministisch und erlaubt explizit Parallelität in der Regelanwendung.
Zur Bedeutung dieser beiden Prinzipien vgl. Meissner/Wold (1974, S. 116): „Specialization and generalization are two principal vehicles of scientific progress.“
Holland et alii (1987b, S. 18)
Vgl. zu diesem Beispiel Abbildung 3.3 auf Seite 63.
Die Oberklassen werden von Fahlmann (1979) als „virtuelle Kopien“ bezeichnet. Vgl. Chang/Hong/ Tseng (1996, S. 216).
Vgl. Goldberg (1987, S. 75). Dort wird die Spezifität als Ordnung bezeichnet. Ist bei der Schnittmengenbildung über zwei Muster an einer Position zwar in beiden Mustern eine konkrete Ausprägung vorhanden, jedoch unterschiedlich, so sei diese Position in der Schnittmenge nicht definiert und im Rahmen der Spezifitätsberechnung mit Null bewertet. Die zusätzlich eingeführte Funktion nd(X) zählt gerade diese nicht definierten Positionen.
Vgl. Holland et alii (1987b, S. 86). Die Schnittmengenbildung wird bei der Dynamisierung des vorgestellten Modells durch Lernen zur Entwicklung neuer Regeln aus bereits vorhandenen verwendet werden. Vgl. Abschnitt 3.2.3.4.6.
Vgl. Ashby (1957, S. 49), der ähnlich die Verbindung zweier „Maschinen“ beschreibt: „[...] [T]he coupling must be arranged so that [...] each machine affects the other only by affecting its conditions, i.e. by affecting its input. [...] [T]he coupling must be between the (given) inputs and outputs, other parts being left alone no matter how readily accessible they may be.“ (Hervorhebung im Original kursiv)
Vgl. Milsum (1972, S. 148): „[...] [T]he use of hierarchical structure has been and may continue to be an optimal strategy in the growth of complexity and stability in our living systems.“ Simon (1962, S. 468) hebt die Bedeutung von Hierarchien als wesentliches Werkzeug der Komplexitätsbewältigung hervor: „Hierarchy [...] is one of the central structural schemes that the architect of complexity uses.“ Vgl. Bresch (1978, S. 69).
Holland et alii (1987b, S. 19)
Vgl. Holland et alii (1987a, S. 117).
Vgl. zur Diskussion der Freiwilligkeit versus einer Bestimmtheit der Regelanwendung Vanberg (1993, S. 103).
Grothe (1997, S. 224). Dort werden auch ökonomische Beispiele für Regeln geringerer Spezifität gegeben: „Wachstumsschwellen, zeitliche Produktlebenszyklen, S-Kurven der Technologieentwicklung, kausale Ketten der Lagerhaltung [...] und die logische Folge einer sich aus Spezialisierung ergebenden Notwendigkeit der Koordination.“
Vgl. Dörner (1974, S. 5).
Vgl. Vanberg (1993, S. 103).
Vgl. Beer (1994, S. 246ff.), der in diesem Zusammenhang auch von proliferierender Varietät spricht. Bach (1998, S. 88f.) bestätigt auf das verfügbare Verhaltensrepertoire bezogen, daß dieses „immer historisch im Sinne von zeitpunktbezogen“ ist. Zum Planungsbegriff vgl. Schneider (1995, S. 19).
Weber/Schäffer/Langenbach (2001, S. 52)
Liegt der Fall vollständiger Rationalität des Akteurs vor, so ist, wie auf Seite 94 dargelegt, eine Planung obsolet, da aktionsindividualistisch zu jedem Zeitpunkt von einer in bezug auf den finalen Zweck idealen Entscheidung des Akteurs ausgegangen werden kann.
Vgl. die Ausführungen in Abschnitt 3.2.2.
Vgl. Ashby (1958, S. 86f.), der treffend von Reaktionsmöglichkeiten spricht.
Grothe (1997, S. 172)
Vgl. die ausführliche Diskussion in Abschnitt 3.1.2.
Grothe (1997, S. 188) weist darauf hin, daß diese Verhaltensweise bei menschlichen Akteuren einer natürlichen Grenze unterliegt und bezeichnet dies als „das zentrale Dilemma adaptiver zielorientierter Systeme.“ (Hervorhebung im Original fett gedruckt)
Schneider (1995, S. 18)
Vgl. Schaffitzel (1982, S. 171): „Der Verfahrensaspekt gewinnt dabei um so größere Bedeutung, je weniger die Komplexität der Situation überhaupt eine von den Ergebnissen her eindeutige Optimumbestimmung zuläßt.“
Vgl. Weber/Schäffer/Langenbach (2001, S. 51f.).
Vgl. Burr (1998, S. 316). Wird der Handlungsspielraum in ti, i > 0 vollständig beseitigt, wird die „Wahl“ zwischen den finalen Outcomes tatsächlich schon in to getroffen. Das reticuläre System ist damit auf ein catenäres reduziert worden; der Handlungsablauf ist programmiert.
Vgl. Grothe (1997, S. 173): „Reduziert nun [...] ein System die Varietät eines anderen, so wird von einer Lenkung gesprochen. Das dominierende oder lenkende System reduziert die Varietät des gelenkten Systems.“ (Hervorhebung im Original fett gedruckt)
WeberBrettel/Schäffer (1996, S. 10) (Im Original kursiv, Heraushebung zusätzlich fett gesetzt.) Demgegenüber bezeichnen Ausführungshandlungen nach der ebenda gegebenen Definition vollständig deterministische Situationstransformationen.
Vgl. Schneider (1995, S. 18), die varietätsreduzierende Wirkung kollektiver Regeln hervorhebt: „Regeln (Ordnungen) für das Handeln von Menschen untereinander sind anderen Personen vorzuschlagen und in einer Gemeinschaft durchzusetzen, um das Feld unerwünschter künftiger Zustände der Welt zu verkleinern.“ Im idealen Fall sind kollektive Regeln durch Anreizeffizienz selbstdurchsetzend. Vgl. Burr (1998, S. 317), Brennan/Buchanan (1993, S. 20).
Vgl. Schäffer (1996, S. 28). Zur Beschreibung einer Typologie von Koordinationsmechanismen vgl. Kieser/Kubicek (1992, S. 103ff.).
Vgl. Grothe (1997, S. 173).
von Hayek (1996, S. 265). Eine detaillierte Betrachtung interakteuraler Ordnungsprinzipien erfolgt in Kapitel 4.
Vgl. Bazerman/Tenbrunsel/Wade-Benzoni (1998, S. 225): „Ulysses, here, faces competing preferences: he knows he will want to go to the Sirens but that he should not go to them because he will die.“ (Hervorhebungen im Original kursiv)
Diese Zweiteilung wird auf ein „multiple-selves problem“ zurückgeführt und als solches in der Literatur untersucht. Vgl. Loewenstein (1996, S. 277f.), der zur Erklärung auf viszerale Faktoren, die den langfristigen Interessen entgegenstehen, rekurriert; Sen (1977); Walsh (1996); Ainslie (1992).
Vgl. Schelling (1984, S. 290): „Everybody behaves like two people, one who wants clear lungs and long life and the other who adores tobacco [...] the ‚straight‘ one often in command [...] but the wayward one needing only to get occasional control to spoil the other’s best laid plans.“
Vgl. Thaler (1980, S. 54ff).
Mit dieser Annahmen entspricht dieses Problem dem im ersten Fall geschilderten. Thaler (1980, S. 55) formuliert: „Conflict arises because the doer’s preferences are always myopic relative to the planner’s. This conflict creates a control problem of the same variety as those present in any organisation.“ (Hervorhebung im Original kursiv)
Vgl. Bazerman/Tenbrunsel/Wade-Benzoni (1998, S. 226): „Individuals may try to precommit their future activities either irrevocably or by devising a penalty for their future selves should they deviate from their plan.“ Vgl. Strotz (1956) und Vanberg (1993, S. 226). Thaler/Shefrin (1981) schlagen zur Behandlung alkoholkranker Patienten beispielsweise die Einnahme von Medikamenten vor, die sofortige Übelkeit bei Alkoholaufnahme hervorruft. Nach Schelling (1984, S. 90) drückt sich die Freiheit eines Akteurs gerade in der Freiheit zur Selbstbindung aus: „Full freedom entails the freedom to bind oneself, to incur obligation, to reduce one’s range of choices.“
Bei der Rückführung der Handlung auf die zugrundeliegende Regel ist insbesondere die „method of choosing actions“ (Rowe (1989, S. 23) (Hervorhebung im Original kursiv)) von Interesse. Daher bedarf es neben der Modellierung der produzierenden Regelmenge auch eine explizite Formulierung der Auswahlbedingungen für eine Regel in einer Situation. Diese „operating principles“ (Holland et alii (1987b, S. 41)) müssen eine rationale Auswahl der zum Zuge kommenden Regel gewährleisten. Vgl. zu den hier gewählten Prinzipien Kapitel 3.2.3.4.4.
Vgl. Rowe (1989, S. 23), der die Schritte zur Evaluierung der Rationalität eines regelindividualistisch handelnden Akteurs beschreibt: „[T]he action being evaluated in terms of the rule to which it conforms, and the rule in turn being evaluated in terms of the consequences of following that rule.“
Vgl. Burr (1998, S. 317).
Vgl. zu dieser Annahme Brunsson (1982, S. 31).
Burr (1998, S. 316) Vgl. Vanberg (1994, S. 18): „Rule-following reduces decision-making costs as compared to case by case choices.“ Vgl. Gehlen (1961, S. 68), der in den „haltgebende[n] und gestaltbestimmende[n] Stabilisierungen von Antriebskräften [...] eine Entlastung von Grundentscheidungen und eine eingewohnte Sicherheit der maßgeblichen Orientierungen“ sieht. Dabei rekurriert Gehlen auf einen Vergleich zwischen Instinkthandlungen von Tieren und regelgebundener Handlungsauswahl menschlicher Akteure.
Vgl. Heiner (1990, S. 29): „Imperfect agents will benefit from following partially restrictive rules allowing adjustment only to recurrent situations, rather than freely adjusting to all potential conditions or information. That is, imperfect agents necessarily benefit from rule-governed behavior adapted only to typical or recurrent situations.“ Vgl. Burr (1998, S. 316): „Nur mit beschränkter Informationsverarbeitungskapazität ausgestattete Akteure können aus einer Regelbefolgung Nutzen ziehen.“ Vgl. Opp (1983, S. 59ff.).
Rowe (1989, S. vii)
Vgl. Burr (1998, S. 316).
Leschke (1996, S. 76) Über den Reputationsverlust argumentiert Rowe (1989, S. 132): By following a rule agents perform acts that are irrational, except in so far as their performance is necessary to maintain agent’s reputation for following that rule.“
Vgl. Vanberg (1994, S. 18), der diese Abwägung als „trade-off: the savings in decision making costs may have to be paid for by a decreased overall „quality“ of choice-outcomes.“ bezeichnet. Vgl. Schneider (1995, S. 39), der feststellt: „Flexible Planung ist einer sog. starren Planung (die Zukunftslagen- abhängige Entscheidungen in künftigen Zeitpunkten ausschließt) logischerweise überlegen, solange man die Planungskosten [...] nicht ausdrücklich beachtet.“
von Hayek (1969, S. 45)
Vgl. Vanberg (1993, S. 103).
Rowe (1989, S. 22)
Vgl. Vanberg (1993, S. 103), der diese Argumentationsweise als „functionalist fallacy“ kritisiert. Vgl. Kliemt (1991, S. 197f.).
Vgl. Kliemt (1991, S. 198f.): „Wir wissen, daß wir als reale menschliche Wesen über die Fähigkeit verfügen, uns in beschränktem Umfang durch einmaligen oder durch mehrfachen Entschluß und ein eventuelles Training selbst binden zu können. [...] Eine solche Bindung vollzieht sich allerdings in der Regel nicht aufgrund eines bewußten Entschlusses, sondern unmerklich durch verschiedene Prozesse. [...] Den betreffenden Verhaltensweisen liegt vor allem keineswegs eine zweckrationale Wahl zugrunde, die auf den vorgestellten Nutzen abzielt.“
Vanberg (1993, S. 106f.) (Hervorhebungen im Original kursiv)
Kliemt (1991, S. 199). Vgl. Frank (1988).
Vgl. Bach (1998, S. 95).
Kliemt (1991, S. 199) Vgl. auch Kierkegaard (1938, S. 465), der unter Beachtung der zeitlichen Konsequenz formuliert: „Life can only be understood backwards, but it must be lived forwards.“ Vgl. von Hayek (1996, S. 21).
Vgl. Dörner (1987, S. 10): „Ein Individuum sieht sich einem Zustand gegenüber, den er aus irgendwelchen Gründen nicht für wünschenswert hält, aber im Moment nicht über die Mittel verfügt, um den unerwünschten Zustand in den wünschenswerten Zielzustand zu überführen.“ Vgl. Newell/Simon (1972, S. 71ff.).
Vgl. Weber/Schäffer/Langenbach (2001, S. 51).
Klix (1971, S. 639f.) Im Extrem sind Probleme nicht oder nicht in deterministischer polynomialer Zeit entscheidbar. Zu den nicht entscheidbaren Problemen gehört beispielsweise das Post’sche Korrespondenzproblem; zu den NP-vollständigen Problemen das Hamilton-Zyklus-Problem, auf das der bekannte Fall des Travelling-Salesman reduzierbar ist. Vgl. Hoperaft/Ullman (1994, S. 191ff; S. 351ff.). Vgl. auch Popper (1998, S. 166). Ein Rätsel ist ein Problem, welches durch das Vorhandensein einer einzigen Lösung und eines Transformationspfades dorthin gekennzeichnet ist. Vgl. Weimann (1984, S. 283). Normalwissenschaftliche Objekte können als Rätsel bezeichnet werden. Vgl. Bach (1998, S. 83) unter Verweis auf Kuhn (1993, S. 50) und dem Widerspruch durch Popper (1974a, S. 54).
Vgl. Klix (1971, S. 639f.), Dörner (1987, S. 26f.).
Vgl. Putz-Osterloh/Lemme (1987, S. 289) mit vielen weiteren Nachweisen. Vgl. Wertheimer (1964, S. 226): „Wenn man eine Problemlage erfaßt, erzeugen ihre strukturellen Züge und Forderungen in dem Denker gewisse Spannungen, einen gewissen Zug oder Druck. Was nun im wirklichen Denken geschieht, ist, daß diesem Zug oder Druck gefolgt wird, daß sie Vektoren hervorbringen auf eine Verbesserung der Situation, und diese entsprechend ändern.“
Vgl. Abschnitt 3.1.3.2. Vgl. auch Jost/Webers (2001, S. 197), die auf der Basis eines formalen Modells feststellen: „Knappe Ressourcen beim Wissenserwerb machen den Erwerb von aufgabenbezogenem Wissen ökonomisch vorteilhaft. Eine möglichst effiziente Nutzung des Humankapitals in der Unternehmung bedingt somit, daß sich die Mitarbeiter auf den verschiedenen Ebenen der Unternehmenshierarchie auf bestimmte aufgabenbezogene Wissensgebiete spezialisieren.“
Vgl. Heylighen (1988, S. 952): „At least you should be able to distinguish the situation to be changed from the situation corresponding to a satisfying problem-solution.“ Popper (1998, S. 256f.) weist auf die Schwierigkeit der Definition eines Problems in innovativen Kontexten hin. „Jemand, der an einem Problem arbeitet, kann selten genau angeben, was sein Problem ist (ehe er eine Lösung gefunden hat); und selbst wenn er es sein Problem erklären kann, kann er sich irren. [...] Kepplers bewußtes Problem etwa war die Entdeckung der Harmonie der Welt; doch wir können sagen, das Problem, das er löste, war die mathematische Beschreibung der Bewegung in einer Menge von Zweikörper- Planetensystemen.“ Dieses Dilemma kann analog auf das erläuterte Informationsdilemma zurückgeführt werden.
Vgl. Lanzi/Wilson (2000, S. 393).
Der Akteur sieht sich damit einer Situationsfolge gegenüber, die einer Markov-Kette entspricht. Diese läßt sich als Folge von diskreten Zufallsvariablen x(τ), die aus dem Zustandsraum gezogen werden, beschreiben. Dabei gilt: P(x(t) = s|x(0),..., x(t — 1)) = P(x(t) = s|x(t — 1)). Es handelt sich präziser um eine Markov-l-Kette, da nur der gegebene Zustand in das Kalkül einbezogen werden muß. Der allgemeinere Fall einer Markov-k-Kette umfaßt die letzten k Situationen, die zur optimalen Handlungswahl berücksichtigt werden müssen. Papoulis (1965, S. 530) zeigt, daß sich eine Markov-k-Kette auf eine k-dimensionale Markov-l-Kette zurückführen läßt.
Diese Anforderungen erfüllen beispielsweise die Schachfiguren auf einem Schachspiel. Ohne vollständige Auskunft über Züge der Vergangenheit zu geben — es werden etwa Tempiverluste nicht erkennbar — birgt das Muster dennoch sämtliche entscheidungsrelevante Information für den nächsten Zug des Akteurs. Jedoch kann Markov-Eigenschaft nicht für die in dieser Arbeit angenommene Akteursumwelt vermutet werden.
Wilson (1999, S. 8). Diese Unterscheidung wird am Beispiel des Verpackens eines Geschenks von Lin (1993) deutlich: Ein Geschenk soll in eine zunächst geschlossene und leere Schachtel verpackt werden. Dazu muß die Schachtel geöffnet und gefüllt werden. Die anschließend wieder verschlossene, nun aber volle Schachtel erscheint identisch zu der anfangs vorgefundenen, verlangt nun aber eine andere Handlung, beispielsweise das Einwickeln in Geschenkpapier. Diese Umwelt hat nicht die Markov- Eigenschaft. Wird der Akteur z.B. um Sensoren zur Bestimmung des Gewichtes ergänzt, so ist die Markov-Eigenschaft der Umwelt zu bestätigen.
Dörner (1987, S. 13) Vgl. Kosiol (1968, S. 249), der die Bedeutung beider Aspekte hervorhebt: „Aus der Kombination von Entscheidungsziel und -kriterium [...] ergibt sich die sogenannte Zielvorstellung des Entscheidungssubjekts.“ Vgl. Chmielewicz (1970, S.241).
Vgl. Newell/Simon (1972, S. 73): „A problem proposed to an information processing system is well defined if a test exits, performable by the system, that will determine whether an object proposed as a solution is in fact a solution.“ Vgl. ähnlich Checkland (1981, S. 155). Reitman (1964, S. 299ff.) bezeichnet Probleme mit fehlender Zielformulierung als „ill-defined-problems“.
Vgl. Hacker (1986, S. 27).
Als Verzweigungsfaktor wird die durchschnittliche Anzahl der von einem Knoten direkt erreichbaren Folgeknoten bezeichnet. Zwischen der Varietät der vorhandenen Regeln und dem Verzweigungsfaktor besteht eine positive Korrelation. Vgl. Rich (1988, S. 62ff.). Vgl. Schneider (1995, S. 37ff.).
Vgl. für die folgende Kategorisierung Kehrmann (2000, S. 21f.).
Vgl. Dörner (1987, S. 11), der Barrieren als Hindernisse bei der Transformation des Anfangszustands in den Endzustand versteht. Die „verschiedenen Barrieren erfordern verschiedene Formen der Überwindung, verschiedene Formen der Problemlösung.“
Vgl. Miller/Galanter/Pribram (1973, S. 25), die definieren: „Wenn wir von einem Plan sprechen, [...] so wird dieser Ausdruck auf eine Hierarchie von Instruktionen bezogen, [...]. Ein Plan ist jeder historische Prozeß innerhalb des Organismus, der die Reihenfolge bestimmt, in der eine Operationssequenz durchgeführt wird.“ Hacker (1978, S. 90) verwendet zur Beschreibung „der Vorwegnahme [...] des Tätigkeitsablaufs“ die Bezeichnung „Aktionsprogramm“. Vgl. die Verwendung der Planungsbegriffes in der betriebswirtschaftlichen Literatur. Nach Goeldel (1997, S. 11f.) „existiert noch kein allgemein anerkannter Planungsbegriff“ jedoch ist der Zukunftsbezug, der durch „prospektives Denkhandeln“ mit dem „zukünftiges Tathandeln“ (Kosiol (1967, S. 79)) antizipiert werden soll, als wesentliches Merkmal der Planung anerkannt.
Holland et alii (1987b, S. 41)
Dörner (1987, S. 13)
Vgl. Dörner (1987, S. 14): „Je offener ein Problem hinsichtlich des Zielzustandes ist, in um so höherem Maße muß eine dialektische Prozedur zur Zielsetzung gefunden werden.“
Zur zugrundeliegenden Theorie der kommunikativen Rationalität vgl. Habermas (1997a, S. 44ff.). Zur Kritik und die Anwendung auf eine Controllingkonzeption siehe Weber/Schäffer/Langenbach (2001, S. 60ff.).
Vgl. Schäffer (2001, S. 35): „Sind die im konkreten Fall gewünschten Zustände noch nicht generiert und findet der Lernprozeß entsprechend vor der zugrundeliegenden Realisationshandlung statt (ex ante), sei von Antizipation gesprochen.“
Vgl. Reitman (1964, S. 299ff.), der Probleme mit offenen Beschränkungen auch als „ill-defined- problems“ bezeichnet und darauf hinweist, daß die Art der Beschränkungen vielfältig sein können. Vgl. Holland et alii (1987b, S. 11): „[W]ell-defined problems are all alike, but every ill-defined pro- blem is ill-defined in its own way.“
Vgl. Witte (1992, Sp. 557): „Entscheidungen, die einer schlechtstrukturierten Problemstellung gewidmet sind und durch einen schlechtstrukturierten Prozeß bearbeitet werden, heißen strategische oder unternehmenspolitische Entscheidungen.“ Zum Kriterium der Kennzeichnung einer Entscheidung als unternehmerisch vgl. Breinlinger et alii (1964, S. 703ff.). Dort wird insbesondere hervorgehoben, „daß Ausführungsentscheidungen ihrem Wesen nach keine unternehmerischen Entscheidungen sind, weil der Freiheitsgrad zu gering ist.“
Das Falsifikationsprinzip von Popper ist die weitestreichende Anwendung dieser Erkenntnis. Eine Theorie kann nur vorläufig, bis zu ihrer eventuellen Widerlegung akzeptiert werden. Vgl. zentral Popper (1959, S. 78ff.).
von Hayek (1976, S. 105)
Vgl. Carbonell/Michalski/Mitchell (1983, S. 8ff.). Die Literatur beschäftigt sich darüber hinaus bereits lange mit der Untersuchung des Lernverhaltens, ohne daß sich in dieser durch Sargent (1993, S. 23) festgestellten „wilderness of possibilities“ eine einheitliche Perspektive durchgesetzt hat. Vgl. auch Schäffer (2001, S. 28), der auf neueste Erkenntnisse der Kognitionsforschung in Frahm (2000, S. 34f.) verweist.
Holland et al. (1987b, S. 173) beschreiben Experimente mit Ratten, die ohne externe Anreize, die Struktur eines Labyrinths erforschen, als Phänomen des “latent learning”.
Das Steuerungssignal faßt zwei Teilsignale zusammen: Zum einen die Abweichung der durch den Akteur wahrgenommenen Situation von der tatsächlichen, zum anderen die Abweichung der optimalen Handlung in der durch den Akteur wahrgenommenen Situation von der tatsächlichen Handlung des Akteurs. Damit ergibt sich π(x, A) = π 1 (x, B) + π 2 (B, A). Diese Differenzierung ist praktisch nicht immer möglich und wird im weiteren auch nicht verfolgt.
Besitzt der Lehrer gleichzeitig auch Kenntnis über die dem Akteur aktuell zur Verfügung stehenden Regelgrammatik, so kann er gezielt Beispiele zur Erhöhung der Lernrate geben. Insbesondere ist ihm in diesem Fall die Differenzierung der beiden Teilsteuerungssignale π1 und π2 möglich. Carbonell/ Michalski/Mitchell (1983, S. 9f.) unterscheiden Lernsequenzen, in denen ausschließlich positive Beispiele, im weiteren als Verstärkungen bezeichnet, gegeben werden, von solchen in denen auch negative, als Inhibitionen bezeichnet, auftreten. Nur im Lernen aus künstlichen Beispielen kann diese Trennung durchgehalten werden. Der Verzicht auf Inhibitionen birgt die Gefahr der zu starken Generalisierung des zu lernenden Konzepts. “[...] [P]ositive examples force generalization whereas negative examples prevent overgeneralization.” (Carbonell/Michalski/Mitchell (1983, S. 10))
Das bekannteste Beispiel des Lernens anhand von Stimuli ist das Hundeexperiment von Pawlow. Für eine ausführliche Darstellung vgl. Pawlow (1927) und Pawlow (1972, S. 205ff.).
Damit handelt es sich beim Lernen aus Beispielen um eine Form des impliziten Lernens. Koehler (1996, S. 7) stellt dazu fest, daß “Information that is learned implicitly may be better remembered, more easily accessed or otherwise more meaningfully instantiated than information learned explicitly.” Vgl. die Verwendung des betriebswirtschaftlichen Prognosebegriffs. Dieser umfaßt nach Brockhoff (1977, S. 17) eine “Aussage über ein oder mehrere zukünftige Ereignisse [...], die auf Beobachtungen und einer — zumindest rudimentären Theorie — beruht” und von dessen sicherem Eintreffen nicht ausgegangen werden kann. Schneider (1995, S. 71) unterscheidet den Prognosebegriff von Erwartungen anhand des Grades der Aussage über Fremdereignisse. Die Prognose gibt eine “Vorschau über Zahl und Inhalt von Zukunftslagen bei einzelnen Handlungsmöglichkeiten.” Auf die weitergehende Unterscheidungsmöglichkeit der Prognose von der Projektion durch Orientierung an der Beeinflußbarkeit des zukünftigen Ereignisses durch Handlungen des Prognostikers, beispielsweise durch Wild (1974, S. 52ff.), wird hier verwiesen, im weiteren wird “Prognose” als Oberbegriff verwendet. Lernen ist dem prognostizierenden Akteur aus einer ex-post-Beurteilung anhand der Unterschiede, “die zwischen der prognostizierten und der tatsächlichen Entwicklung auftreten” (Brockhoff (1977, S. 54)) möglich. Vgl. die Definition von Bretzke (1992, Sp. 1436).
Schäffer (2001, S. 28). Vgl. Estes/Suppes (1959, S. 141), die den Verstärkungsbegriff definieren: “‚Reinforcement’ of a response implies simply the occurence of an event which leads to an increment in the probability of that response.”
Arrow (1962, S. 155)
Bryson (1996, S. 26) versteht die Theorie optimaler Kontrolle als eine Konkretisierung der Variationsberechnung der klassischen Physik. “It deals with finding control time functions (histories) or control feedback gains that minimize a performance index with differential equation constraints.” Die Ursprünge liegen im siebzehnten Jahrhundert in den Arbeiten von Fermat, Newton und Leibnitz. Vgl. zu einer historischen Betrachtung der Variantenberechnung Goldstine (1980, passim).
Vgl. Boulding (1968, S. 7), der eine Komplexitätshierarchie zwischen verschiedenen Systemklassen entwickelt. Das Thermostat stellt die Grundform einfachster dynamischer Systeme dar. Durch Erhöhung der Komplexität gelangt Boulding zur nächsten Ebene, die als Ebene der Zellen bezeichnet wird. Systeme dieser Ebene haben die Eigenschaft, sich selbst zu erhalten und zu reproduzieren und können als einfachste Form von “Leben” bezeichnet werden: “[B]y the time we have got to systems which both reproduce themselves in the midst of a throughput of material and energy, we have something to which it would be hard to deny the title of ‚life’.”
Vgl. Grothe (1997. S. 109).
Vgl. von Bertalanffy (1968, S. 17) und Ashby (1957, S. 197ff.).
Vgl. Gomez/Malik/Oeller (1975, S. 573): “Der Homöostat ist bekanntlich konstruiert worden, um das Konzept des ultrastabilen Systems zu illustrieren.” Dort findet sich auch eine detaillierte Untersuchung des dabei verwendeten Abstraktionsgrades. Vgl. weiter Beer (1994, S. 290), der den subjektiv empfundenen stochastischen Charakter der Umweltentwicklung hervorhebt: “[...] an ultrastable system is capable of resuming a steady state after it has been disturbed in a way not envisaged by its designer.” (Hervorhebung im Original kursiv)
Vgl. Bellman (1957) erweiterte die Hamilton-Jacobi Theorie auf diskrete dynamische sowie kombinatorische Systeme. Vgl. Howard (1960). Die wesentliche Anforderung an die Umwelt des Akteurs ist, daß diese Markov-Eigenschaft besitzt. Vgl. die ausführlichen Erläuterungen auf Seite 123.
Aufgrund dieser beiden Funktionen schlägt Bryson (1996, S. 28) eine präzisere Bezeichnung für die Dynamische Programmierung vor: “Hence another name for Dynamic Programming might be nonlinear optimal feedback control.” (Hervorhebung im Original kursiv)
Diese Problemklasse wird durch eine Erweiterung der Markov-Entscheidungsprobleme beschrieben, die als “partially observable Markov decision processes” bezeichnet wird. Vgl. Kaelbling/Littman/Moore (1996, S. 267). Für eine Übersicht siehe auch Lovejoy (1991).
Bellmann nach Bryson (1996, S. 28) spricht hier von einem “curse of dimensionality”.
Die hierarchische Eigenschaft ultrastabiler Controller wird von Schiemenz (1993, Sp. 4136) beschrieben, der die Regelstrecke eines Reglers höherer Ordnung als eigenen Regler annimmt, wobei die Regler der höheren Ebene die Zielwerte der niederen Regler festlegen. Vgl. Beer (1981, S. 63f.).
Grothe (1997, S. 109)
Vgl. Pask (1968, S. 553ff.): “We comment that the learning process [...] is the converse of the control effected by the [...] homeostats; thus the homeostats act upon their environment to modify it until it is stable and in the converse process of learning the environment acts as the context in which a presentative hoemeostat ist modified.” Schäffer (2001, S. 33 und passim) führt den Begriff des Lernens explizit mit dem der Kontrolle verknüpft: “Erfolgt der Lernprozess [...] jedoch auf Basis einer vorliegenden Realisationshandlung (ex post), sei von Kontrolle gesprochen.”
Zuerst referiert in Thorndike (1911). Hier und im weiteren wird im wesentlichen auf ontogenetische, d.h. auf individualgeschichtliches oder individuelles Anpassungsverhalten von Akteuren durch Lernen eingegangen. Phylogentische Formen werden nicht betrachtet. Vgl. dazu beispielsweise Bergius (1972, S. 15).
In Experimenten, die Thorndike hauptsächlich mit Katzen durchführte, verwendete er einen als “puzzle-box” bezeichneten Käfig. Außerhalb des Käfigs wurde als belohnender Stimulus Futter plaziert, das die Katzen durch die Vollbringung einer festgelegten Abfolge von Handlungen erreichen konnten. Die unerwartet geringen Lernfortschritte veranlaßten Thorndike (1911, S. 244) zur Formulierung des “law of effect”, das er wie folgt zusammenfaßt: “Of several responses made to the same situation, those which are accompanied or closely followed by satisfaction to the animal will, other things being equal, be more firmly connected with the situation, so that, when it recurs, they will be more likely to recur; those which are accompanied or closely followed by discomfort to the animal will, other things being equal, have their connections with that situation weakened, so that, when it recurs, they will be less likely to occur. The greater the satisfaction or discomfort, the greater the strengthening or weakening of the bond.”
Ähnliche Ergebnisse erzielte Skinner (1938). Vgl. auch Luthans/Kreitner (1985, S. 27ff.).
Vgl. Cziko (1995), Campbell (1959). Vgl. kontrovers beispielsweise Mazur (1994); Kimble (1967).
Dieser erweiternde Schritt wird durch kognitive Lerntheorien vorgenommen, die explizit die Veränderung von handlungsleitenden Regeln einschließen.
Weiten (1995). Vgl. Chang/Hong/Tseng (1996, S. 205), die die Form der Rückkopplung vollständig beschreiben: “Learning behavior is deeply affected by the past experience. There are three kinds of influence: a. positive transfer: past experiences have a positive effect on new learning; b. negative transfer: past experiences have a negative effect on new learning; c. zero transfer: past experiences have little or no effect on new learning.”(Hervorhebungen im Original kursiv) Markus/Wurf (1987, S. 326) verweisen darauf, daß menschliche Akteure “may be biased to seek, and hence to receive, confirmatory feedback.” Eine objektive Form des Lernens aus Verstärkungen kann damit nicht angenommen werden.
Vgl. Bach et al. (2001, S. 98).
Vgl. Lederberg (1988, S. 177ff.), der die Bedeutung selektiver Erklärungsansätze für die Entwicklung der Arten und die Entstehung von Antikörpern beschreibt.
Instruktive Systeme ändern sich nur nach Einwirkung eines externen Signals. Dieses weist die Orientierung des Systems in Richtung eines festgelegten, finalen Zustands an. Daher muß dieser finale Zustand schon vor der Signalgebung existiert haben und bekannt sein.
Arthur. (1993, S. 4) (Hervorhebungen im Original kursiv) Der in der natürlichen Selektion der Evolutionsbiologie verwendete Mechanismus ist als Idealtyp selektiver Prozesse zu bezeichnen, jedoch ist dieser nicht assoziativ. Im Gegensatz dazu ist das “Supervised Learning” anhand von Beispielen neuronaler Netze hochgradig assoziativ, jedoch nicht selektiv. Vgl. Kaelbling/Littman/Moore (1996, S. 243): “One major difference between reinforcement learning and supervised learning is that a reinforcement-learner must explicitly explore its environment.” Diese Differenzierung zwischen “Supervised Learning” und Lernen durch Verstärkungen wurde insbesondere von Klopf (1982) hervorgehoben, nachdem Forschungsarbeiten an den Prinzipien der Mustererkennung und Generalisierung die Unterschiede vernachlässigten. Vgl. dazu beispielsweise Rosenblatt (1961) und Widrow/Hoff (1960). Zum Nachweis der Unterschiedlichkeit vgl. Barto/Anderson (1985), Barto (1985).
Roth/Erev (1995, S. 171) zählen drei “robust properties of learning observed in the large experimental psychology literature” auf und stellen fest: “Perhaps the most robust of these properties is that choices that have led to good outcomes in the past are more likely to be repeated in the future.”
Argyris (1997, S. 13)
Simon (1983, S. 28) (Im Original kursiv). Vgl. auch Narendra/Thathachar (1989, S. 17): “Learning is the ability of systems to improve their responses based on past experience.”
Vanberg (1994, S. 36) Vgl. von Hayek (1952, S. 143): “[A]ll we know about the world is of the nature of theories and all ‚experience’ can do is to change these theories.” Vgl. Rasmussen (1983, S. 259).
Arthur (1993, S. 4)
In Bach et al. (2001, S. 100) wird das Verstärkungsprinzip als wesentlicher Treiber des Lernens hervorgehoben: “Entspricht die Realisation der Antizipation, so wird die Hypothese erhalten bzw. verstärkt. Stimmen Realisation und Antizipation nicht überein, wird die Hypothese beibehalten, angepaßt oder verworfen. In all diesen Fällen entwickelt der Akteur sein internes Modell weiter. Er lernt.” Vgl. ähnlich auch Schäffer (2001, S. 40f.).
Vgl. Holland/Reitman (1978, S. 319), die diese Schichten als “three important processes that act on information in memory” bezeichnen.
Goldberg (1990, S. 413) sieht die Aufgabe dieser Schicht in der Bereitstellung der “raw syntactical capability of the system to process information.”
Stärkeänderungen wirken sich auf die Wahrscheinlichkeit, daß die in der ersten Schicht implementierten Auswahlmechanismen aufgrund dieser Regel die Handlung explizieren, aus. “[...] [I]f we repeatedly reward a certain action, we in no sense guarantee that the action will be taken on a subsequent occasion, even in the ceteris paribus sense; we guarantee only that the likelihood of its future selection will be increased.” Cross (1973, S. 243). Henning/Isenhardt (1994, S. 112) bezeichnen die Verstärkungssignale als Rückführungen und stellen zu ihrer Funktion fest: “Die Rückführungen können dem System sowohl stabilisierende als auch erneuernde Eigenschaften verleihen und sollen die Überlebensfähigkeit des Systems in vielschichtigen, dynamischen und komplexen Umwelten ermöglichen.”
Vgl. Booker/Goldberg/Holland (1989). Dort werden die einzelnen Schichten als “Performance Subsystem”, “Evaluation of rules” und “Search for new rules” bezeichnet. Farmer (1990, S. 156) bestätigt die hier vorgenommene Dreiteilung unter Verwendung der Schichtenbezeichnungen “transition rule”, “learning rule” bzw. “graph dynamics”.
Grundsätzlich findet bei der Konkretisierung des Lernsystems eine Orientierung an dem Aufbau der Classifier-Systems von Holland statt. Erstmalig wurden diese Form eines maschinellen Lernsystems, welches auf genetischen Algorithmen basiert in Holland/Reitman (1978) vorgestellt. Goldberg (1989, S. 219f.) gibt einen historischen Überblick über die Entwicklung genetischer Lernsysteme. Für eine Einführung in Classifier-Systems siehe zentral Holland et al. (1987b) oder Mitchell (1996).
Vgl. ausführlich Abschnitt 3.1.3 auf Seite 55.
Quelle: Eigene Erstellung, angelehnt an Kaelbling/Littman/Moore (1996, S. 238).
Vgl. Kaelbling/Littman/Moore (1996, S. 238).
Vgl. Riechmann (1999, S. 230): “[T]he market [...] brings together all agent’s behavioral strategies, evaluates them, and reveals each strategy’s quality relative to the present economic environment (which consists of the rest of the population’s strategies and the economic problem to be solved.)” Vgl. Krieg (1971, S. 117), der zwischen realer und modellmäßiger Messung des Handlungserfolgs unterscheidet. Diese Differenzierung kann auf die Fähigkeit zur optimalen Situationsbestimmung durch Konversion von s zu i reduziert werden. Zur Funktion des Marktes vgl. von Hayek (1996, S. 14): “[E]in subtiles Kommunikationssystem, [...] das wir den Markt nennen und das sich als ein wirksamerer Mechanismus zur Nutzung verstreuter Informationen erweist als irgendeines, das der Mensch bewußt geschaffen hat.” Vgl. auch von Hayek (1949, S. 526).
Dabei sei ohne Beschränkung der Allgemeinheit die Skalarität des Verstärkungssignals unterstellt und fortan verwendet. Vgl. dazu Kaelbling/Littman/Moore (1996, S. 238).
Holland (1994, S. 4) gibt Beispiele für Regelstrukturen aus verschiedenen Bereichen wie Genetik (Chromosomen), Spieltheorie (Strategien) oder Ökonomischer Planung (Güterkombination). Diese lassen sich vollständig auf die eingeführte Grammatik zurückführen.
Vgl. die Entwicklung eines “reinforcement learning model” bei Erev/Roth (1999, S. 54ff.). Ähnlich auch der Lernalgorithmus von Arthur (1993, S. 5f.). Eine allgemeine Beschreibung der Funktionsweise genetischer Algorithmen, die im folgenden zur Modellierung der Lernfähigkeit des Akteurs zur Grundlage genommen werden findet sich bei Goldberg (1989) und Mitchell (1996).
Für die in Abbildung 3.8 dargestellte Produktionsgrammatik gilt damit ohne Beschränkung der Allgemeinheit |P| = k.
Über die Methode der Änderung von regelbezogenen Stärkemaßen wird an dieser Stelle keine Aussage getroffen. Erst bei Betrachtung der zweiten Schicht aus Abbildung 3.8 auf Seite 134 werden diesbezüglich Annahmen vorgestellt. Mögliche Maßgrößen stellt Holland (1994, S. 5) für verschiedene Kontexte vor.
An dieser Stelle wird von einem einstufigen System ohne Parallelität ausgegangen. Zu einem Zeitpunkt kann der Akteur nur eine Regel aktivieren. Diese Annahme wird unten zugunsten möglicher Parallelität aufgeweicht, obwohl Post (1943) den Nachweis gleicher Mächtigkeit paralleler und serieller Produktionssysteme erbrachte.
Vgl. Holland et al. (1987b, S. 47f.), die zusätzlich noch die Unterstützung der bietenden Regel durch weitere Regeln hinzuziehen.
Vgl. die Ausführungen auf Seite 146.
Koehler (1996, S. 9)
Dieser freiwillige Verzicht auf Präzision wurde in Abschnitt 3.1.3.3 als Standardisierung bezeichnet und in den Informationsstrukturen durch ein Doppelkreuz gekennzeichnet. Vgl. insbesondere die Darstellung auf Seite 71; zur Verwendung des Begriffs “Perzeptionselement” siehe Seite 43. Die Anzahl der nicht definierten Elemente werden unten über den Begriff der Spezifität in die Gebotshöhe einbezogen.
Holland et al. (1987b, S. 24), unter Verweis auf ein Beispiel des Durchschwimmens eines Sees für einen starken Schwimmer. Wird nun die Bedingung des starken Schwimmers nicht erfüllt und der Akteur handelt trotzdem gemäß der formulierten Regel, so ist zu erwarten: “The result, sad to say, is a dramatic decrease in our system’s life expectancy.”
Die implizite Annahme der Nichtzulassung von geringfügig nicht geeigneten Systemen erfolgt in den meisten Fällen durch Verzicht auf die Erwähnung eines Schwellenwertes. Vgl. Goldberg (1989, S. 225), der als Einstiegshürde in den Gebotsprozeß formuliert: “Each matched classifier makes a bid [...].” (Hervorhebung im Original kursiv)
Vgl. Holland et al. (1987b, S. 48) im Vergleich zu dem Produktionssystem in Anderson (1983).
Vgl. die Definition des Spezialisierungsbegriffs in Abschnitt 3.3.
Holland (1996, S. 57)
Der Begriff der Basisrate (base rate) wird von Koehler (1996, S. 16) definiert: “A ‚base rate’ may be defined as the relative frequency with witch an event occurs or an attribute is present in a population.” Die geringere Spezifität ist dabei entscheidendes Abgrenzungskriterium gegenüber individualisierter Information: “In general base rate evidence is less direct (i.e. case specific) than individuating information.” (Koehler (1996, S. 43))
Holland et al. (1987b, S. 205). Vgl. Zukier/Jennings (1984, S. 195).
Vgl. Kahneman/Tversky (1973, S. 241ff.). Untersuchungen zur Basisratenvernachlässigung, in der englischsprachigen Originalliteratur wird der Begriff “base rate fallacy” verwendet, wurden auch in bezug auf Entscheidungen von Accountants durchgeführt. Beispielsweise wurden in einer Untersuchung von Johnson (1983) Accounting-Studenten nach ihrem Urteil über die Wahrscheinlichkeit eines Bankrotts von 1 2 durch Daten des Rechnungswesens näher beschriebenen Firmen gebeten, nachdem ihnen ebenfalls die relative Häufigkeit eines Bankrotts in der jeweiligen Branche genannt wurde. Die Ergebnisse dieses Experiments bestätigen das hier beschriebene Phänomen. Weitere Experimente werden beispielsweise in Swieringa et al. (1976), Wells/Harvey (1978, S. 488ff.), Gigerenzer/Hell/Blank (1988) mit ähnlichen Ergebnissen beschrieben.
Exakt ist das Wahrscheinlichkeitsverhältnis mit (00-)2 oder 5,44 zu beziffern. Vgl. Tversky/ Kahnemann (1986, S. 40).
Die aussagelose Personenbeschreibung: “Dick is a 30-year old man. He is married with no children. A man of high ability and high motivation, he promises to be quite successful in his field. He is well liked by his colleagues.” (Kahneman/Tversky (1973, S. 242)) wurde durchschnittlich mit einer Wahrscheinlichkeit von 0, 5 einem Ingenieur zugerechnet, gleichgültig, ob die Grundwahrscheinlichkeit mit 0, 7 oder 0, 3 angegeben wurde.
Kahneman/Tversky (1973, S. 242)
Der absolute Anspruch der Erkenntnis der Basisratenvernachlässigung wird beispielsweise in der Aussage von Bar-Hillel (1980, S. 215) deutlich: The genuineness, the robustness, and the generality of the base-rate fallacy are matters of established fact.” Ähnlich auch Christensen-Szalanski/Bushyhead (1981, S. 931): “[...] information about base rates is generally observed to be ignored.” Für weitere absolute Aussagen vgl. Nisbett/Borgida (1975, S. 935), Evans/Bradshaw (1986, S. 16) oder Ginossar/ Trope (1983, S. 464). Eine kritische Darstellung der Basisratenvernachlässigung in seiner absoluten Fassung findet sich bei Koehler (1996), der als Teilursache der Diskussion ein semantisches Problem der absoluten Formulierung sieht: “[...] part of the controversy surrounding the base rate fallacy is semantic. Verbs such as ignore, neglect, and underweight [...] are used to describe the phenomenon of interest. But are these words and phrases interchangeable?” (S. 42) Im Gegensatz zu dieser Diskussion beschreibt Funder (1996, S. 22f.) die entgegengesetzte Auseinandersetzung um die Verwendung von Stereotypen, die als “[...] one’s beliefs about the attributes of the members of a category” verstanden werden. Im Gegensatz zu Annahme der Ignoranz gegenüber Basisraten wird in bezug auf Stereotypen allgemein angenommen, “that as soon as one knows what category an individual belongs to — an ethnic minority, an occupation, a place of residence — one rushes to the conclusion that the individual possesses all or most of the traits prototypically associated with the category.”
Vgl. Holland (1994, S. 176). Ein linearer Einfluß der Spezifität wird von Goldberg (1989, S. 234) verwendet.
Holland/Reitman (1978, S. 321) (Hervorhebungen im Original kursiv)
Die dynamische Änderung der Stärke wird auf Seite 146 geschildert.
Vgl. Holland (1994, S. 176). Die Konstante 0 < c ≤ 1 dient zur Beschränkung des Gebots auf einen Anteil der zurzeit vorhandenen Stärke, um im Vergleich mit zu erhaltenen Payoffs einen vollständigen Relevanzverlust der jeweiligen Regel in einem Zeitschritt zu verhindern.
Schneider (1995, S. 98)
Der erwartete Ertrag beider Regelanwendungen sei als konstant und potentiell gleich hoch angenommen. Die Annahme der gleichen Höhe kann durch nach Einführung eines geeigneten Verstärkungsmechanismus aufgehoben werden.
Durch die Eigenschaft der “independence of irrelevant alternatives” nach Luce (1959) sind die Beobachtungen auf nicht binäre Serien erweiterbar. Diese Eigenschaft drückt aus, daß die relativen Wahrscheinlichkeitsverhältnisse der Regeln einer beliebigen Teilmenge aller Regeln in gleichem Verhältnis zueinander stehen, wie in der Gesamtmenge auch.
Lee (1971, S. 149) weist auf zwei unterschiedliche Verwendungen des Korrektheitsbegriffs in der Literatur hin. Hier und im weiteren ist mit nicht qualifizierten Korrektheitsbegriffen die “empirische Korrektheit” gemeint. In diesem Sinn ist eine Handlung L dann und nur dann korrekt, wenn diese, im Vergleich zur anderen, eine positive Verstärkung hervorbringt. Ein “strategischer Korrektheitsbegriff” rekurriert auf die Handlungswahl im Sinne einer optimalen Entscheidung, wie sie hier vorgestellt wird. Diese kann im empirischen Sinne nicht korrekt sein.
Goldberg (1990, S. 408)
Arrow (1958, S. 14) stellt diese Abweichung fest: We have here an experimental situation which is essentially of an economic nature in the sense of seeking to achieve a maximum of expected reward, and yet the individual dows not in fact, at any point, even in a limit, reach the optimal behaviour.” Ähnlich äußert sich Cross (1973, S. 245).
Gegebene Anreize sind in der vierten Spalte widergegeben. Dabei stellt das Paar (x,y) die Verstärkung bei korrekter Antwort in Höhe x und die Inhibition bei nicht korrekter Antwort in Höhe y dar. Bei der Betrachtung der Ergebnisse ist festzustellen, daß die reale Beteiligung der Probanden durch Anreize, das Auswahlprinzip in Richtung der optimalen Auswahl verändert. Vgl. die Studien von Siegel/ Goldstein (1959) und Myers et al. (1963), die unterschiedliche Resultate je nach Höhe der Anreize in einer ansonsten identischen Anordnung festgestellt haben. Eine ausführliche Analyse dieser Beobachtung leistet Atkinson (1962, S. 23ff.). Ähnliche Resultate erzielte Mackintosh (1974) in Experimenten mit Tieren. Vgl. auch die Versuche von Herrnstein mit hungrigen Schweinen und das daraus resultierende “direct matching law”. Vgl. Herrnstein (1961, S. 270) und die generalisierte Form bei Baum (1974, S. 232f.).
Lee (1971, S. 61) (Hervorhebung im Original kursiv) Erstmalig wurde diese Beobachtung als “probability matching theorem” formuliert in Estes/Suppes (1959). Cross (1973, S. 245) stellt mit Verweis auf Simon (1959) fest: “This empirical ‚probability matching’ result has already been put forward (by Simon) as a reason for rejecting the economist’s maximizing decision theory approach.”
Luce (1959). Vgl. Erev/Roth (1999, S. 55).
Vgl. Lee (1971, S. 148) und Goldberg (1990, S. 408). Dabei ersetzt P R durch 1 — P L.
Flood (1974) vermutete, daß die Probanden die Zufälligkeit der Bernoulli-Reihe nicht erkannten. Ware ihnen diese Erkenntnis zugänglich gewesen, dann hätten sie sich, so die Vermutung, im Sinne der Optimalentscheidung verhalten. Siegel (1959) rationalisierte die nicht-optimale Variation der Entscheidung über die Annahme, daß Akteure neben dem Anreiz, Verstärkungen zu erhalten, ebenfalls danach streben, nicht durch immer gleicher Handlungsweise als langweilig zu erscheinen. Für weitere ad-hoc eingeführte Erklärungsansätze siehe Lee (1971, S. 150). Eine andere Begründung für die Rationalität des auf Wahrscheinlichkeiten gestützten Verhaltens bieten die Untersuchungen von Holland (1973, S. 91ff.) und Holland (1994, S. 76ff.). Dort wird aus der anfänglichen Unkenntnis des tatsächlichen Wertes der Wahrscheinlichkeiten gefolgert, daß “the optimal decision under uncertainty allocates greater than exponentially increasing numbers of trials to the observed better alternative as the number of trials increases.” (Goldberg (1990, S. 410))
Die in obigem Beispiel angegebenen Wahrscheinlichkeiten sind als Funktion der Zeit zu definieren: PL(t) bzw. PR(t).
Da ohne Beschränkung der Allgemeinheit angenommen wurde, daß die ursprüngliche Umweltreaktion in mehr als der Hälfte der Fälle “Links” als korrekt verstärkt, gilt PL > 0,5 und damit 2PL(1 — PL) > 1 — PL.
Diese Anpassungszeit beschreibt Cross (1973, S. 239): “[I]f the environment of a firm is altered in any way — through a shift of a demand curve or a change in a factor cost — we may believe that it takes time for management to find out about it and react to it.”
Vgl. Goldberg (1990, S. 411ff.). Dort wird das Verhältnis der Korrekturzeit zur Umweltänderungszeit mit ξ bezeichnet. Des weiteren wird das Verhältnis der Korrekturzeit vom wahrscheinlichkeitsorientierten Ansatz zum “optimalen” als α, 0 ≤ α ≤ 1 angenommen. Für das obige Beispiel ergibt sich damit: Für α = 1 ergibt sich > 0, 5, für den zweiten Extremwert α = 0 dementsprechend ξ > 1 — PL. Weniger formal stützt Simon (1983, S. 26) diese Aussage durch seine Feststellung: The first obvious fact about human learning is that it’s horribly slow.”
Goldberg (1990, S. 411)
Diese Bestätigung entspricht dem Verständnis der Fitness eines populationsgenetischen Individuums bei Mayr (1991, S. 161), der darauf hinweist, daß auch sehr gut angepasste Individuen eliminiert werden können und damit in der nächsten Generation nicht mehr vertreten sind.
Die Beobachtung einer langfristig stabilen Umwelt senkt die Bereitschaft des Akteurs, eine Versicherungsprämie gegen Risiken der plötzlichen Änderung der Umwelt zu bezahlen. Damit gliedert sich diese Erkenntnis in die oben dargelegte Analyse ein. Vgl. Vulkan (2000, S. 102): “[I]f the experiment is repeated often enough and/or if subjects are paid enough, they tend to asymptotically chose the side which maximises their expected reward, although humans appear to be very slow learners.” Stärker formuliert Cross (1973, S. 245f.): “[W]hen a favorite economic variable, money, is used as the payoff in one of these experiments, the probability matching prediction is completely disconfirmed, and the decision theory model, though still far from satisfactory, tends to provide the better results.”
Vgl. Holland/Reitman (1978, S. 322): “[The] probability of being activated [...] is directly proportional to the classifier’s relative advantage over the others.”
Vgl. Goldberg (1989, S. 226).
Vgl. zur Verbreitung stellvertretend Dawid/Kopel (1998, S. 300), die die “proportional selection” (Im Original kursiv) als “standard selection operator” bezeichnen. Als weitere Bezeichnung für dieses Verfahren hat sich “roulette wheel selection” etabliert. Eine geringfügige Abweichung stellt das Rankingverfahren dar. Dabei werden die Regeln nach der Höhe ihres Gebotes sortiert und bekommen im folgenden Roulette-Verfahren eine Wahrscheinlichkeit, die umgekehrt proportional zu ihrem Rankingplatz ist. Durch diese Normalisierung können stochastische Fehler, die im reinen Roulette-Verfahren auftreten, reduziert werden. Eine Skalierung der Gebote durch Veränderung des Gebotskoeffizienten c verringert diesen Urspung ungewollten Verhaltens. Vgl. Goldberg (1989, S. 122): “Without scaling, early on there is a tendency for a few superindividuals to determine the selection process.” Riechmann (2001, S. 26) führt als weiteren Punkt zur Begründung von Skalierungen an, daß negative Gebote vorkommen können, die, um als relative Wahrscheinlichkeit in einer Auswahl verwendbar zu sein, skaliert werden müssen.
Dieses Verfahren wird als “variance-sensitive bidding” vorgestellt in Goldberg (1990, S. 417ff.). Grefenstette/Loggia Ramsey/Schultz (1990, S. 365) schlagen als “measure of our confidence in that [the expected payoff] estimate” ebenfalls die Verwendung der Varianz vor.
Goldberg (1990, S. 418) Die Systemkonstante b erlaubt die Festlegung der Relevanz der Vergangenheit. Damit kann Erev/Roth (1999, S. 57) in beliebigem Maße gefolgt werden, die als psychologische Annahme einführen: “Recent experience may play a larger role than past experience in determining behavior.”
Goldberg (1990, S. 418) Die Systemkonstante ϱ adjustiert die Standardabweichung, um ein wahrscheinlichkeitsorientiertes Verhalten abbilden zu können. Bei einem Wert von ϱ = 1, 35 ist eine Annäherung an ein ideal wahrscheinlichkeitsorientiertes Verhalten möglich. Dieser Wert sei ohne Beweis hier übernommen und statt dessen auf die angegebene Quelle verwiesen. Die hier dargestellte Form stellt eine selbstregulierende Erweiterung der “noisy bid auction”, vorgestellt in Goldberg (1989, S. 226f.), dar. Für die Implementation im programmierten Modell vgl. den Quellcode im Anhang auf Seite 304ff.
Der exakte Punkt wahrscheinlichkeitsorientierten Verhaltens hängt damit von der zugrundeliegenden Basiswahrscheinlichkeit (PL) ab, die als Parameter in die Verteilungsfunktion der standardisierten Normalverteilung eingeht. Eine Übersicht über Beispielrechnungen findet sich in Goldberg (1990, S. 416). Bei extrem großen Varianzen resultiert ein gegen die Zufälligkeit strebender Auswahlmechanismus.
Vgl. die beschriebenen Experimente in Tabelle 3.11 auf Seite 142 und die Simulationsergebnisse in Goldberg (1990, S. 420ff.).
Vgl. die Definition des Informationsbegriffs in Abschnitt 3.1.1.1.1 auf Seite 28.
Goldberg (1990, S. 420) weist darauf hin, daß zur erfolgreichen Abbildung solchen Verhaltens die Systemkonstante b aus Formel (3.11) und der Gebotskoeffizient c aus Formel (3.12) von gleicher Größenordnung gewählt werden müssen.
Kaelbling/Littman/Moore (1996, S. 247). Die aus dieser Problematik entstehende Komplexität veranlaßt Stahl (1999, S. 128) zu der Feststellung: “[...] [T]he weakest part of the learning theory is the rule reinforcement mechanism.” Zum Problem des einarmigen Banditen (“bandit-problem”) vgl. Berry/Fristedt (1985, passim).
Diese Fragestellung entspricht den zwei Dimensionen der Lernkomplexität, die in Littman (1992) aufgestellt werden. Ring (1995, S. 14) faßt diese zusammen als “(1) the numbers of future steps explicitly or implicitly considered before taking an action [...], and (2) the amount of history information needed to take the correct action.”
Zur Bedeutung unterschiedlich langer berücksichtigter Zeiträume vgl. Lane/Maxfield (1997, S. 171ff.). Schneider (1995, S. 24) stellt zur Festlegung des Planungszeitraums drei Einflußgrößen fest.
Kaelbling/Littman/Moore (1996, S. 240) verweisen auf die verschiedene Verwendbarkeit dieses Modells. Zum einen rollierend, so daß der Akteur nach jeder Entscheidung wiederum die nächsten h Schritte in seine Handlungsentscheidung einbezieht. Zum anderen wird das Modell stationär eingesetzt und der Akteur sieht sich nach seiner ersten Handlung nur noch einer h — 1 langen Zukunft, die er in seine Auswahl einbezieht, gegenüber, bis er schließlich nur noch aufgrund der direkt zu erwartenden Verstärkung optimiert. Vgl. die Ausführungen zum Chain-Store-Paradoxon auf Seite 98.
Dabei gilt 0 < γ ≤ 1.
Vgl. Bertsekas (1995).
Vgl. auch die Gegenüberstellung von Modellierung und Kontrolle in Ring (1995, S. 16).
Quelle: In Anlehnung an den Aufbau des Aufsatzes von Kaelbling/Littman/Moore (1996).
Vgl. Wilson (1999, S. 8): “The Markov/non-Markov distinction is crucial in reinforcement learning because it says whether an environment can or cannot be predicted on the basis of current input information.”
Zur Theorie der POMDP vgl. Astrom (1965).
Dieser Zustand kann nur durch direkte Implementierung der Modelle oder aufgrund Lernens durch Instruktion erreicht werden.
Die Anzahl der einbezogenen zukünftigen Payoffs kann dabei durch die oben beschriebenen Überlegungen beeinflußt werden.
Als grundlegender Algorithmus wurde in Bellman (1957) die “value iteration” vorgestellt. Rekursiv werden dabei für alle Zustände und alle aus den jeweiligen Zuständen möglichen Aktionen die Werte der aktuellen Handlungsmöglichkeiten bestimmt. Als Kriterium zum Abbruch dieser prinzipiell infiniten Rekursion kann beispielsweise das “Bellman Residual” oder die “span semi-norm” von Puterman (1994) verwendet werden. Eine intensive Diskussion dieser Verfahren und Untersuchungen zur Konvergenz leistet Bertsekas/Castañon (1989).
Vgl. Abbildung 3.9 auf Seite 135. Dieses Steuerungssignal ist auch als Feedback zu bezeichnen. Ashford (1986, S. 466) versteht die Orientierung an Feedbacks als “conscious devotion of effort toward determining the correctness and adequacy of behavior for attaining valued end states.” Als Quelle des Feedbacks lassen sich nach Ashford/Cummings (1983, S. 382–385) sowohl die laufende Beobachtung der Umwelt durch den Akteur als auch die gezielte Nachfrage nach Handlungsbewertungen durch Dritte unterscheiden. Carbonell/Michalski/Mitchell (1983, S. 10) bezeichnen diese Strategien als “passive observation” oder “active experimentation” (Im Original kursiv) Vgl. Gupta/Govindarajan/Malhotra (1999, S. 207) für eine Effizienzbewertung dieser Strategien und einer Untersuchung der Anwendung in multinationalen Firmen.
Beispiele für Algorithmen, die diese zweistufige Lernstrategie verfolgen sind die “certainty equivalence method” von Kumar/Varaiya (1986) und die Dyna-Architektur von Sutton (1991).
Die Bedeutung der Feedbackverarbeitung durch Stärkeanpassung heben Gupta/Govindarajan/ Malhotra (1999, S. 205) unter Verweis aus Ashby (1957) hervor: “As cybernetic theory informs us, the behavior of any organism depends first and foremost on its own self-regulatory behavior and only indirectly upon exogenous regulatory mechanisms.” Kehrmann (2000, S. 69) schlägt ein “intersubjektives Selbstcontrolling in strategischen Problemlösungsteams” vor.
Beispielalgorithmen für diese “policy only”-Strategie (Sutton (1992, S.2)) finden sich bei Farley/Clark (1954), Widrow/Gupta/Maitra (1973, S. 456f.) und Barto/Anandan (1985).
Sutton (1992, S. 2)
Gerade diese Eigenschaft der verspäteten Verstärkungen charakterisiert multi-step-Probleme. “In single-step prediction problems, all information about the correctness of each prediction is revealed at once, whereas, in multi-step prediction problems, correctness is not revealed until more than one step after the prediction is made.” (Hervorhebungen im Original kursiv) (Sutton (1988, S. 12)) Diese Zeitverzögerung in der Wirkung kann unter anderem in “Carry-Over Effekten” der Werbung beobachtet werden.
Kaelbling/Littman/Moore (1996, S. 247)
Tesauro (1995, S. 58). Vgl. Kaelbling/Littman/Moore (1996, S. 251): “The biggest problem facing a reinforcement-learning agent is temporal credit assignment”. (Hervorhebung im Original kursiv)
Vgl. Kaelbling/Littman/Moore (1996, S. 252). Die Literatur zur Bewertung von Prognosefehlern beschäftigt sich weitgehend mit der “Endwirkung” der Prognose. (Knoth (1992, Sp. 1462)) So stellt Brockhoff (1977, S. 54) fest: “Die statistische ex post-Beurteilung von Prognosen befaßt sich mit den Unterschieden, die zwischen der prognostizierten und der tatsächlichen Entwicklung auftreten.” Demgegenüber stellt die hier vorgeschlagene inkrementelle Vorgehensweise eine Erweiterung bezüglich der eingehenden Daten und Bezugspunkten der Abweichungsberechnung dar.
Vgl. Sutton (1988, S. 10).
Vgl. Samuel (1959), der für jeweils zwei aufeinanderfolgende Stellungen die Differenz der jeweiligen Stellungsbewertungen verwendet, um die erste zu verstärken oder zu inhibitieren.
Die Adaptive Heuristic Critic (AHC) beschreibt eine allgemeine Architektur des Verstärkungslernens. Dabei wird der Akteur als aus zwei getrennten Lernmodulen bestehend verstanden; das “policy module” bildet wahrgenommene Situationen auf Aktionen ab und wählt Aktionen aus, während das “critic module” auf Basis der vorliegenden Situation zukünftige Verstärkungen prognostiziert, demnach bildet es Zustand-Aktions-Paare auf erwartete Verstärkungen ab. Zu Verfahren der “Adaptiv Heuristic Critic” vgl. Barto/Sutton/Anderson (1983, S. 834ff.). Q-Learning vereinigt die Aufgaben der beiden Module der AHC in einem und wurde erstmals in Watkins (1989) vorgestellt. Vgl. auch Watkins/ Dayan (1992, S. 282ff.) für einen Beweis der Konvergenz gegen ein optimales Verhalten.
Kaelbling/Littman/Moore (1996, S. 254) (Hervorhebung im Original kursiv) Eine Konkretisierung der Explorationsstrategie ist daher auch nicht geleistet worden.
Kovacs (2000, S. 150) stellt fest: “Knowledge of the true Q-function for an environment is sufficient to act optimally by simply taking the action with the highest associated Q-value.” Vgl. die Untersuchungen von Watkins (1989) und Tsitsiklis (1994, S. 196ff.). Für Verfahren der AHC konnte die Konvergenz gegen optimale Strategien hingegen nicht nachgewiesen werden. Vgl. Ring (1995, S. 38).
Krugman (1991, S. 652f.) führt die Beschäftigung mit der Geschichte eines Systems zur Erklärung ökonomischer Phänomene auf Marshall zurück. “If there are several possible equilibria in which factor returns would be equalized across activities, then Marshallian dynamics tell us that the outcome depends on the initial conditions: history, as well as tastes, technology, and factor endowments, matters.” Die Bezeichnung als Pfadabhängigkeit und aktuelle Forschung geht auf die Arbeiten von David (1985) und Arthur (1989) zurück.
Chavance/Magnin (1997, S. 197) Diese Symmetriebrüche in der Vergangenheit werden, wie in Abschnitt 3.2.3.1 dargelegt, als Bifurkationen bezeichnet.
Vgl. Arthur/Ermoliev/Kaniovski (1987, S. 302). North (1997, S. 228) hebt die besondere Bedeutung des Konzepts der Pfadabhängigkeit heraus: “Understanding the nature of path dependence is the key to understanding the success or failure of economies in altering their competitive positions, and there is still a great deal about path dependence that we do not understand.”
Krugman (1991, S. 240) stellt fest, daß “the economic analysis of location — the geography of the economy — is the subfield of economics to which the typical buzz words of complexity apply most obviously and dramatically.” Vgl. dazu die Arbeiten von Arthur/Lane (1993, S. 81ff.), die drei Mechanismen zur Entwicklung von Industrieansiedlungen vorstellen und Schelling (1971), der an einem einfachen zweidimensionalen Modell einer Stadt die Grundlagen der Pfadabhängigkeit einführt.
Vgl. North (1981).
Chavance/Magnin (1997, S. 197)
Kaelbling/Littman/Moore (1996, S. 267) Dort werden weitergehend stochastische und deterministische Ansätze des zustandsfreien Lernens betrachtet, jedoch ohne Konvergenz gegen die optimale Strategie zu erreichen.
Vgl. Krieg (1971, S. 117), der bezogen auf die Gestaltung von Unternehmen feststellt, “dass bei allen Lernprozessen Speicherungen [.] eine tragende Rolle spielen.” Die Bedeutung der Speicherfähigkeit für lernende Akteure hebt Smith (1994, S. 199) hervor: “Important distinctions can be made between stimulus-response learning systems and those that adaptively exploit some sort of internal memory. [...] When one contemplates the use of the term ‚artificially intelligent,’ one certainly would feel more justified its application to systems that adaptively exploit memory.” (Hervorhebung im Original kursiv)
Lanzi/Wilson (2000, S. 394)
Vgl. die Entwicklung eines Akteurs, der das Balancieren eines Stabes mit Hilfe eines Geschichtsfensters fester Größe lernt bei Lin/Mitchell (1992).
McCallum (1995, S. 387ff.) beschreibt das “utile suffix memory”, welches ein Geschichtsfenster variabler Größe lernt und wendet es auf eine komplexe Fahrsimulation an.
Wilson (1999, S. 330)
Das in Holland/Reitman (1978) als “Cognitive System One (CS-1)” erste vorgestellte Classifier System verwendete statt der Bucket Brigade einen “epochal algorithm” zur Verstärkung der Regeln. Dazu führte dieser komplexe Statistiken der Aktivierung von Regeln mit, um bei einem eventuellen Payoff durch die Umwelt an die zurzeit aktive Regel, diesen an alle seit dem letzten externen Payoff aktiven Regeln zu verteilen. Grefenstette (1988) verfeinerte diesen ersten Ansatz zum “Profit-Sharing-Plan” und zeigte nach Wilson/Goldberg (1989, S. 247) experimentell “that classifier strengths under PSP more accurately predict final rewards than those under the bucket brigade”. Vgl. für eine kritischen Gegenüberstellung der Bucket Brigade und des Profit-Sharing--Plan Westerdale (1989, S. 282).
Diese oben eingeführten synchronen Regeln sind ein Beispiel für diesen Typus. In Holland et al. (1987b, S. 73) wird die Verwendung einer speziellen Markierung zur internen Kommunikation vorgeschlagen.
Eine Regel r 1, deren Aktionsteil den Bedingungsteil einer zweiten Regel r 2 erfüllt, wird, wie in Definition 3.2.1 auf Seite 111 festgelegt, mit dieser als durch horizontale Ordnung verbunden bezeichnet.Vgl. Robertson/Riolo (1988, S. 150). Zu Selektionsmechanismen vgl. Abschnitt auf Seite 161.
Smith/Goldberg (1992, S. 86) beschreiben das Prinzip der Bucket Brigade als “competetive service economy”. Diese Analogie bestätigen Holland et al. (1987b, S. 72).
Holland et al. (1987b, S. 72). Gilbert/Bell/Valenzuela (1995, S. 182) formulieren ähnlich: “Return on capital is the objective function, the basis on which the CS adjusts the strength of all rules [...] in accordance with their performance.” (Hervorhebung im Original kursiv)
Holland et al. (1987b, S. 75)
Der in Fußnote 708 auf der vorherigen Seite vorgestelle Profit Sharing Plan ist im Gegensatz dazu, ebenso wie kausalanalytisches Vorgehen, als nicht lokale Technik zu bezeichnen. Vgl. Holland et al. (1987b, S. 76ff.) und Smith/Goldberg (1992, S. 86).
Lanzi/Wilson (2000, S. 394). Für zugrundeliegende Untersuchungen zu Leistungseigenschaften der Bucket Brigade siehe Smith (1994, S. 206ff.) und Robertson/Riolo (1988, S. 150ff.).
Vgl. Wilson (1987, S. 108). Dort wird als typischer Wert c = 0, 1 angenommen.
Für eine Herleitung dieser Formel vgl. Wilson (1987, S. 108). Bei der Annahme einer aus 10 Regeln bestehenden Kette und einem Gebotsanteil von 0,1 ergibt sich eine Untergrenze von 150 erforderlichen Zeitschritten. Ähnliche Ergebnisse zur Entwicklung langer Verstärkungsketten bietet Riolo (1987, S. 184f.).
Vgl. Wilson/Goldberg (1989, S. 248), die feststellen, daß “bucket brigade chains are also quite fragile in the sense that earlier members tend to have less strength, regardless of the number of sequence repititions.”
Vgl. die Darstellung des Gebotsprozesses in Abschnitt 3.2.3.4.4.
Vgl. Abschnitt 3.2.3.4.6.
Grundsätzlich ist die Löschung schwacher Regeln zugunsten von stärkeren zur Exploration des vollständigen Zustands-/Aktionsraums erforderlich. Im hier dargestellten problematischen Fall sind jedoch potentiell Regeln, die aus technischem Grund temporär schwach sind, betroffen. So konstatiert Holland et al. (1987b, S. 76) für die gezielte Suche nach tatsächlich schwachen Regeln, daß “[n]either the bucket brigade algorithm nor prediction-based mechanisms can pinpoint, however, the ‚plausible cause’ of a faulty outcome that follows from a long rule sequence. Especially if the weak link is temporally remote from the state that generates the feedback, a great deal of trial and errow may ensue before the ‚bad’ rule is successfully replaced and the sequence rebuild.” Diese Schwäche lokaler Verstärkungsmechanismen kann grundsätzlich nur durch Erweiterung auf nichtlokale Prinzipien überwunden werden. Nisbett/Wilson (1977) konnten diese Problematik der Nichtidentifizierung schwacher Regeln in psychologischen Experimenten nachweisen. Probanden konnten beispielsweise die Qualität von Konsumgütern nicht unabhängig vom Präsentationszeitpunkt bewerten. Später betrachtete Güter wurden prinzipiell gegenüber den zuerst gezeigten bevorzugt.
Vgl. Wilson/Goldberg (1989, S. 248), wo festgestellt wird, daß “[t]he full ramifications of this instability are not now known, but it is clear that short chains will be less subject to it than longer ones.” Diesen Trade-Off zwischen Kooperation durch Kettenbildung und Wettbewerb im Rahmen des Selektionsverfahrens betrachtet unter Betonung der hier beschriebenen dysfunktionalen Aspekte Grefenstette (1987a, S. 202f.).
Vgl. Fußnote 710 auf Seite 154.
Durch sinkende Generalisierung sowie steigende Populationsgröße, verstanden als Anzahl der in der Grammatik eines Akteurs ablegbaren Regeln, ist diesem Effekt, jedoch doch nur linear, entgegen zu wirken.
Lanzi/Wilson (2000, S. 397). Durch potentiell gleichzeitig aktive Regeln können multiple Kopplungen entstehen und dadurch die oben beschriebene Problematik der trägen Verstärkung früher Regeln intensivieren. Vgl. auch Wilson/Goldberg (1989, S. 249).
Nicht-lokale Techniken vermögen die Distanz zwischen den letzten, am Markterfolg meßbaren Regeln und den Zulieferern auf den ersten Stufen zu überbrücken. Der Profit-Sharing-Plan von Grefenstette (1988) teilt beispielsweise externe Verstärkungen auf die im letzten Zyklus, d.h. seit der letzten externen Belohnung aktiven Regeln auf. Eine derartige per capita Verteilung, die auch andere epochale Verfahren, wie der CS-1 von Holland/Reitman (1978), verwenden, verletzen das Verursachungsprinzip und können zu “freeloaders, parasites, and inappropriately rewarded classifiers” (Wilson/Goldberg (1989, S. 248)) führen. Ein Erweiterung der klassischen Bucket Brigade um Brückenregeln, die Verstärkungen der Umwelt auf kurzem Weg an den Anfang der Verstärkungskette “transportieren” können, “dramatically decrease the number of times a long sequence must be executed in order reallocate strength to all the classifiers in the sequence.”(Riolo (1987, S. 184)) Über die Funktionsfähigkeit einer solchen Konstruktion, die Riolo zeigt, bleibt jedoch der Nachweis deren spontaner Entstehung offen. Das Problem des Auftretens von Parasiten u.ä. bleibt jedoch auch hier, wenn auch reduziert, bestehen und erscheint als ein grundsätzliches Problem der Verwendung von gedächtnisgestützen Lernsystemen. Eine allgemeinere Feststellung, unter Hervorhebung der Eigenschaft der asynchronen Kommunikation mit Hilfe eines Speichers, trifft Dawkins (1989, S. 65): “Whenever a system of communications evolves, there is always the danger that some will exploit the systems for their own ends. [...] we must expect lies and deceit, and the selfish exploitation of communication to arise whenever the interests of the genes of different individuals emerge.” Eine vollständige Vermeidung parasitären Verhaltens kann ausgeschlossen werden; jedoch bietet diese Feststellung Raum für regulierende Institutionen, deren Notwendigkeit dadurch betont wird. Smith (1994, S. 217) bezeichnet das Problem als endemisch.
Der XCS basiert auf dem in Wilson (1994) veröffentlichten “Zeroth Level Classifier System (ZCS)”, der eine zu analytischen Zwecken stark vereinfachte Variante des klassischen Classifier Systems von Holland darstellt. In Wilson (1995) wurden die Grundzüge des XCS präzisiert, dessen wesentliches Merkmal die Berücksichtigung der Genauigkeit von Regeln, verstanden als Standardabweichung der Differenz von vorhergesagter und tatsächlich erhaltener Verstärkung aus der Umwelt ist. (Vgl. das in dieser Arbeit verwendete Verfahren und insbesondere die Herleitung aus Experimenten in Abschnitt 3.2.3.4.4 auf Seite 136.). Ein Überblick über den aktuellen Forschungsstand zu XCS gibt Wilson (1999, S. 322ff.).
Vgl. Wilson (1994, S. 18).
Vgl. Lanzi/Wilson (2000, S. 397), die feststellen: “A small memory would [...] simplify the coupling between posting and reading clasifiers.”
Vgl. zum Verhältnis von semantischen Referenzniveaus und Integrationsstufen Frank (1994, S. 36): Es “setzt die organisatorische Integration von Informationssystemen voraus, daß es eine Menge von Begriffen gibt, die korrespondierende Sachverhalte (wie Aufgaben, Objekte, Vorgänge und dergleichen) in der Organisation und im Informationssystem bezeichnen. Je größer diese Menge gemeinsamer semantischer Referenzen, desto enger ist ceteris paribus die organisatorische Einbindung des Informationssystems.”
Das erforderliche semantische Niveau beschreiben Lanzi/Wilson (2000, S. 409). Das Gedächtnis “need not describe the true environmental state exhaustively; they only need to contain enough information to permit unambiguous discrimination of states that are aliased.”
Kieser (1998, S. 46) Die Entwicklung interner Referenzen präzisiert Smircich (1983, S. 353): “Social action is considered possible because of consensually determined meanings for experience”. Vgl. die Beschreibung der selbstorganisierenden Entstehung einer internen Sprache zwischen Akteuren bei Steels (1996, S. 562ff.), der für das Referenzsystem den Begriff des “Lexikons” verwendet.
Die Länge dieses Registers ist zur optimalen Handlungsfähigkeit des Akteurs umweltabhängig. Dabei haben Untersuchungen von Lanzi/Wilson (2000, S. 409ff.) und Tomlinson/Bull (1998, S. 550ff.) ergeben, daß eine redundante Speicherplatzausstattung verbesserte Annäherungen an optimale Handlungsketten erlaubt. Für diese Arbeit wird die Länge des Registers parametrisierbar gehalten, um insbe- sondere die in Abschnitt 4.2 diskutierte und experimentell in Abschnitt 5.2.5 festgestellte Wirkung organisationsinterner Kommunikation als Speicher in nicht-markov Umgebungen simulieren zu können.
Zur Unterscheidung verschiedener Regeltypen siehe Seite 107 und ihre formalisierte Darstellung auf Seite 109.
Vgl. die Diskussion des Spezialisierungsbegriffs in Abschnitt 3.1.3.2.
Lanzi (1997, S. 8) schlägt eine differenzierte Betrachtung der Generalisierungskonzepte für die interne sowie externe Wahrnehmung vor. “Experimental results [...] suggest in fact that it is useful to distinguish the concept of how many generalizations an environment allows and how many generalizations the corresponding hidden state problem allows.” (Hervorhebung im Original kursiv) Im Rahmen der Detaillierung des hier eingesetzen Modells wird diesem Vorschlag gefolgt und unterschiedliche Parameter zur Beschreibung oberer Grenzen verwendet.
Cliff/Ross (1994, S. 6f.). Vgl. die Darstellung bei Lanzi/Wilson (2000, S. 407f.), die auf die Verwendung ausschließlich interner Aktionen verzichten, um eine enge Koppelung des internen Zustands an die externe Wahrnehmung zu gewährleisten. Damit beschränkt der interne Speicher auf die Aufgabe, “to give a compact representation of the agent’s past sensory experience.”
Vgl. zum Effekt der Diskontierung Wilson (1994, S. 6). Die Konzeption des Verstärkungsmechanismus lehnt sich sehr stark an das oben geschilderte Q-Learning unter den Bedingungen einer nicht-markov Umgebung an. Vgl. die detaillierte Analyse des Verhältnisses bei Dorigo/Bersini (1994).
Der XCS verwendet ein ähnliches Konzept durch Eignungsbewertung einer Regel auf der Basis der Genauigkeit ihrer bisherigen Vorhersagen. Die Diskussion, ob ausschließlich die Stärke einer Regel oder zusätzlich auch die bisher gezeigte Varianz in der Präzision ihrer Aussagen zur Bewertung herangezogen werden soll, führt Kovacs (2000, S. 143ff.) detailliert.
Vgl. zum Begriff des Entlernens Grothe (1997, S. 347), der diese Fähigkeit eines Akteurs als “Meta- Fähigkeit” definiert.
Vgl. Wilson (1994, S. 6) Dort wird auf die Unterschiede zum klassischen Ansatz der Bucket-Brigade eingegangen. Insbesondere die in der Berechnung des Gesamtrewards in Formel (3.15) enthaltene Diskontierung ist hier übernommen worden. Dem vorgeschlagenen Verzicht auf die Berücksichtigung der Spezifität im Gebot der konsumierenden Regel als Bestandteil des Gesamtrewards wird hier nicht gefolgt.
Das Verhältnis reiner Ausbeutungsstrategien zu vollständiger Erkundungstrategien wurde von Lanzi (1999) untersucht. Dort wird als Alternative eine “biased exploration” vorgeschlagen, die abhängig von einem Wahrscheinlichkeitsparameter entweder vollständig explorativ oder vollständig erkundend arbeitet.
d. Jong (1988, S. 121) (Hervorhebung im Original kursiv) Zur Balance beider Lernprinzipien vgl. Dosi/Marengo (1993, S. 172): “Successful organizations must combine exploitation and exploration, since both of them are vital.”
Als grundsätzliche Prinzip der Komplexitätsbewältigung dient die Generierung von Varietät des Akteursverhaltens gekoppelt mit dem bereits oben dargelegten Feedbackmechanismus zur Reduktion unerwünschter Varietät. Vgl. Birchenhall/Kastrinos/Metcalfe (1997, S. 376).
Das Konzept genetischer Algorithmen wurde zuerst in Holland (1970) vorgestellt und folgend in Holland (1975) präzisiert. Ein anderer, zunächst parallel verlaufender Forschungszweig geht auf Rechenberg (1973) zurück. Mühlenbein/Gorges-Schleuter/Krämer (1988, S. 65ff.) differenzieren die Begriffe “evolutionäre” und “genetische Algorithmen”. Erstere beschreiben danach Evolutionsprozesse durch asexuelle Reproduktion auf der Basis von Mutationen und anschließender Selektion. Hingegen wird der letztere Begriff auf die künstliche Repräsentation durch Bitketten und Kombination dieser angewandt. Diese Begriffsteilung hat sich nicht durchsetzten können; daher wird in dieser Arbeit der Begriff des genetischen Algorithmus in einer allgemeinen Form, die auf Seite 164 definiert wird, verwendet.
Vgl. im Original Darwin (1859). Das fundamentale Theorem der natürlichen Selektion konkretisiert Fisher (1930, S. 22ff.). Das absolut formulierte Prinzip wirkt nur relativ. Das Überleben ist nicht ausschließlich den ideal angepaßten, sondern allen hinreichend angepaßten Arten möglich. Das Optimalitätskriterium ist bei natürlichen System und auch komplexen künstlichen System nicht bestimmbar. Vgl. von Hayek (1980, S. 27).
d. Jong (1988, S. 122). Vgl. Birchenhall/Kastrinos/Metcalfe (1997, S. 375f.), die ähnlich beschreiben. Dawid (1996, S. 37) weist darauf hin, daß “[i]t is in our view quite important to realize that an artificial GA is only a very simple model of the natural evolution, and that natural evolution is basically not an optimization technique, but it just evolves.”
So nennt Dawid (1996, S.37), Lösungen in Bereichen, wie “the travelling salesman problem, the knapsack problem, large scheduling problems, graph partitioning problems, but also for engineering problems like the design of bridge structures or the optimal use of power plants.”
Marshall (1898, S. 39). Vgl. Veblen (1898). Vgl. zur Geschichte der evolutorischen Ökonomie Dosi/ Nelson (1994, S. 153f.).
Vgl. Marshall (1890).
Söllner (1999, S. S. 301)
Vgl. beispielsweise Axelrod (1987) Ho (1996) oder Miller (1996). Eine Analyse einer generalisierten Form des Gefangenendilemmas findet sich bei Marks (1992).
Vgl. Dawid/Mehlmann (1996).
Vgl. Arifovic/Eaton (1995).
Vgl. die Zusammenstellung von über 230 Untersuchungen zur Verwendbarkeit evolutionärer Algorithmen bei Nissen (1993, S. 10ff.).
Vgl. Dawid/Kopel (1998, S. 298), die feststellen: “The most valuable features of GAs from the viewpoint of economics are the explicit representation of every individual in a population of heterogenous agents who (might) differ in strategies, the parallel processing of information, competition among alternative rules, selection of those who perform better and the possibility of creating new rules.”
Mainzer (1994, S. 95). Vgl. auch Witt (1993b, S. xix).
Riechmann (1999, S. 226) (Hervorhebungen im Original kursiv) Der Begriff des sozialen Lernens ist bei Betrachtung eines Akteurs als die Konkurrenz und Kooperation einzelner Regeln zu verstehen.
Vgl. zur Beschreibung von genetischen Algorithmen als Markov-Kette Rudolph (1994, S. 99). Die erste Arbeit zur Untersuchung genetischer Algorithmen durch Markov-Ketten findet sich bei Goldberg/Segrest (1987, S. 1ff.). Dort wird ein sehr spezieller Fall betrachtet, bei dem die Regeln einstellig sind. Stabiles Verhalten kann anhand der Zustandsübergangsmatrizen identifiziert werden.
Vgl. zum Einsatz von genetischen Algorithmen auf generalisierte Regeln Wilson (1998, S. 667f.).
Vgl. Abschnitt 3.2.3.4.5.
Vgl. die vergleichenden Untersuchungen des Kiyotaki-Wright-Modells, mit kurzen Zustands- und Handlungsbeschreibungen durch Marimon/McGrattan/Sargent (1990, S. 331) von Classifier- Systemen mit Einsatz genetischer Algorithmen und solcher, ohne dieselben.
Die m(i) beschreiben die Häufigkeit des Vorkommens der Regel i ∈ I in der Population. Damit stellt der Vektor m̄ eine Verteilung von M nicht notwendigerweise verschiedener Regeln über N Möglichkeiten dar. Vgl. Davis/Principe (1993, S. 271).
Am Beispiel eines iterierten Gefangenendilemmas mit vier Personen verdeutlicht Axelrod (1987, S. 34) die exponentielle Komplexität des Handlungsraums: “There is a huge number of strategies which can be represented in this way. In fact, the number is 270, which is about 1021. An exhaustive search for good strategies in this huge collection of strategies is clearly out of question. If a computer had examined the strategies at the rate of 100 per second since the beginning of the universe, less than one percent have been checked by now.” Neben der Komplexität steht die Unmöglichkeit der Kenntnis aller Systemzustände durch die Kennzeichnung ökonomischer Systeme auf Seite 32 als offen der vollständigen Enumeration aller Regeln entgegen.
Hinton/Nowlan (1987, S. 495) stellen zum Lernprozeß fest: “Learning alters the shape of the search space in which evolution operates”. Die Größe N′ des Suchraums I′ = {m̄} ergibt sich als Vgl. zur Herleitung Nix/Vose (1992, S. 82ff.). Die Suche nach dem globalen Optimum bezeichnet Schäffer (2001, S. 84) als “‚first best’-Lösung”.
Schilderungen dieses Grundaufbaus genetischer Algorithmen finden sich in der Literatur häufig. Vgl. u.a. Rudolph (1994, S. 97); Holland (1996, S. 70).
Alchian (1950, S. 220)
Vgl. Rudolph (1994, S. 97). Das Prinzip proportionaler Verfahren entspricht damit einem “Ziehen ohne Zurücklegen”. Dawid (1996, S. 39) beschreibt entstehende Probleme bei der Verwendung rein proportionaler Verfahren. Einerseits kann bei einer stark ungleichmäßigen Verteilung der Stärken eine vorzeitige Konvergenz zugunsten suboptimaler Regeln stattfinden; andererseits können sich bei geringer Varianz der Stärken gute Lösungen nur sehr langsam durchsetzen. “The technical term for this effect is slow finishing.” Zur Vermeidung dieser Dysfunktionalitäten werden unter anderem linear skalierte Stärkemaße oder der Einsatz expliziter Selektionsmechanismen vorgeschlagen. Dort wird eine direkte Vernichtung von Regeln mit geringer Stärke vorgenommen. Vgl. zu Beispielen expliziter Strategien Heistermann (1994, S. 24ff.). Problematisch kann hier die potentielle Existenz grundsätzlich niedrig bewerteter Nischen wirken. Da sich die Selektion auf die gesamte Population bezieht, haben selbst optimal verstärkte Regeln in einer solchen Nischen gegenüber nur mäßig erfolgreichen Regeln in hochentlohnten Bereichen geringere Überlebenschancen. Jedoch führt deren Vernichtung zu einem insgesamt niedrigeren Leistungsniveau des Akteurs.
Vgl. Davis/Principe (1993, S. 272). Dort wird die Stärke einzelner Lösungen durch die Multiplikation der Anzahl des Vorkommens einer Regel mit einer Zielfunktion ermittelt. Hier wird dieser Term über die Stärkezuordnung vereinfacht, und es gilt die Annahme, daß Regeln, die in der aktuellen Population nicht enthalten sind, mit der Stärke 0 ausgewiesen werden.
Insgesamt gibt es mindestens 2L absorbierende Zustände, die von mindestens einem nicht absorbierenden Zustand erreicht werden können. Vgl. Riechmann (1999, S. 231). Der Erwartungswert der erforderlichen Übergänge ist nach Davis/Principe (1993, S. 272) bei linearer Zielfunktion M 2<i>M</i>. Arthur/Ermoliev/Kaniovski (1987, S. 260ff.) untersuchen den Vorgang des Ziehens von Bällen aus einer Urne, bei denen die Farbe der ersetzenden Kugel abhängig ist von den Farbverteilungen in der Urne. Das Verhalten ähnelt dem hier beobachteten: “such processes do indeed settle down, with probability one, to proportions that are fixed.” Vgl. Bunge (1979, S. 31), der die ausschließliche Fähigkeit der Selektion, die Varietät einer Population zu reduzieren, ebenfalls betont. An die erstmalige Untersuchung der “Chancenvermehrung durch Erfolg” von Eggenberger/Plya (1923, S. 279ff.) angelehnt, wird die Bezeichnung als nichtlinearer Polya-Prozeß vorgeschlagen.
Ebeling/Feistel (1992, S. 315) weisen auf ein stets vorhandenes stochastisches Element der Selbstreplikation hin, so daß der hier beschriebene Fall als konstruiert gelten kann.
Vgl. Gierer/Meinhardt (1972, S. 30ff.), die anhand zweier Gleichungen, welche die Änderungsraten von Inhibitoren und Aktivatoren darstellen, einen derartigen Musterbildungsprozeß darstellen. Zum Begriff der Selbstorganisation vgl. Bunge (1979, S. 27). Bach (1998, S. 118f.) zeigt den genetischen Drift wissenschaftlicher Paradigma.
Vgl. zur Diskussion des Ergodizitätsbegriffes McKenna/Zannoni (1998, S. 236ff.) und Durlauf (1993).
Vgl. Riechmann (1999, S. 231). Das Bild der Imitation wird in Kapitel 4.2.4 bei der Betrachtung von Akteursmehrheiten lebendiger. Dort kann das gleiche Prinzip der Kopie von Handlungsstrategien zwischen Akteuren, die in einer Kommunikationsbeziehung stehen, angewendet werden und entspricht dann der praktischen Interpretation des Imitationsbegriffs, wie er beispielsweise von Schumpeter (1934, S. 228) verwendet wird: “[I]f one or a few have advanced with success, many of the difficulties disappear. Others can then follow these pioneers, as they will clearly do under the stimulus of the success now attainable.” Im Gegensatz zur Imitation zwischen Akteuren, die abhängig von der Qualität des Kommunikationskanals von einem Rauschen und damit unbeabsichtigter Innovation überlagert ist, kann die Imitation von Strategien auf Ebene des Akteurs als perfekt angesehen werden. Vgl. Alchian (1950, S. 218f.).
Vgl. Sinclair (1990, S. 114f.), der die ökonomische Begründung von Imitationen detailliert.
Verhaltensregeln zweiter Ordnung entsprechen den von Holland et al. (1987b, S. 41) so genannten “operating principles”.
Vgl. Rubinstein (1987, S. 17ff.), der die Abwägung zwischen der Kopie komplexer Entscheidungsregeln und den zu erwartenden Verstärkungen beschreibt. Vgl. Alchian (1950, S. 218) “‚Nothing suceeds like success.’ Thus, the urge for ‚rough-and-ready’ imitative rules of behavior is accounted for.”
Vgl. Dawid (1996, S. 41), der die Kombination zweier Individuen als “key operator to generate new individuals in the population” bezeichnet.
Vgl. Schumpeter (1987, S. 100): “Produzieren heißt die in unserem Bereich vorhandenen Dinge und Kräfte kombinieren [...]. Anderes oder anderes produzieren heißt diese Dinge und Kräfte anders kombinieren. Soweit die neue Kombination von der alten aus mit der Zeit durch kleine Schritte, kontinuierlich anpassend erreicht werden kann, liegt gewiß Veränderung, eventuell Wachstum vor, aber […] [keine] Entwicklung in unserm Sinn. Soweit das nicht der Fall ist, sondern die neue Kombination nur diskontinuierlich auftreten kann oder tatsächlich auftritt, entstehen die der [Entwicklung] charakteristischen Erscheinungen. [...] Form und Inhalt der Entwicklung ist dann gegeben durch die Definition: Durchsetzung neuer Kombinationen.” (Hervorhebung im Original kursiv) Ähnlich auch March/Simon (1958, S. 150), die auf die Rekombination von “lower-level programs” rekurrieren.
Vgl. zur Funktionsweise des Crossing-over von homologen Chromosomen im Rahmen der sexuellen Fortpflanzung, auch als intrachromosomale Rekombination benannte, beispielsweise Junker/Scherer (1988, S. 34).
Vgl. zur Darstellung beispielsweise Goldberg (1989, S. 12f.). Neben dem diesem an einem Punkt der Bitkette wirkenden Crossover sind in der Literatur komplexere Kombinationsverfahren beschrieben. Vgl. Davis (1991) mit weiteren Nachweisen. Zur Verwendungshäufigkeit bestätigt Riechmann (1999, S. 231): “The one point crossover [...] is the recombination operator used in the standard genetic algorithm as well as in most of the other economic genetic algorithm models.”
Vgl. Dawid/Kopel (1998, S. 300).
Als Alternative zu diesem rigorosen Verfahren hat Arifovic (1994, S. 13ff.) in der Anwendung von genetischen Algorithmen auf das Cobweb-Modell einen “Election operator” hinzugefügt. Dieser vergleicht den erwarteten Gewinn aufgrund der in dieser Periode vorgeschlagenen Handlung mit der im letzten Zeitschritt tatsächlich erzielten Verstärkung und veranlaßt eine potentiell erfolgsmaximierende Vorauswahl. Die dort vorgenommenen Untersuchungen zeigen eine schnellere Konvergenz der Entscheidungen des Akteurs zum Gleichgewichtspreis. Zur Interpretation des “Election-operators” vgl. auch die Erläuterungen auf Seite 172. Vgl. auch den Einsatz des bei Birchenhall (1995, S.223ff.).
Vgl. Dawid (1996, S. 41). Für die folgende Herleitung siehe auch Riechmann (2001, S. 45).
Vgl. Davis/Principe (1993, S. 274). Der erste Summand stellt die Wahrscheinlichkeit dar, daß ein Crossover stattfindet, daß die beiden Elternregeln aus der Selektion überhaupt entstehen, multipliziert mit der aus Formel (3.19) entstammenden Wahrscheinlichkeit, daß daraus die gewünschte Regel h kombiniert wird. Der zweite Summand beschreibt die Wahrscheinlichkeit, daß kein Crossover stattfindet und in diesem Fall direkt durch Selektion die gewünschte Regel entstanden ist. Die angesprochene elternkonservierende Erweiterung des Crossover-Operators reduziert für den Fall, daß h bereits in der Ursprungspopulation enthalten ist, Formel (3.20) zu P 2 (h|n̄) = P 1 (h|n̄).
Auch modifizierte Kombinationsoperatoren verändern die Konvergenzeigenschaft nicht. Vgl. Rudolph (1994, S. 97), der seine Untersuchungen zur Konvergenz von Genetischen Algorithmen aus diesem Grund auf die Verwendung von Selektions- und Mutationsoperatoren beschränkt.
Riechmann (1999, S. 232). Diese Erstarrung tritt schon mit der Fixierung einzelner Allele, d.h. der identischen Besetzung in allen vorhandenen Regeln eines Akteurs, ein. Holland (1996, S. 77) beschreibt den Effekt auf Basis eines ternären Alphabets: “If k alleles have gone to fixation, we are reduced to searching (1/3)k of the space {1, 0, #}L“.
Vgl. beispielsweise Goldberg (1989, S. 14), der das Beispiel einer wissenschaftlichen Konferenz verwendet, auf der Experten miteinander kommunizieren und Ideen austauschen. Vgl. Riechmann (2000, S. 45).
Die potentiell fehlerbehaftete Kommunikation zwischen Akteuren wird in Abschnitt 4.2.2 betrachtet.
Michalewicz (1992, S. 17) bestätigt diese Interpretation: “The intuition behind the applicability of the crossover operator is information exchange between different potential solutions.” Vgl. die ähnliche Verwendung des Crossover-Operators bei Arifovic (1994, S. 9).
Vgl. zum Begriff der “Technology-Fusion” Kodama (1992, S. 70f.). Statt der langfristigen Investition in die Erwartung einer einzelnen bahnbrechenden Innovation, die eine Fokussierung auf zu enge Gebiete mit sich bringt, ist die Verbindung zunächst getrennter Branchen und ihrer Erkenntnisse als “Strategie der kleinen Schritte” unter Innovationsgesichtspunkten erfolgsversprechend. “For example, in the 1970s Japanese machine tool makers developed numerically controlled machines, which drove many of the British, French, and American tool companies out of business. The Western producers could not handle the synthesis of numeric controls and machine tools.” (Kash/Rycroft (1999, S. 21)) Ähnlich, jedoch bezogen auf die wissenschaftliche Auseinandersetzung, formuliert Staines (1974, S. 417ff.) das “strategic combination argument”, welches die Zusammenführung verschiedener, im einzelnen wertloser Studien als potentiell erfolgsversprechend postuliert.
Die Abwesenheit eines Musters zur Änderung wird durch die Kennzeichnung des Mutationsoperators als einstellige Funktion bestätigt. Dagegen arbeitet die Kombination stets auf mindestens zwei genetischen Individuen und die Selektion auf der vollständigen Population.
In dem in dieser Arbeit betrachteten Fall eines ternären Alphabets als Grundlage der Regelbildung funktioniert die Mutation im wesentlichen als “Kippen” einzelner Stellen. Wird das zugrundegelegte Alphabet von höherer Kardinalität angenommen, fällt die naturäquivalente Umsetzung schwerer. In einem auf bis zu vierzig Symbolen basierenden genetischen Algorithmus setzen Bosworth/Foo/Zeigler (1972) fünf verschiedene Mutationsoperatoren ein.
Dabei werden sehr kleine Werte für μ empfohlen. Dawid (1996, S. 42) schlägt Wahrscheinlichkeiten “of order 10-3“ vor. Ähnlich auch Riechmann (1999, S. 233), der µ “often set somewhere between 1/100 and 1/1000 sieht.” d. Jong (1975) schlägt eine Wahl der Mutationswahrscheinlichkeit umgekehrt proportional zur Größe der Population vor.
Davis/Principe (1993, S. 275) zeigen, daß diese Grenze bestimmt ist durch: Daraus kann gefolgert werden, daß jede Population unmittelbar in jede andere übergehen kann; die Markov-Kette ist damit aperiodisch.
Diese dem aus der statistischen Mechanik entnommenen simulierten Abkühlen ähnliche Untersuchungsweise wird von Davis/Principe (1993, S.277f.) angewandt. Vgl. zum Vergleich genetischer Algorithmen und dem “Simulated Annealing” beispielsweise Davis/Steenstrup (1987, S. 8ff.).
Vgl. Nix/Vose (1992, S. 82f.).
Vgl. Weber (1999b, S. 32), der diese Form der Willensbildung als Improvisation bezeichnet: “Sie folgt dem Muster von trial-and-error-Prozessen. Alternativen werden erprobt; erweisen sie sich als ineffizient, weichen sie anderen Alternativen, so lange, bis die Improvisation auf eine befriedigende Lösung gestoßen ist.” Vgl. Sitkin (1996, S. 541ff.), der die Bedeutung des Lernens auf Fehlern beschreibt und daraus eine Strategie der kleinen Fehler ableitet. Vgl. Willke (1995, S. 16), der den Begriff der Intervention “als Basisoperation jeder Form der Beeinflussung komplexer Systeme” versteht.
Vgl. Riechmann (1999, S. 233): “An economic agent slightly changes her strategy by changing little parts of it.” Die Bedeutung der Veränderung im individuellen Lernprozeß beschreibt Stinchcombe (1990, S. 372): “[...] at the beginning of a production run there is not much one can do that is as inefficient as buying the same activities today that one bought yesterday.”
Kieser (1988, S. 605) in bezug auf den Population Ecology Ansatz von Hannan/Freeman (1977).
Ohne eine Begründung zu nennen, schätzen McKelvey/Aldrich (1983, S. 114) den Anteil zufälliger Mutationen in der Organisationsentwicklung auf 90 Prozent. Willke (1994, S. 4) spricht von der “Unwahrscheinlichkeit gelingender Intervention”.
Alchian (1950, S. 218f.)
Vgl. Riechmann (1999, S. 235).
Goldberg (1989, S. 13). Gilbert (1996, S. 450) hebt die Bedeutung des Zufalls in simulationsbasierten Studien allgemein hervor: “Randomness has great importance in simulation studies.” Dabei wird neben internen Begründungen insbesondere die Abbildung modellexterner Vorgänge durch Zufallszahlen als wesentliche Quelle hervorgehoben.
Ein Schema der Ordnung o(X) repräsentiert 2<sup>L-0(X) Instanzen der Ordnung 0; jede Instanz wiederum kann durch 2L Schemata vertreten werden. Zum Ordnungsbegriff vgl. Definition 3.2.1. Vgl. zum Schema-Theorem Holland (1975).
In Anlehnung an die Darstellung in Abschnitt 3.1.3.2 wird eine Regel als hochgradig spezialisiert bezeichnet, wenn sie in einem kurzen Bereich der Bitkette vollständig spezifiziert ist und in den anderen Bereichen eine weitgehend generelle Struktur aufweist.
Dawid (1996, S. 51)
Vgl. Riechmann (2001, S. 41). Vgl. auch Dawid (1996, S. 51) für eine Beschreibung weiterer kritischer Einschränkungen in bezug auf die Allgemeingültigkeit des Schema-Theorems. Mühlenbein (1994) untersucht, ausgehend von dieser Kritik, den Einfluß der drei Operatoren auf die Verbesserung der Gesamtleistung.
So konstatiert Eigen (1971, S. 521): “Jedes durch Mutation und Selektion erhaltene System ist hinsichtlich seiner individuellen Struktur unbestimmt, trotzdem ist der resultierende Vorgang der Evolution zwangsläufig — also Gesetz.” Entelechie, mit von Bertalanffy (1949, S. 123) verstanden als Faktor, der das “Geschehen in Voraussicht des Zieles lenkt”, kann demnach nicht unterstellt werden. Vgl. da- zu auch Grochla (1970, S. 5f.). Gutenberg (1962, S. 68) lehnt entelechische Faktoren auch für das System der Unternehmung ab: “Das betriebliche Leben kennt keine Entelechien, keine immanenten Steuerungsmechanismen. Die nicht von sich aus zueinander strebenden Teile des Unternehmensganzen bedürfen also einer Instanz, die sie zu einer Einheit zusammenbindet. Diese Instanz ist die Unternehmensleitung.”
Der Begriff der Blindheit wird durch Compiani et al. (1990, S. 205) beschrieben: “[G]enetic operators are ‚blind’, in the sense that their action may lead to a decline in the system performance in some stages of its evolution.” Vgl. Campbell (1969, S. 73). Vgl. von Hayek (1978, S. 403), der den Begriff der “Catallaxy” dem des Marktes vorzieht.
Vgl. Dennet (1984, S. 93), der in einem Gedankenexperiment die verbergende Wirkung der Selektion beschreibt: Eine Gruppe von Spielern wird in zwei Hälften geteilt. Der eine Hälfte wird der Ausgang eines binären Wettbewerbs mit “A gewinnt” vorhergesagt, der anderen Gruppe das genau inverse Ereignis, daß “B gewinnt”. So wurde auf jeden Fall einer Gruppe die richtige Voraussage gemacht und durch Selektion bleibt nur diese übrig und wird wieder geteilt. Abermals unterschiedliche Vorhersagen führen wieder zu einer Teilgruppe, die durch zwei richtige Vorhersagen von der Wahrsagefähigkeit überzeugt ist. “After a few more ‚successes,’ you announce that the free trial period is over, for your next prediction they will have to pay.” Durch diese Vorgehensweise, die möglicherweise Empfehlungsstrategien am Kapitalmarkt ähnelt, werden Fehlleistungen durch Selektion verdeckt.
Stein/Lipton (1989, S. 39). Vgl. Waldrop (1996, S. 152ff.), der ähnliche Ineffizienzen am Beispiel der Entstehung von Eiweißmolekülen beschreibt: “Wenn die Bildung wirklich zufällig wäre, müßte man länger warten, als das Universum alt ist, bis auch nur ein einziges Eiweißmolekül entsteht [...].” Vgl. auch die beobachteten Austauschgeschwindigkeiten für verschiedene Aminosäuresequenzen durch Mutation in Cramer (1993, S. 73).
Campbell (1974, S. 422)
Grothe (1997, S. 53) hebt die Bedeutung von Innovationen hervor: “Als zentrales Element der Entstehung von etwas Neuem werden Innovationen betrachtet.” Die Reihenfolge der drei Schritte des Inno- vationsprozesses: eigentliche Innovation, Markteinführung und Test entspricht bei genetischen Algorithmen der biologischen Evolution. Vgl. Ebeling (1990, S. 57ff.). Die geplante Innovation im Unternehmen vermag durch vorgezogene Tests wenig erfolgsversprechende Neukombination vor Markteinführung aussondern. In diesem Test kann das Unternehmen auf vielfältige Widerstandsmuster gegen die Innovation an sich treffen, beispielsweise durch den “pathologischen Pessimismus” (Krelle (1968, S. 185)) der Minimax-Strategie. Hauschildt (1993, S. 89) spricht von “Widerstand — Wesensmerkmal der Innovation”. In der Phase der eigentlichen Innovation kann eine rein zufallsbeeinflußte Vorgehensweise auch im betrieblichen Prozeß Erfolg versprechen. Vgl. Geschka/Dahlem (1996, S. 108).
Hadamard (1949, S. 29)
Vgl. Kuhn (1993, S. 51). Diese Spezialisierung vorhandener Handlungsstrategien wird durch die Mutation von offenen Positionen, die durch das Wildcard-Symbol “#” gekennzeichnet sind, beschrieben. Der umgekehrte Fall der Generalisierung ist in der folgenden Diskussion explizit ausgeschlossen. So läßt sich die in Formel (3.22) zusammengefaßte Aussage, daß die Erweiterung des Suchraum eines genetischen Algorithmus durch Mutation bedingt ist, zur Erkenntnis präzisieren, daß nur durch nicht spezialisierende Mutation der Einschluß neuer Strategien in den Lernprozeß gewährleistet ist. Vgl. dazu die Diskussion der Handlungsauswahl, speziell des Matching-Operators in Abschnitt 3.2.3.4.4.
Die Modellierung von Widerständen gegen Innovationen in Unternehmen ist auch aus Sicht von Schumpeter (1987, S. 108f.) gerechtfertigt: “Auch die modernste Unternehmung hat einen Beharrungswiderstand gegen Veränderungen.” Prominente Fallbeispiele in Biographien von Innovatoren beschreibt Hauschildt (1993, S. 85ff.).
Der “Election-Operator” von Arifovic (1994, S. 10) bildet einen konservierendes Moment zugunsten bereits vorhandener Strategien ab. “Election tests newly generated offsprings before they are permitted to become members of a new population.” (Hervorhebung im Original kursiv)
Bruderer/Singh (1996, S. 1324)
Der Baldwin-Effekt erklärt die Interaktion zwischen der Veränderung von Genotypen durch Evolution und der Variation von Phänotypen durch Lernen während der Lebenszeit eines Akteurs. Vgl. ursprünglich und unabhängig voneinander Baldwin (1896, S. 441ff.) und Lloyd Morgan (1896, S. 733ff.). Popper (1998, S. 256) verknüpft die Bewährung von Hypothesen mit dem Baldwin-Effekt. Bewähren sich “die mehr oder weniger zufälligen oder wolkenähnliche Versuche [...], so erhöhen sie die Überlebenswahrscheinlichkeit von Mutationen, die die so erreichten Lösungen “nachahmen”, und die tendieren dazu, die Lösung erblich zu machen, indem sie in die räumliche Struktur oder Form des neuen Organismus eingebaut wird.”
Mayley (1997, S. 136). Vgl. Hinton/Nowlan (1987, S. 500f.), die erstmals eine simulationsgestützte Studie des Baldwin-Effekts vorstellen und als Ergebnis formulieren: “Our simulation [...] demonstrates that adaptive processes within the organism can be very effective in guiding evolution.” Simon (1990, S. 1665) leitet aus der im Baldwin-Effekt beschriebenen Beobachtung die Existenz altruistischen Verhaltens in einer Gesellschaft ab.
Holland (1996, S. 77)
Die Bedeutung des selektiven Drucks liegt auch in der Überwindung der nach von Hayek (1971, S. 76f.) angeborenen menschlichen Faulheit: “Sogar die berühmte Fiktion des homo oeconomicus gehörte ursprünglich nicht zur britischen evolutionären Überlieferung. Es wäre kaum übertrieben zu sagen, daß in den Augen jener britischen Philosophen der Mensch von Natur aus faul und lässig, sorglos und verschwenderisch ist und daß er nur durch die Macht der Umstände dazu gebracht wurde, sich wirtschaftlich zu verhalten, und gelernt hat, seine Mittel seinen Zwecken sorgsam anzupassen.”
Der ausführliche Beweis ist in Davis/Principe (1993, S. 275ff.) dargelegt. Er beruht auf dem Nachweis der Existenz eines eindeutigen linken Eigenvektors der Transaktionsmatrix. Dieser Eigenvektor beschreibt die Verteilung der genetischen Populationen. Entscheidend ist bei dieser Betrachtungsweise, daß die Verteilung von Populationen von der Verteilung genetischer Individuen, hier Regeln des Akteurs, innerhalb einer Population zu differenzieren ist.
Riechmann (2001, S. 48). Dort wird auch auf den Zusammenhang zwischen der Lyapunov-Stabilität auf der Ebene der Populationen und der asymptotischen Stabilität der langfristigen Verteilung der Populationen insgesamt verwiesen.
Genetische Algorithmen streben in der hier vorgestellten kanonischen Form einem punktförmigen Attraktor zu. Vgl. Lange/Pasche (1992).
Feichtinger/Kopel (1994, S. 24) stellen fest: “Betriebswirtschaftliche Systeme sind komplexe Gebilde, die einem ständigen Wandel unterliegen. Für derartige Systeme kann davon ausgegangen werden, daß sie sich abseits des Gleichgewichts befinden.” Bach (1998, S. 235) begründet: “Das Auftreten von Fluktuationen in den Interaktionen der Handlungsträger oder in der Systemumwelt kann eine Unterbrechung der stetigen Entwicklung von Unternehmen bewirken.” (Hervorhebung im Original fett gedruckt). Von Bedeutung ist in diesem Zusammenhang auch die in Abschnitt 3.2.3.4.5 beschriebene zeitverzögerte Zuordenbarkeit von Verstärkungen aus der Umwelt.
Kopel (1994, S. 69f.) unter Verweis auf eine Untersuchung des Kaldor-Modells durch Lorenz (1992, S. 411f.), in der konvergentes Verhalten erst nach einer transienten Phase von circa 350 Zeitschritten auftrat.
Rights and permissions
Copyright information
© 2002 Deutscher Universitäts-Verlag GmbH, Wiesbaden
About this chapter
Cite this chapter
Langer, C. (2002). Akteurseigenschaften. In: Ordnungsparameter im handlungsorientierten Führungsmodell. Schriften des Center for Controlling & Management (CCM), vol 5. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-322-95303-2_3
Download citation
DOI: https://doi.org/10.1007/978-3-322-95303-2_3
Publisher Name: Deutscher Universitätsverlag, Wiesbaden
Print ISBN: 978-3-8244-7680-0
Online ISBN: 978-3-322-95303-2
eBook Packages: Springer Book Archive