Skip to main content

Part of the book series: Neue betriebswirtschaftliche Forschung ((NBF,volume 9))

  • 29 Accesses

Zusammenfassung

Der Philosoph Karl R. Popper hat einmal das Vorgehen in der Wissenschaft so beschrieben: „Die Methode der Wissenschaft ist die Methode der kühnen Vermutungen und der erfinderischen und ernsthaften Versuche, sie zu widerlegeni“13. Folgt man dieser Auffassung, so ist zunächst zu fragen: Welche kühnen Vermutungen haben Wirtschaftstheoretiker aufgestellt, um zu den gesetzmäßigen Zusammenhängen und damit zu den Ursachen standardisierter Güter vorzudringen? Und was können wir darüber hinaus noch vermuten, um vielleicht eine Erklärung zu finden, die von größerem Gehalt ist? Die Darstellung konkurrierender Ansätze einer Theorie der Standardisierung ist jedoch nur ein erster Schritt; der zweite und wichtigere ist der, den Wettbewerb zwischen den Alternativen entscheiden zu können. Nach Popper’s Wissenschaftslehre sind es - neben rivalisierenden Theorien — vor allem empirische Befunde, die die Fehler und Schwächen in unseren Theorien aufdekken und die so einen Vergleich zwischen widerstreitenden Lösungen zulassen. Gute Theorie haben daher zuerst, wie Popper sagt, erfinderischen und ernsthaften Versuchen einer Widerlegung standzuhalten. Denn obwohl eine Theorie selbst dann falsch sein kann, wenn sie an keiner der schwierigen Prüfungen gescheitert ist, können wir ihr mehr Zutrauen schenken als einer Theorie, die sich jeder oder fast jeder Prüfung von Anfang an verschließt (auch wenn diese Theorie streng genommen genausowenig widerlegt worden ist wie die erste). Dementsprechend zielen auch die Maßstäbe einer befriedigenden Erklärung, wie sie zu Beginn dieses Kapitels erläutert werden, auf die Überprüfbarkeit einer möglichen Erklärung ab. Danach wird im Rahmen der vorliegenden Untersuchung eine Theorie nur dann als zufriedenstellende Lösung zu akzeptieren sein, wenn sie an zahlreichen Standardisierungen in der Computerbranche zu testen ist und dabei die verschiedenartigsten Ereignisse zu erklären vermag.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 44.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 59.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Popper, Karl R., 1984, S. 82.

    Google Scholar 

  2. Auf die auf Intel bzw. Intel-kompatiblen Mikroprozessoren basierenden PC’s entfallen ca. 80% des Marktes, die restlichen 20% sind zum überwiegenden Teil Rechner mit Motorola Chips der 68000er Familie, unter denen wiederum die Macintosh-Linie von Apple eindeutig dominiert und damit einen (kleinen),,Nebenstandard“ bildet. Sieht man einmal von der PC-Architektur ab, gibt es eigentlich nur noch die Großrechnerserie IBM System /360, die in ihrem Marktsegment derart beherrschend ist und dort als der Standard schlechthin einzustufen ist. In aller Regel aber konkurrieren wie in der Workstation-Szene mehrere Standards um die marktführende Position. Die Standardisierung eines Marktsegmentes ist damit weniger ein Resultat vom Typ „Alles-oder-Nichts”, sie nimmt vielmehr verschiedene Ausmaße oder Grade an. Um die Bedeutung oder den Erfolg eines einzelnen Standards zu bestimmen (und um zu entscheiden, ob eine Technologie überhaupt als Standard anzusehen ist), wird in dieser Arbeit für gewöhnlich der Marktanteil der Produkte herangezogen, die zu einer bestimmten technologischen Spezifikation kompatibel sind. Weitere Möglichkeiten finden sich zum Beispiel bei Swann: „Three alternative ways of measuring the extent to which a product is an industry standard could be: (1) market share or cumulative sales; (2) the amount of design activity using a particular product; (3) the extent to which the product is copied (that is the number of second sources)“ [Swann, G.M.P., 1987, S. 247]. Es ist nicht von der Hand zu weisen, daß gerade das dritte der von Swann genannten Kriterien in einigen Fällen, z.B. bei der Marktakzeptanz einer Technologie als herstellerunabhängiger Standard, ebenfalls bedeutsam sein kann. Für gewöhnlich dürfte es jedoch schwierig sein, die Zahl der Anbieter geklonter Produkte zuverlässig ermitteln zu können.

    Google Scholar 

  3. Popper, Karl R, 1972 a, S. 31.

    Google Scholar 

  4. Um die Bedeutung von UNIX-Standards richtig einschätzen zu können, ist ein kurzer Exkurs über Quellcode-und Binärcode-Kompatibilität notwendig. Die auf einem Betriebssystem wie beispielsweise UNIX ablaufende Anwendungssoftware ist heute in aller Regel in einer höheren, d.h. maschinenunabhängigen Programmiersprache geschrieben. Dieser Quellcode ist zwar im Vergleich zur direkten Assember-oder Maschinenprogrammierung leicht und übersichtlich zu schreiben, muß jedoch nach der Programmierung noch in eine Form übersetzt („compiliert“) werden, die vom jeweiligen Rechner „verstanden” werden kann und die in korrekter Weise auf die Funktionen des Betriebssystems zugreift. Anwendungsprogramme, die einem bestimmten UNIX-Quellcode-Standard entsprechend implementiert worden sind, können auf unterschiedliche UNIX-Plattformen portiert werden, indem sie auf dem Zielsystem erneut compiliert werden und so an die Besonderheiten dieser UNIX-Variante und der ihr zugrundeliegenden Hardware angepaßt werden. UNIX-Derivate, die zueinander auf Quellcode-Ebene kompatibel sind, lassen also die Übertragung von Software zu, ohne daß der Quellcode eines Programmes an sich neu-oder umgeschrieben werden muß. Obwohl zahlreiche Versuche unternommen werden, zumindest zwischen einigen UNIX-Varianten über Quellcode-Kompatibilität hinaus sogar Binärcode-Kompatibilität zu erreichen, ist man noch weit entfernt von dem, was in dieser Hinsicht in der PC-Industrie als geradezu selbstverständlich erscheint. Die faktisch verbindliche Kombination von MS-DOS mit Mikroprozessoren, die auf dem Instruktionssatz der Intel 80x86er Prozessorfamilie basieren, erlaubt es, eine bereits in binäre, maschinenlesbare Form compilierte Anwendung auf allen PC’s einzusetzten. Durch solche Standards auf Binärcode-Ebene wird es möglich, Software auf in Folie verschweißten Datenträgern zu verkaufen (man spricht daher auch von „Shrink-wrap-Kompatibilität“), wobei der Kunde die erworbenen Programme auf seinem Rechner installieren kann, ohne irgendwelche Anpassungen vornehmen zu müssen. Da die Anwendungen hier im unmittelbar ablauffähigem Binärformat vorliegen, entfällt die noch bei Quellcode-Kompatibilität notwendige Neucompilierung der Software, die nicht nur diesbezügliches Wissen von seiten des Kunden voraussetzt, sondern auch eine mögliche Fehlerquelle darstellt.

    Google Scholar 

  5. Die verschiedenen Gruppierungen und Standards in der UNIX-Szene werden später noch ausführ- lich behandelt. Für denjenigen Leser, der nicht so sehr mit der Materie vertraut ist, genügt es, er- kannt zu haben, wie sich im Laufe der UNIX-Geschichte eine Vielzahl von Derivaten herausgebil-

    Google Scholar 

  6. Eine derartige Forschungsmethode bietet, wie Carl G. Hempel es nennt, eine „Genetische Erklärung“ bestimmter Ereignisse: „Wenn er ein historisches Phänomen verständlich machen will, wird der Historiker häufig eine ‘genetische Erklärung’ anbieten, die die wichtigsten Abschnitte in einer Sequenz von Ereignissen aufzeigt, die zu diesem Phänomen geführt haben…, wobei auf Gesetze, welche die Stadien verbinden, häufig nur angespielt wird” [Hempel, Carl G., 1972, S. 250/252].

    Google Scholar 

  7. Welche Universalität dem ökonomischen Ansatz zukommt, läßt sich z.B. aus der Themenvielfalt ermessen, die in dem Buch „Der ökonomische Ansatz zur Erklärung des menschlichen Verhaltens“, herausgegeben von Gary S. Becker, enthalten ist [derselbe, 1982 ]. Themen zu Wettbewerb und Demokratie, zu Kriminalität und Strafe, zu Ehe, Fruchtbarkeit und Familie dokumentieren dort die breite Gültigkeit und Reichweite der ökonomischen Theorie.

    Google Scholar 

  8. Zur Abgrenzung und Besonderheit der ökonomischen Verhaltenstheorie gegenüber den soziologischen und den psychologischen Ansätzen siehe Meyer, Willi, 1981.

    Google Scholar 

  9. Meyer, Willi, 1981, S. 166.

    Google Scholar 

  10. Schumpeter, Joseph A., 1912, S. 104.

    Google Scholar 

  11. Grundsätzlich sind zwei Arten von Mikroprozessoren zu unterscheiden. Zum einen jene Prozessoren, die nach der herkömmlichen Architektur aufgebaut sind und die aufgrund ihrer umfangreichen Maschinenbefehlssätze als CISC-Prozessoren - der Begriff CISC steht für „Complex Instruction Set Computers“ - bezeichnet werden. Beispiele für diese Bauweise sind die Motorola Prozessoren der 68000er Serie sowie die Intel 80x86 Chips. Seit Anfang der 80er Jahre werden jedoch zunehmend auch Mikroprozessoren mit eingeschränktem Befehlssatz verwendet; entsprechend diesem Merkmal spricht man hier von „Reduced Instruction Set Computers” oder kurz von RISC-Architekturen. Die Idee von RISC geht auf eine Analyse zurück, nach der im statistischen Mittel in 80% der Fälle ausschießlich 20% der in einem CICS-Rechner zur Verfügung stehenden Maschinenbefehle genutzt werden. Da in RISC-Prozessoren nur diese Befehle implementiert sind, reduziert sich die Komplexität der Hardware und damit die Entwicklungs-und Produktionskosten. Zudem ist es oft möglich, eine gesamte RISC-Maschine auf einem einzigen Chip unterzubringen, was die Verarbeitungsgeschwindigkeit im Vergleich zu komplexen Rechnern erhöht, die auf mehreren (Peripherie-) Chips verteilt sind.

    Google Scholar 

  12. Die Realisierung einer binärkompatiblen Prozessorfamilie ist bei einer RISC-Architektur ungleich schwieriger als bei den herkömmlichen CISC-Architekturen. Bei letzteren ist es durch die Technik der Mikroprogrammierung möglich, dieselben Maschinenbefehle auch über recht unterschiedliche Hardware-Strukturen hinweg beizubehalten. Hierbei werden die einzelnen Maschinenbefehle, die von der Software aufgerufen werden, nicht direkt ausgeführt, sondern nur als Einsprung in ein Mikroprogramm betrachtet, das die Operationen auf der Hardware-Ebene schrittweise ausführen läßt. Andererseits müssen RISC-Prozessoren, die in der Regel nicht über einen Mikrocode als,Puffer“ für unterschiedliche Rechnerimplementierungen verfügen, ihre Befehlssätze stärker an der jeweiligen Hardware ausrichten. Aus diesem Grund ist es nicht ganz so einfach, Prozessoren mit verschiedener Leistungskapazität zu entwickeln, auf der Software, die im Binärformat vorliegt, ohne Anpassung ablauffähig ist. Wie aber unter anderem die SPARC-Technologie oder auch die „Precision Architecture” von Hewlett-Packard zeigt, ist die Möglichkeit, Binärkompatibilität innerhalb einer ganzen Rechnerfamilie zu erreichen, aus technischen Gründen auf keinen Fall allein auf CISC-Systeme beschränkt.

    Google Scholar 

  13. Wie in Kapitel IV, Abschnitt C.2 noch genauer dargestellt wird, werden die verschiedenen RISC-Architekturen, die heute den Markt beherrschen (u.a. die SPARC-Technologie von Sun, die „Precision Architecture“ von Hewlett Packard, die POWER-Serie der IBM und die Alpha-Architektur von DEC), nicht mehr von einzelnen Herstellern, sondern von Unternehmensvereinigungen getragen und weiterentwickelt. Dagegen versuchten die Unternehmen noch bis Ende der 80er Jahre, ihre Architekturen ohne formelle Organisationen wie Gremien oder Konsortien als Standards zu etablieren. Die dabei bevorzugte Strategie teilte die Hersteller von RISC-Workstations bzw. RISC-Mikroprozessoren in zwei Lager: Unternehmen wie Sun oder MIPS lizenzierten ihre Entwicklungen, um möglichst viele Firmen zur Unterstützung ihrer Technologie zu gewinnen; andere wie Intel, Motorola oder Hewlett Packard vertrauten ihrem Image, um die nötige Akzeptanz bei den Käufern zu erreichen. Die Zahlen sprechen jedoch eindeutig für die erste Strategie. So waren SPARCbasierte Rechner 1990 mit einem Anteil von weltweit 55,4% die meistverkauften Workstations mit RISC-Architektur, gefolgt von den Rechnern (21,1%), in denen die R2000 bzw. R3000 Mikroprozessoren der MIPS-Architektur eingesetzt worden waren [Quelle: International Data Corporation (IDC), aus Chip, 2/1991, S. 26].

    Google Scholar 

  14. Besonders im Bereich der Datenübertragung sowie im Zusammenhang mit dem Betriebssystem UNIX wird häufig von „offenen Kommunikationssystemen“ bzw. „offenen Systemen” gesprochen. Offenheit hat dort jedoch eine ganz andere Bedeutung und darf nicht mit der „offener Architekturen“ verwechselt werden (was allerdings selbst in den einschlägigen Zeitschriften mitunter der Fall ist). Diese Offenheit ermöglicht, daß Hardware-und Softwarekomponenten unterschiedlicher Hersteller innerhalb eines Systems beliebig zu kombinieren sind. Entscheidend ist dafür die Festschreibung (und Einhaltung) der Schnittstellen, über die die einzelnen Bausteine miteinander verbunden sind und über die sie in vereinbarter Form Daten austauschen können. Um Systeme mit offenen und wohl definierten Schnittstellen von der Produktpolitik einer „offenen Architektur” eindeutig zu unterscheiden, wird in der gesamten Arbeit das Wort „offen“ immer dann in Anführungszeichen gesetzt, wenn von „offenen” Standards bzw. „offenen“ Systemen im Sinne einer „offenen Architektur” wie der SPARC-Technologie die Rede ist.

    Google Scholar 

  15. Swann, G.M.P., 1987, S. 239, Hervorhebung vom Verfasser.

    Google Scholar 

  16. Friedman, Milton, 1953, S. 22.

    Google Scholar 

  17. Ein solches Argument könnte dann allerdings keine Auskunft darüber geben, wie sich der Marktanteil der kompatiblen Produkte zwischen dem Marktführer - dem Originalhersteller - und den Fremdherstellern aufteilt. Da der Anreiz, einen eigenen Standard zu schaffen, aber ganz erheblich von möglichen Konkurrenten bestimmt wird, offenbart sich schon hier eine erste Schwachstelle dieser Hypothese.

    Google Scholar 

  18. Hergert, Michael, 1987, S. 73.

    Google Scholar 

  19. Besonders seit Anfang der 80er Jahre ist für IBM die Konkurrenz im Bereich der Mainframes durch die immer stärker aufkommenden Anbieter „steckerkompatibler“ /360er Rechner gestiegen. So konnte die auf Hitachi-bzw. Fujitsu-Technologie basierenden Computer der „Plug Compatible Manufactures” (PCM) wie Amdahl, Comparex oder National Advanced Systems (NAS) 1988 ca. 20% des Weltumsatzes und damit ungefähr die Hälfte des IBM-Anteils am /360-kompatiblen Großrechnermarkt erreichen [Quelle: Management Services, aus Online, 12/1989, S. 12].

    Google Scholar 

  20. In der Kategorie der Mikrocomputer konnte IBM mit dem 1981 eingeführten IBM PC ebenfalls eine einheitliche Systemarchitektur durchsetzen, die mit dem Betriebssystem PC-DOS bzw. MS-DOS von Microsoft und den Intel 80x86er Prozessoren eine binärkompatible Basis für die Erstellung von Anwendungssoftware bietet. Im Unterschied zum PC konnte im Fall der /360er Serie jedoch nicht der gesamte Leistungsbereich mit einem Betriebssystem optimal abdeckt werden. IBM bietet daher heute noch zwei verschiedene Betriebssysteme für die /360er Nachfolgemodelle an. Zur genauen Darstellung der Systemarchitekturen siehe Görling, Heinrich und Jokay, Zoltan, 1992, S. 6 ff..

    Google Scholar 

  21. Welcher Stellenwert dem /360er Standard auch bei der Entwicklung nachfolgender IBM-Systeme zukam (zukommt), verdeutlicht die Bestrebung, die neueren Architekturen immer abwärtskompatibel zu den /360er bzw. /370er Rechnern zu entwerfen. So wurde mit der IBM 3080 von 1981 die /370er Architektur zur /370 XA-Architektur erweitert. Das Nachfolgemodell dieser Serie, die IBM 3090 von 1986, kann beim Einsatz des Betriebssystems MVS/XA bzw. VM/XA im erweiterten Architekturmodus laufen und immer noch unter MVS/370 oder VM/SP HPO den /370er Modus emulieren. Als weitere aktuelle /370er Architektur sind beispielsweise die Steuereinheiten der in der Rechnerfamilie IBM 9370 verwendeten Prozessoren in der Lage, /370-kompatible Maschinenbefehle zu verarbeiten. Zu den Entwicklungslinien der einzelnen IBM-Rechner siehe Ungerer, Theo, 1989, S. 61 ff..

    Google Scholar 

  22. Um an genügend Prüfungsmöglichkeiten zu kommen, könnte man natürlich den Ausweg wählen, Beweismaterial auf solchen Märkten zu suchen, auf denen ebenfalls High-Tech-Produkte gehandelt werden. So wurde beispielsweise die amerikanische Telekommunikationsindustrie lange Zeit von ATandT im gleichen Stil beherrscht wie die Computerbranche durch die IBM. Auch dort waren Standards Sache des Marktführers: „Standards in the past were easier to arrive at because one company, ATandT, designed most of the CPE (customer premises equipment) and network transport equipment. This gave ATandT a large influence over standards for the industry, and indeed, the rest of the industry generally followed the ATandT standards“ [Dorros, I.,„Standards, Innovation, and ISDN”, 1985; zitiert aus: Hergert, Michael, 1987, S. 74]. Solange es jedoch das Ziel ist, Computerstandards zu erklären, werden die Ereignisse anderer Märkte nur zusätzliche Bestätigungen und in diesem Sinne Zeugnisse zweiter Klasse sein können.

    Google Scholar 

  23. Popper, Karl R., 1989, S. 213.

    Google Scholar 

  24. Die Darstellung der Ereignisse, die zur Entwicklung von COBOL führten, sind weitgehend dem Aufsatz „Competition, Standards, and Self-Regulation in the Computer Industry“ von Gerald Brock entnommen. Brock beschreibt dort auch die Marktmacht, die von der öffentlichen Hand eingesetzt werden kann, um bestimmte Technologien als Standard zu etablieren: The largest computer user is the federal government. According to IBM Industry Marketing, the government occupied 17% of the entire computer market in 1968. The government’s selection procedures insure it a selection of equipment from many different manufacturers, causing it to be very aware of the problem of incompatibility among various systems. The government is the user with the most to gain from standardization and the only one large enough to force standardization through buying power. No major manufacturer is willing to be shut out of the government market entirely. Thus the government can establish a standard simply by announcing that it will only order equipment conforming to that standard” [Brock, Gerald, 1975, S. 80].

    Google Scholar 

  25. In der Logik der Forschung veranschaulicht Popper den Verbotscharakter allgemeiner Sätze an- hand ausgestorbener Riesenvögel - Moas -, deren Knochen auf Neuseeland zu Linden sind: „Wenn es aber ein Naturgesetz gäbe, welche das Alter jedes moaartigen Organismus auf 50 Jahre beschränken würde, dann wäre für keinen Moa eine längere Lebensdauer möglich. So setzen Naturgesetze der Möglichkeit gewisse Grenzen [Popper, Karl R., 1989, S. 382].

    Google Scholar 

  26. Die ehemalige „Garagenfirma“ setzte 1981 allein mit dem Apple II ca. 335 Millionen Dollar um, was in etwa einem Drittel des gesamten Marktvolumens bei den Mikrorechnern entsprach [Quelle: Sobel, Robert, 1986, S. 185].

    Google Scholar 

  27. Quelle: Newsweek, 30. September 1985, S. 47; entnommen aus Hergert, Michael, 1987, S. 68.

    Google Scholar 

  28. Wie wenig die Vertriebsstrukturen und das Image der IBM geeignet waren, um erfolgreich in den Mikrorechnermarkt einzusteigen, betont auch der IBM-Historiker Robert Sobel: „Die Armonk-Leitung war immer davon ausgegangen, daß Computer Geräte für Geschäftsleute und Wissenschaftler seien, und kontrollierte diese beiden Märkte auch mit großem Erfolg. Offensichtlich hatte sich niemand aus der Unternehmensführung ernsthaft Gedanken darüber gemacht, ob es bei Einzelpersonen - Kleinunternehmern, Selbständigen und Studenten - einen Bedarf für Kleinrechner gab, Mikrocomputer, wie sie später genannt werden sollten. An diesen Märkten war IBM nie interessiert gewesen. Ein Journalist oder Autor beispielswiese, der damals eine elektrische Schreibmaschine von IBM kaufen wollte, mußte feststellen, daß dies schwierig, wenn nicht gar unmöglich war. Wahrscheinlich wurde ihm das Gerät noch nicht einmal vorgeführt. IBM hatte wenig Interesse an solchen Kunden. Sie mußten sich ihre Geräte oft genug aus zweiter Hand besorgen…. IBM war bereit, Image und Strategie zu ändern, wenn die Situation es verlangte, doch zu keinem Zeitpunkt in der Firmengeschichte war ein so tiefgreifender Wandel erforderlich wie im Falle des Personal Computer. Kernstück des Unternehmens war die Organisation von Verkäufern, die für den Umgang mit Kunden aus der Geschäftswelt und aus Regierungskreisen ausgebildet waren. Wer nicht zu dieser Gruppe gehörte, mochte IBM vielleicht kennen, aber seine einzige direkte Verbindung zur Firma bestand darin, daß seine Kontoauszüge oder Lohnstreifen von einem der vielen IBM-Geräte ausgedruckt wurden. Das Unternehmen hatte es nicht nur versäumt, sich um die breite Öffentlichkeit zu kümmern, der Gedanke schien ihm sogar gegen den Strich zu gehen“ [Sobel, Robert, 1986, S. 181/191].

    Google Scholar 

  29. Bradley, David J., 1990, S. 420.

    Google Scholar 

  30. Bei Robert X. Cringely findet sich eine sehr anschauliche Schilderung der damaligen Situation: „Konkurrenz für IBM gab es jede Menge. Da war der Victor 9000 von Kidde, einer alteingesessenen Büromaschinen-Firma. Victor verfügte über mehr Leistung, höhere Speicherkapazität und bessere Grafiken als der IBM-PC und kostete auch noch weniger. Da war der Zenith-Z-100 mit zwei Prozessoren, die es ermöglichten, sowohl 8-Bit-als auch 16-Bit-Software zu verwenden, und auch dieses Modell war preiswerter als der IBM-PC. Außerdem gab es noch den Hewlett-PackardHP-150 mit mehr Leistung und einem größeren Speicher als der IBM und obendrein einem raffinierten Touch-Screen, der es dem Anwender ermöglichte, durch Bildschirmberührungen zu selektieren. Der DEC-Rainbow-100 hatte mehr Leistung, einen größeren Speicher und den guten Namen DEC. Ferner waren da noch der Xerox-, der Wang-und der Honeywell-Computer. Es gab plötzlich jede Menge 16-Bit-Computer, die sich alle erhofften, der Firma IBM den De-facto-Standard zu entreißen, sei es durch überlegene Technologie oder bessere Preispolitik“ [Cringely, Robert X., 1992, S. 191].

    Google Scholar 

  31. Böhm-Bawerk, Eugen von, 1924, S. 51, Hervorhebungen vom Verfasser.

    Google Scholar 

  32. With incomplete information about the benefit of the network externalities [d.h. über den Vorteil einer Standardisierung, H.J.] to others, no firm can be sure that it would be followed in a switch to the new technology. This uncertainty can lead all the firms to remain with the status quo even when in fact they all favor switching, because they are unwilling to risk switching without being followed“ [Farrell, Joseph, Saloner, Garth, 1986 b, S. 940/941]. Andererseits gelte, if all firms would benefit from the change, then all will change! In other words, there is no excess inertia impending the change. Both unanimity and complete information are necessary for this result, however” [Farrell, Joseph, Saloner, Garth, 1985, S. 71, Hervorhebung im Original]. Es hat sich in der einschlägigen Literatur eingebürgert, die Vorteile einer Standardisierung wie zu Beginn des Zitates als „network externalities“ zu bezeichnen, weil die Bedeutung von Standards zuerst im Zusammenhang mit physisch existierenden Netzwerken diskutiert wurde. Als Beispiele dafür, wo solche Netzwerke anzutreffen sind, führen Carlton und Klamer die „Network Industries” an: die Eisenbahn-und Telephonbranche, sowie die „Electronic Funds Transfer“-Industrie [Carlton, Dennis W., Klamer, J. Mark, 1983]. Der Begriff „network externalities” selbst stammt von Katz und Shapiro: „Because they where first recognized in these industries, we call these positive external consumption benefits network externalities“ [Katz, Michael L., Shapiro, Carl, 1986 a, S. 146, Hervorhebung im Original].

    Google Scholar 

  33. Katz, Michael L., Shapiro, Carl, 1985, S. 424, Hervorhebungen vom Verfasser. Eine vergleichbare Unterteilung findet sich auch bei anderen Autoren: „Consumers benefit in a number of ways. There may be a direct ‘network externality’ in the sense that one consumer’s value for a good increases when another consumer has a compatible good, as in the case of telephones…. There may be a market-mediated effect, as when a complementary good (spare parts, servicing, software…) becomes cheaper and more readily available the greater the extent of the (compatible) market“ [Farrell, Joseph, Saloner, Garth, 1985, S. 70/71].

    Google Scholar 

  34. Auf einen solchen Zusammenhang, der zwischen Standardisierung, Transaktionskosten und der Wettbewerbssituation für die Konsumenten besteht, haben schon Dennis W. Carlton und J. Mark Klamer aufmerksam gemacht: „Standard part sizes, for example, are a great convenience for consumers. Without standard sizes, a consumer who needed to replace a part would be forced to search extensively among suppliers or to locate the original manufacturer. Standards lower consumer search and information costs and thus enhance competition“ [Carlton, Dennis W., Klamer, J. Mark, 1983, S. 447/448].

    Google Scholar 

  35. Die Tatsache, daß in Anzeigen, in denen für IBM-kompatible PC’s geworben wird, oft wenige Daten genügen, um das Preis-Leistungs-Verhältnis eines Angebotes abschätzen zu können, illustriert, wie Kompatibilität auch dem nicht-professionellen Kunden zu einem guten Marktüberblick verhilft. Auf diesen Punkt zielt auch das Argument von Hergert: The existence of market standards can promote purchase efficiency in several ways.… For example, knowledge that a microcomputer is ‘IBM-compatible’ means that the buyer will have access to a wide variety of applications software, that the microprocessor operates at 4,77 MHz (or faster), that the buyer may use plug-compatible add-on boards, and that a variety of other technical specifications will be met. This saves the buyer from making extensive product comparisons to determine relative performance. Knowledge of product adherence to a standard improves the quality of buyer information in general, and can thereby increase buyer power in dealing with suppliers“ [Hergert, Michael, 1987, S. 691.

    Google Scholar 

  36. Die wachsende Bedeutung der Information als unternehmerischer Produktionsfaktor hat in den letzten Jahren in der Betriebswirtschaftslehre zur Bildung einer neuen Funktionslehre, der Informationswirtschaft (oder auch des Informationsmanagements) geführt. Eine ihrer zentralen Thesen ist die, daß durch ein ganzheitliches Management des gesamten Informationssystems die Bildung sogenannter „Insellösungen“ in den einzelnen Funktionsbereichen des Unternehmens verhindert wird und daß der Produktionsfaktor Information damit effektiver als betriebliche Ressource genutzt werden kann. Zur technischen Realisierung eines unternehmensweiten Informationssystems tragen Standardisierungen insbesondere im Bereich der Vernetzung bei. Zu den Zielen und Aufgaben eines Informationsmanagements siehe Seibt, Dietrich, 1990 und Schwarze, Jochen, 1990. Die Vorteile einer Standardisierung aus speziell betriebswirtschaftlicher Sicht werden u.a. in dem Artikel „Offene Systeme und Standardisierungen in der Informationstechnologie` [Angewandte Informatik, 8/1988, S. 364/365] dargestellt.

    Google Scholar 

  37. Kindleberger, Charles P., 1983, S. 377.

    Google Scholar 

  38. Zur Entstehungsgeschichte von ASCII siehe Brock, Gerald, 1975, S. 85 ff..

    Google Scholar 

  39. SAA sollte laut IBM zunächst nur die hauseigenen Rechnerarchitekturen der /370er bzw. /390er Serie sowie die der AS/400- und der PS/2-Computer einschließen.

    Google Scholar 

  40. Obwohl IBM die Schnittstellen der SAA soweit veröffentlicht hat, daß andere Softwarehäuser SAA-konforme Applikationen erstellen können und das Regelwerk allgemein zugänglich ist, ist SAA alles andere als ein offenes und herstellerunabhängiges System. Allein die Tatsache, daß zwei der wichtigsten Industriestandards - UNIX und MS-DOS - in SAA ohne Berücksichtigung bleiben, belegt, daß SAA allenfalls als „offen innerhalb der IBM-Welt“ zu bezeichnen ist [siehe dazu Engel, Hartmut, 1990 ].

    Google Scholar 

  41. Thompson, George V., 1954, S. 6.

    Google Scholar 

  42. Über die Computerindustrie hinaus ist anzunehmen, daß bei allen Produktstandards, die die Zusammenarbeit komplementärer Güter gewährleisten, weniger der Aspekt der Massenproduktion von Bedeutung ist, sondern die „Nutzleistungen` im Vordergrund stehen, die aus Kompatibilität resultieren. Dementsprechend ist zu vermuten, daß sich aus den Vorteilen, die hier dem Anwender zugute kommen, auch im allgemeinen (und nicht nur bei Hardware-und Softwarestandards) jene Anreize ableiten, die bewirken, daß Hersteller Marktstandards schaffen. Dies bestätigt u.a. David Hemenway: „Interchangeability standards for uniformity can permit economies of scale and improve information. They help limit variety, like single product standards, and thus allow longer production runs. They may reduce comparative shopping problems, and can decrease other search costs…. The most important benefit of interchangeability standards is that they widen markets, increasing alternative sources of supply. Because of standards, a consumer with a flashlight is not ‘locked-in’ to one or two battery manufacturers. Many battery manufacturers can economically produce the standard size, knowing that demand for them will be high, since flashlight producers are making flashlights so that standard batteries will fit. And flashlight producers are busy making standard flashlights, for demand here will be greatest, since few people want flashlights if they can’t easily get batteries” [Hemenway, David, 1975, S. 37/38].

    Google Scholar 

  43. Berg, Sanford V., 1989, S. 378.

    Google Scholar 

  44. In der Literatur wird eine Vielfalt volkswirtschaftlicher Auswirkungen diskutiert, wobei Fragen zum Einfluß von Standards auf die Wettbewerbsintensität im Mittelpunkt stehen. So ist in den frühen Stadien der Entwicklung einer Industrie ein extrem intensiver Wettbewerb zwischen den Herstellern zu erwarten, da die Unternehmen mit verstärkten Marketingmaßnahmen, Einführungspreisen und ähnlichem versuchen werden, ihre Technik als Marktstandard durchzusetzen. Vorhandene Standards - beispielsweise solche, die durch staatliche Normierungen geschaffen wurden - können in diesen ersten Marktphasen die Konkurrenzsituation abschwächen, wenn kein Anreiz mehr gegeben ist, einen Marktstandard zu etablieren [Katz, Michael L., Shapiro, Carl, 1986 a, S. 148]. Im allgemeinen wird jedoch mit der Theorie monopolistischer Konkurrenz von Edward H. Chamberlin zu vermuten sein, daß bei Produktdifferenzierung die Intensität des Preiswettbewerbs sinkt; zu diesem traditionellen Schluß kommen auch Shaked und Sutton [Shaked, Avner, Sutton, John, 1982]. Lifchus führt zur Begründung eines verstärkten Wettbewerbs an, daß bei Standardisierungen „competitive decisions may be based on factors such as price, functionality and performance rather than specific design and availability considerations. Price, functionality, and performance are factors which most certainly provide opportunities for innovative improvements [Lifchus, Ian M., 1986, S. 179]. Dagegen wird allerdings von Barry Keating die Befürchtung geäußert, daß „dominant firms in an industry may use standards to exclude innovative competitors from the market“ [derselbe, 1980, S. 471]. Keating’s Argument trifft besonders auf den Fall zu, in dem es nicht (oder nicht umgehend) zu einem erfolgreichen „reverse engineering”, d.h. zu einer Produktion 100%ig kompatibler Nachbauten, kommt. So konnte Intel lange Zeit den IBM PC-Standard monopolartig ausnutzen, weil es niemandem gelang, die original Intel 80x86er Mikroprozessoren zu klonen. Halbleiterhersteller wie Cyrix, Chips and Technology und vor allem AMD haben diese Situation heute allerdings nachhaltig ändern können, und daß, obwohl Intel mit zahlreichen Patentklagen um die Verwendung des 80x86er Mikrocodes das Aufkommen von Fremdanbietern zum Teil erheblich verzögern konnte.

    Google Scholar 

  45. Braunstein, Yale M., White, Lawrence J., 1985, S. 354.

    Google Scholar 

  46. Siehe Thompson, George V., 1954 und Hemenway, David, 1975.

    Google Scholar 

  47. Kindleberger, Charles P., 1983.

    Google Scholar 

  48. Diese konventionelle Behauptung trifft nicht bei solchen Gütern zu, deren Nutzung von der Kombination einzelner Komponenten abhängt, also nicht für den Fall der Produktkomplementarität. Standards erzielen hier genau die gegenteilige Wirkung; sie ermöglichen dem Anwender, seinem persönlichen Geschmack entsprechend die Komponenten aus dem Angebot unterschiedlicher Hersteller zusammenzustellen. Angeregt wurde dieser Einwand von Matutes und Regibeau: The home stereo industry is a good example of such an increase in ‘system variety’. Without interbrand compatibility, consumers would have to choose between, for example, a Pioneer or a JVC stereo system. With compatibility, however, a consumer could assemble his own system by combining his favorite components, for example a JVC turntable with a Pioneer receiver and Fisher speakers“ [Matutes, Carmen, Regibeau, Pierre, 1987, S. 25]. Es ist allein schon aus statistischen Überlegungen sonderbar, warum eine „trade-off”-Beziehung als Normalfall gilt. So wird die vermeintliche Produktvielfalt von kompletten Systemen bei Inkompatibilität um so mehr von der aus Kompatibilität resultierenden Kombinationsvielfalt übertroffen, je größer die Zahl der Komponenten ist. Bei Gütern aus ein oder zwei Bestandteilen wird eine negative Korrelation zwischen Standards und Produktvariation noch gültig sein, keinesfalls aber bei umfassenden HiFi-, Video-oder Computersystemen mit stark modularem Aufbau.

    Google Scholar 

  49. Die ersten einflußreichen Überlegungen zur Heterogenität von Gütern entstammen der Zeit zwischen den Weltkriegen. 1926 stellte Piero Sraffa die These auf, daß jedes Unternehmen seine eigene Monopolstellung besitze, da sich die Waren jedes Herstellers in irgendeiner Weise von denen anderer Produzenten unterscheiden. Diese Idee ist unter dem Schlagwort „monopoly of its own output“ bekannt geworden. Sie ist dann Anfang der 30er Jahre - zumindest im Ansatz - von Joan Robinson und von Edward H. Chamberlin übernommen und zur Theorie des „Imperfect Competition” bzw. der „Monopolistic Competition“ ausgebaut worden. Ohne die Arbeiten von Joan Robinson und Piero Sraffa zu unterschätzen, gebührt jedoch Chamberlin die Ehre, in The Theory of Monopolistic Competition” als erster Fragen zur Produktdifferenzierung umfassend untersucht zu haben. Es liegt natürlich nahe zu vermuten, daß das Problem der Kompatibilität nur ein Spezialfall der Monopolistischen Konkurrenz sei. Man darf jedoch nicht übersehen, daß Fragen zur Standardisierung nur dann auftreten, wenn der Anwender zur Nutzung seiner Basisprodukte diese um komplementäre Güter ergänzen muß. Braunstein und White sprechen in diesem Zusammenhang vom Konsum eines,Portfolios“: „… our compatibility problem arises only when a user wants to consume a ‘portfolio’ of services of multiple technologies more or less simultaneously” [Braunstein, Yale M., White, Lawrence J., 1985, S. 342, Hervorhebung im Original]. Im Gegesatz dazu untersucht die Theorie der Monopolistischen Konkurrenz nur solche Produkte, die im Prinzip alleine nutzbar sind. Mit diesem Unterschied erklärt sich dann auch, warum Chamberlin und seine Nachfolger ein grundlegend anderes Problem verfolgten. So nimmt die Literatur über eine sozial optimale Produktdifferenzierung an, daß der Vorteil einer Güterhomogenisierung allein in der Kostendegression bei Massenfertigung liege: „A tradeoff between price and variety exists because of the scale economies present in production“ [Salop, Steven C., 1979, S. 151; zur optimalen Produktvielfalt siehe auch Lancaster, Kelvin, 1975]. Bei Standards ist dieser Vorteil von untergeordneter Bedeutung. Wie im letzten Unterkapitel gezeigt wurde, liegt die „Nutzleistung” einer Standardisierung weniger in der Massenproduktion, sondern vielmehr in der Möglichkeit, einzelne Komponenten aus dem „Portfolio“ auszutauschen (sowie im gewohnten Umgang mit standardkonformen Produkten). Märkte, auf denen Aspekte der Kompatibilität die Ergebnisse der Wirtschaftstätigkeit entscheidend beeinflußen, lassen sich deshalb nur in unzureichender Weise mit der Theorie Monopolistischer Konkurrenz erfassen. 62 Die beiden Zitate sind Katz, Michael L., Shapiro, Carl, 1985, S. 425/434 entnommen. Vergleichbar mit einer technisch ermöglichten Kompatibilität über Adapter sind Emulationsprogramme. So kann beispielsweise über einen solchen Umweg eine MS-DOS Umgebung innerhalb eines UNIX-Systems nachgebildet werden (oder auch innerhalb von Betriebssystemen für Motorola 68000er Mikroprozessoren), um PC-kompatible Anwendungssoftware einsetzen zu können. Oft wird fremde Software auch durch Neukompilierung für die eigene Rechnerarchitektur nutzbar gemacht. Die von Honeywell 1964 eingeführte H-200 konnte zwar die Daten, die für die IBM 1400er Serie, die damals populärste Rechnerlinie, formatiert waren, lesen, konnte aber nicht direkt die Programme der 1400er Computer ausführen. Honeywell bot deshalb unter dem Namen „Liberator” ein Transformationsprogramm an, das die Sofware der 1400er Serie in eine auf den H-200 ablauffähige Form umwandelte.

    Google Scholar 

  50. Siehe Farrell, Joseph, Saloner, Garth, 1986 a.

    Google Scholar 

  51. M1 Farrell, Joseph, Saloner, Garth, 1986 a, S. 71.

    Google Scholar 

  52. Siehe Katz, Michael L., Shapiro, Carl, 1986 a.

    Google Scholar 

  53. Katz, Michael L., Shapiro, Carl, 1986 a, S. 164.

    Google Scholar 

  54. Auf die Unterscheidung des gegenwärtigen und zukünftigen Marktanteils der Standardtechnik machen Katz und Shapiro aufmerksam:,First, the relative attractiveness today of rival technologies is influenced by their sales histories. In effect, there are ‘demand-side economies of scale’; a given product is more attractive the larger is the in-place base of consumers using that product. Second, and perhaps more important, in the presence of network externalities, a consumer in the market today also cares about the future success of the competing products“ [Katz, Michael L., Shapiro, Carl, 1986 b, S. 824, Hervorhebung im Original]. Farrell und Saloner verzichten auf eine solche Unterteilung:,The benefits from compatibility create demand-side economies of scale: there are benefits to doing what others do” [Farrell, Joseph, Saloner, Garth, 1986 b, S. 940].

    Google Scholar 

  55. Siehe Berg, Sanford V., 1988 und 1989.

    Google Scholar 

  56. Berg, Sanford V., 1989, S. 375.

    Google Scholar 

  57. Im Gegensatz zu den „technological externalities“ entstehen die „network externalities” a la Katz und Shapiro dadurch, daß der einzelne Kunde bei der Auswahl des Produktes nicht den externen Einfluß seiner Entscheidung auf die Wertschätzung, die andere ihren Produkten entgegenbringen, anrechnet: „In the network externality formulation, the source of the problem is that consumers do not take into account the impact of their consumption decisions on the valuations of others. In the technological externality formulation, the crucial decisions are made by firms regarding their choice of technical standards. Their standards decisions do not take into account the impact on buyers of their rival’s product“ [Berg, Sanford V., 1988, S. 36].

    Google Scholar 

  58. Berg, Sanford V., 1989, S. 373.

    Google Scholar 

  59. Berg, Sanford V., 1988, S. 37.

    Google Scholar 

  60. Braunstein, Yale M., White, Lawrence J., 1985, S. 343.

    Google Scholar 

  61. Braunstein, Yale M., White, Lawrence J., 1985, S. 343/344.

    Google Scholar 

  62. Siehe Farrell, Joseph, Saloner, Garth, 1985 und 1986 b.

    Google Scholar 

  63. Implizit ist dem Beitrag von Farrell und Saloner zu entnehmen, daß eine verzögerte bzw. unzureichende Standardisierung in dem von Braunstein und White angesprochenen „Kaldor-Hicks“ Sinne ineffizient ist, weil der neue Standard mehr zur gesellschaftlichen Wohlfahrt beitragen würde als ihr zu schaden. Bei unvollständiger Information kann eine solche ineffiziente Verzögerung in zweifacher Hinsicht auftreten: Two types of excess inertia occur. In the first, and the most striking, which we call symmetric inertia, the firms are unanimous in their preference for the new technology and yet they do not make the change. This arises when all the firms only moderately favor the change, and hence are themselves insufficiently motivated to start the bandwagon rolling, but would get on it if it did start to roll. As a result, they maintain the status quo. In the second type of inertia (’asymmetric inertia’) the firms differ in their preferences over technologies, but the total benefits from the switch would exceed the total costs. As before, this inertia arises because those in favor are not sufficiently in favor to start the bandwagon rolling. Symmetric inertia is purely a problem of coordination. Hence, one might expect that… nonbinding communication of preferences and intentions may eliminate the inertia. We show…, however, that while this indeed eliminates the symmetric excess inertia, it exacerbates the problem of asymmetric inertia” [Farrell, Joseph, Saloner, Garth, 1985, S. 72].

    Google Scholar 

  64. Siehe Farrell, Joseph, Saloner, Garth, 1986 b.

    Google Scholar 

  65. Farrell, Joseph, Saloner, Garth, 1986 b, S. 942/943.

    Google Scholar 

  66. Farrell, Joseph, Saloner, Garth, 1986 b, S. 943.

    Google Scholar 

  67. Katz, Michael L., Shapiro, Carl, 1986 b, S. 822, Hervorhebungen im Original.

    Google Scholar 

  68. Besen, Stanley M., Johnson, Leland L., 1986, S. V.

    Google Scholar 

  69. Besen, Stanley M., Johnson, Leland L., 1986, S. V.

    Google Scholar 

  70. Siehe Berg, Sanford V., 1988 und 1989.

    Google Scholar 

  71. Berg, Sanford V., 1989, S. 377/378.

    Google Scholar 

  72. Friedman, Milton, 1953, S. 4/8/9. Zur Diskussion der Friedman’schen Methodologie siehe Caldwell, Bruce J., 1982, S. 173 ff. sowie Meyer, Willi, 1978. Eine allgemeine Einführung in den Intrumentalismus gibt Gadenne, Volker, 1984, S. 143 ff..

    Google Scholar 

  73. Berg, Sanford V., 1989, S. 376.

    Google Scholar 

  74. Die Vermutung, daß Standards von marktmächtigen Unternehmen etabliert werden - unsere oben vorgestellte Marktführerhypothese -, fügt sich nahtlos in diese Reihe von Argumenten ein. Ansatzweise findet sie sich auch in der Literatur: In differentiated products with many firms of roughly the same size and none dominant, the opportunity for standardization may be missed and economies of scale lost“ [Kindleberger, Charles P., 1983, S. 395], und it is widely believed that ‘large’ firms have a great deal of strategic power in the kind of de facto standard-setting we analyze here” [Farrell, Joseph, Saloner, Garth, 1985, S. 82, Hervorhebung im Original]. Ein anderes, bislang unerwähntes Argument ist die Vorstellung, daß die Wahrscheinlichkeit einer Standardisierung davon abhängt, wie rasch sich neue Produkte und Technologien entwickeln: „In an industry with continual change in product design, by contrast, it would be much more costly to set and maintain standards. Indeed, in an industry where technology is rapidly changing, the costs of setting standards for newly evolving technologies may be so high as to provide no incentive for any indepen-Man muß sich also fragen, wie gehaltvoll die genannten Antworten sind, und das heißt: Wie leicht finden sich Sachverhalte, die sie testen können? Wenden wir dazu die drei erstgenannten Faktoren - Eigentumsrechte, Sponsoring und Produktankündigung - auf den Fall eines Softwarestandards an. Mitte der 80er Jahre waren sich IBM und Microsoft noch darin einig, mit OS/2 ein Betriebssystem entwickelt zu haben, das die Nachfolge von MS-DOS als Standardbetriebssystem für den PC antreten sollte. Nicht zuletzt der unerwartete Erfolg von Microsoft’s Betriebssystemerweiterung Windows 3.0 als 16-bit Standard der „nach-DOS“ Ära und die Konkurrenz zwischen dem Presentation Manager in OS/2 und der Bedienungsoberfläche von Windows führte 1990 zur Aufkündigung der Zusammenarbeit. Beide Unternehmen gingen danach getrennte (Betriebssystem-) Wege und bauten im Kampf um die Etablierung ihrer eigenen 32-bit Systeme auf verschiedene Strategien. Während IBM mit agressiver Preispolitik weiterhin OS/2 zu verbreiten versuchte, ließ Microsoft kaum eine Gelegenheit aus, um auf Windows NT (New Technology) hinzuweisen und eine baldige Verfügbarkeit anzukündigen; schließlich sollten die Anwender von Windows 3.x nicht in das Lager des Konkurrenten OS/2 abwandern. Insider der Branchen spöttelten schon aufgrund der ewigen Ankündigungen von Windows NT, das NT stehe für „Never There”. Wie zutreffend uns die drei Argumente diesen (Software-) Fall erschließen können, kann auch dieser kurzen Schilderung entnommen werden. Nicht nur das zeitweilige Preisdumping von Seiten der IBM infolge der exklusiven Verwertungsrechte, die ja insbesondere für Entwicklungen im Bereich der Software urheberrechtlich zugesichert werden, auch die Ankündigung von Windows NT durch Microsoft ist offensichtlich eine gute Antwort darauf, warum sich die beteiligten Unternehmen so und nicht anders verhalten und welche Faktoren den Prozeß der Marktstandardisierung lenken. Kurz gesagt, die Argumente erfassen die Ursachen dieser Standardisierung in scheinbar richtiger Weise.

    Google Scholar 

  75. Wicksell, Knut, 1896, S. 100.

    Google Scholar 

  76. Samuelson, Paul A., 1954, S. 387.

    Google Scholar 

  77. Samuelson, Paul A., 1955, S. 350.

    Google Scholar 

  78. Kindleberger, Charles P., 1983, S. 377.

    Google Scholar 

  79. Leibenstein, Henry, 1950, S. 190.

    Google Scholar 

  80. Einer der Ökonomen, die mit dem Einfluß einer abhängigen (interdependenten) Nachfrage das Kaufverhalten bei neuartigen Gütern erklären, ist James S. Duesenberry. Er schreibt: If neither income nor price nor autonomous changes in taste account for the growth of sales… of new products, how can we account for it? A self-generating shift in preferences seems to be the answer. We have already shown that every individual’s preferences are dependent on the actual purchases of other individuals. If the interdependence involves a lagged shift in preferences a selft-generating growth in demand will result“ [Duesenberry, James S., 1952, S. 1051.

    Google Scholar 

  81. Rohlfs, Jeffrey, 1974, S. 16, Hervorhebungen vom Verfasser.

    Google Scholar 

  82. Samuelson, Paul A., 1969 a, S. 102, Hervorhebung vom Verfasser.

    Google Scholar 

  83. Artle, Roland, Averous, Christian, 1973, S. 99, Hervorhebung vom Verfasser.

    Google Scholar 

  84. Kindleberger, Charles P., 1983, S. 377.

    Google Scholar 

  85. Kindleberger, Charles P., 1983, S. 388, Hervorhebung vom Verfasser.

    Google Scholar 

  86. Samuelson, Paul A., 1954, S. 387/389, Hervorhebung im Original.

    Google Scholar 

  87. Lecraw, Donald J., 1984, S. 519.

    Google Scholar 

  88. Farrell, Joseph, Saloner, Garth, 1986 b, S. 943, Hervorhebung im Original. Um ein solches,Pinguin“-Verhalten auszuschalten, machen Philip H. Dybvig und Chester S. Spatt den originellen Vorschlag, mittels einer staatlichen Versicherung das abwartende Verhalten bei der Unterstützung neuer Standards zu überwinden: Our analysis suggests that government intervention can be used to remedy the two public good problems.… The subsidy scheme is insurance to adopters against the possibility that no or a few others adopt. With insurance, many agents adopt, so there are never any insurance claims, and the insurance is costless to provide” [Dybvig, Philip H., Spatt, Chester S., 1983, S. 232].

    Google Scholar 

  89. Carlton, Dennis W., Klamer, J. Mark, 1983, S. 448.

    Google Scholar 

  90. Kindleberger, Charles P., 1983, S. 388, Hervorhebung vom Verfasser.

    Google Scholar 

  91. Carlton, Dennis W., Klamer, J. Mark, 1983, S. 448.

    Google Scholar 

  92. Hoskins, Jim, 1987, S. 3/4.

    Google Scholar 

  93. Bradley, David J., 1990, S. 416, Hervorhebung im Original.

    Google Scholar 

  94. Bradley, David J., 1990, S. 416. Der IBM System /23 DataMaster war ein relativ unbekanntes, auf dem Intel 8085 basierendes (Mikrorechner-) System, das allerdings in vielerlei Hinsicht ein Lehrstück bei der Entwicklung des IBM PC’s war. Die Arbeiten am DataMaster wurden im August 1980 abgeschlossen, genau ein Jahr vor der Markteinführung des PC’s. Siehe dazu ebenfalls Brad Mit dem zuletzt gesagten ist der Nachweis abgeschlossen, daß eine Erklärung von (Computer-) Standards, wie sie in der vorliegenden, literaturbekannten Fassung aus der Theorie öffentlicher Güter abgeleitet wurde, wenig zufriedenstellend ist, und dies selbst dann, wenn man einmal von den Schwierigkeiten absieht, die sich auf die irreführende Definition öffentlicher Güter anhand fehlender Konsumrivalität gründen. Die Antworten, die man hier bestenfalls erhalten könnte, sind entweder bedeutungslos (dann nämlich, wenn vermutet wird, das Schwarzfahrerproblem verstärke die Inkompatibilität) oder diese Antworten sind nicht zutreffend bzw. falsch (wenn das Schwarzfahrerproblem als für Inkompatibilität

    Google Scholar 

Download references

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 1994 Springer Fachmedien Wiesbaden

About this chapter

Cite this chapter

Jelten, H. (1994). Alternative Ansätze einer Theorie der Standardisierung. In: Computerstandards und die Theorie öffentlicher Güter. Neue betriebswirtschaftliche Forschung, vol 9. Gabler Verlag, Wiesbaden. https://doi.org/10.1007/978-3-663-09502-6_2

Download citation

  • DOI: https://doi.org/10.1007/978-3-663-09502-6_2

  • Publisher Name: Gabler Verlag, Wiesbaden

  • Print ISBN: 978-3-409-13180-3

  • Online ISBN: 978-3-663-09502-6

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics