Auszug
Das Informationsmanagement wird definiert als an den Zielen und Strategien des Unternehmens orientiertes, sowohl strategisch als auch operativ ausgerichtetes Führungshandeln, das auf die Planung, Steuerung und Kontrolle von Informationen und Informationsprozessen entlang der gesamten unternehmerischen Geschäftsprozesse — sowie bei einer Ausweitung der Betrachtungsperspektive auch entlang der unternehmensübergreifenden Wertschöpfungskette329 — fokussiert ist. Es sorgt für die Bereitstellung einer Informationsinfrastruktur, die der Erfassung, Aufbereitung und Verdichtung, Speicherung sowie übermittlung von Informationen dient.330 In dezentralisiert organisierten Unternehmen unterstützt das Informationsmanagement — vergleichbar dem Controlling — die Entscheidungen zentraler und dezentraler Entscheidungsträger und trägt darüber hinausgehend auch zur Beeinflussung des Informationsstandes weiterer, als strategisch relevant erachteter, unternehmensinterner und unternehmensexterner Stakeholder bei.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
In Abhängigkeit von der Zusammensetzung der Netzwerkpartner können diese „every effort involved in producing and delivering a final product or service, from supplier’s supplier to the customer’s customer“ (Supply-Chain Council, 2006a) umfassen.
Zur Bedeutung der Informationsbereitstellung für das Controlling vgl. auch Reichmann/ Kusterer (2007), S. 203–206.
Die Wirtschaftsinformatik hat sich als eigenständige Wissenschaftsdisziplin an der Schnittstelle zwischen der Betriebswirtschaftslehre und der ingenieurwissenschaftlich orientierten Informatik herausgebildet. Ihr Erkenntnisinteresse liegt auf den Informations-und Kommunikationssystemen in der Wirtschaft und der öffentlichen Verwaltung. Vgl. Wissenschaftliche Kommission der Wirtschaftsinformatik (1994), S. 80; Lehner (2001), S. 505–507 sowie Hansen/ Neumann (2005a), S. 101.
Vgl. im Unterschied zu diesem Verständnis Krcmar (2005, S. 211), dessen Ansicht zufolge die Informationsinfrastruktur aus einer technischen und aus einer organisatorischen Komponente zusammengesetzt ist.
Zur Semiotik vgl. z. B. Picot/ Reichwald (1991), S. 251 f. sowie Eco (2002), S. 28–44.
Vgl. als Beispiel für viele Lenz (2002), Sp. 732 sowie Krcmar (2005), S. 16 f.
Nachrichten liegen jedoch erst dann vor, wenn Sender und Empfänger den übertragenen Zeichen eine identische Bedeutung zuordnen, so dass ein semantisches übereinkommen besteht. Vgl. Picot/ Reichwald/ Wiegand (2003), S. 90.
Dem taxonomischen Modell der Semiotik zufolge können Informationen daher als zweckbezogene Daten bezeichnet werden, die dem Empfänger als Nachricht übermittelt worden sind. Vgl. Grob/ Reepmeyer/ Bensberg (2004), S. 33.
Wittmann (1959), S. 14 sowie etwa auch Lange (1978), S. 105.
Wittmann (1979), Sp. 2263.
Vgl. Picot/ Reichwald (1991), S. 245 f.
Vgl. zur Kritik am Informationsbegriff von Wittmann z. B. Bode (1997), S. 455–458.
Das Informationsverständnis von Wittmann (1979, Sp. 2263) kann daher als wahrheitsabhängig betrachtet werden.
Vgl. im Unterschied hierzu Coenenberg (1966, S. 20 f.), Wacker (1971, S. 42), Kosiol (1972, S. 175) und Berthel (1984, Sp. 1866), welche ihren Ausführungen einen nicht-menschengebundenen Informationsbegriff zugrunde legen und insofern dem allgemeinen Sprachgebrauch entsprechen, als Begriffen wie „Informationsverarbeitung“, „Informationssystem“ und „Informationsmanagement“ der Informationsbezug nicht aberkannt werden muss.
Insofern legt Wittmann, ebenso wie auch Szyperski (1980, Sp. 904) und Fickenscher/ Hanke/ Kollmann (1991, S. 2), ein individualistisch-subjektives Informationsverständnis zugrunde. Von diesem abzugrenzen ist ein objektives Informationsverständnis, demzufolge Informationen unabhängig vom individuellen Wissensstand des Informationsempfängers sind. Vgl. hierzu Kosiol (1972), S. 175.
Vgl. zu diesen Kritikpunkten insb. Bode (1997), S. 458.
Modifiziert nach Bode (1997), S. 452. Vgl. bereits auch Maier/ Lehner (1995), S. 251–255.
Vgl. Strassmann (1982), S. 75 f.; Eschenröder (1985), S. 90–94; Lachnit (1989), S. 52; Martiny/ Klotz (1990), S. 13–19; Keller (1995), S. 124–137; Wall (1999), S. 31–33 sowie Krcmar (2005), S. 18 f. Dabei bestehen zwischen den aufgelisteten Informationseigenschaften z. T. konfliktäre Beziehungen, so dass eine Eigenschaft auch zu Lasten einer anderen umgesetzt werden kann.
In der Betriebswirtschaftslehre hat sich die Einteilung der Produktionsfaktoren nach Gutenberg (1983, S. 3) in Elementarfaktoren und dispositive Faktoren durchgesetzt. Den Elementarfaktoren objektbezogene Arbeitsleistung, Betriebsmittel und Werkstoffe werden die dispositiven Faktoren Planung, Organisation sowie Betriebs-und Geschäftsleitung gegenübergestellt.
Vgl. als Beispiele für viele Mag (1984), Sp. 1882 f.; Kern (1992), S. 15–16; Bode/ Zelewski (1992), S. 600 f.; Krcmar (1996), Sp. 720; Hildebrand (2001), S. 2; Pietsch/ Martiny/ Klotz (2004), S. 18 sowie Heinrich/ Lehner (2005), S. 223.
Witte (1972), S. 64.
Vgl. Pfeiffer (1990), S. 8 sowie Bode (1997), S. 462.
Auf die Problematik der Kosten-/ Nutzenermittlung für Informationen soll nicht weiter eingegangen werden. Auch das dabei möglicherweise auftretende Informationsparadoxon wird nicht beschrieben. Vgl. hierzu Arrow (1974), S. 39–43 sowie Buxmann (2001b), S. 8–11.
Vgl. Grob/ Reepmeyer/ Bensberg (2004), S. 34.
Vgl. Pietsch/ Martiny/ Klotz (2004), S. 43 f.
Vgl. von Krogh/ Roos (1995), S. 1. Platon zufolge existiert ein in der Welt vorhandenes, objektives und wahres Wissen, das sich der Mensch erkennend erschließen kann. Wissen entspricht somit der Einsicht des Individuums in die Weltzusammenhänge. Siehe bspw. Jaspers (1988), S. 234.
Kant (1924), S. 1.
Kant (1924), S. 1.
In seiner Erkenntnistheorie weist Kant auf die Abhängigkeit menschlicher Erkenntnis vom Erkenntnisvermögen auf Basis der vorhandenen Strukturen des Bewusstseins hin. Kant zufolge ist Erkenntnis nur von der Erfahrung aus möglich. Das aus diesem Erkennen hervorgehende Wissen ist individuell und variiert mit der Veränderung des Bewusstseins des Einzelnen durch zunehmende oder neue Erfahrungen. Vgl. Jaspers (1988), S. 397.
Vgl. hierzu auch die Theorie des kommunikativen Handelns von Habermas (2001, S. 35–57). Sie fordert, dass Inhalte der Kommunikation begründbar und kritisierbar sind.
Vgl. Comte (1994), S. 23–44.
Wissen ist nach Popper (2005, S. XXXIII f.) „ein kritisches Raten; ein Netz von Hypothesen; ein Gewebe von Vermutungen“.
Wissen ist konsensual, für jeden Menschen unter vergleichbaren Bedingungen nachvollziehbar, und relativ zur Sozialisation. Vgl. Glasersfeld (2003), S. 22 f. sowie Riempp (2004), S. 59.
Wissen repräsentiert eine Wirklichkeit, die sich „gemäß den konkreten biologischen, kognitiven und soziokulturellen Bedingungen, denen sozialisierte Individuen in ihrer sozialen und natürlichen Umwelt unterworfen sind“ (Schmidt 1994, S. 595), konstruiert. Nach Luhmann (1992, S. 167–175) ist dabei grundlegend zwischen Wissen und Wahrheit zu differenzieren, denn was als „wahres Wissen“ zu gelten hat, kann seiner Ansicht zufolge nur durch ein Beobachten zweiter Ordnung entschieden werden.
Vgl. z. B. Maturana (1985), S. 297–311; Luhmann (1988), S. 47–52; Foerster (1993), S. 299–336; Fischer (1995), S. 20 sowie Glasersfeld (1996), S. 96.
Vgl. Piaget (1971), S. 25–41 und 151–180. Durch reflektierende Abstraktion können Menschen innere Strukturen und Gesetzmäßigkeiten erkennen, die sie — als Voraussetzung für abstraktes Denken — zu „Wenndann“-Konstrukten zusammenfassen. Vgl. Glasersfeld (1996), S. 151–185.
Vgl. Einstein/ Infeld (1968), S. 54.
Vgl. hierzu im Einzelnen Newell/ Simon (1972), S. 49 sowie Baumgartner/ Payr (1994), S. 105.
Durch die Fokussierung auf den Prozess der Informationsverarbeitung steht der Kognitivismus in Relation sowohl zum Forschungsgebiet der Künstlichen Intelligenz als auch zur Wissensbildung durch entdeckendes Lernen, bei dem mentale Schemata durch Exploration entstehen. Vgl. Baumgartner/ Payr (1994), S. 104 sowie Edelmann (2000), S. 214.
Vgl. Berger/ Luckmann (2004), S. 1–20.
Vgl. z. B. Mannheim (1959), S. 659–680; Scheler (1980), S. 52–59; Wiegand (1996), S. 164 sowie Knoblauch (2005), S. 338 f.
Vgl. James (1994), S. 73–105; Nagl (1998), S. 58–65 sowie Dewey (2002), S. 54–61.
Davenport/ Prusak (1998), S. 32.
Probst/ Raub/ Romhardt (2006), S. 22.
North (2005), S. 33.
North (2005), S. 33.
Vgl. Anlitz (1999), S. 180–184; North (2005), S. 33–35 sowie Dittmann/ Peters/ Zelewski (2005a), S. 346 f. Zu computergestützten Kompetenzmanagementsystemen siehe Zelewski (2005a), S. 315–343.
Vgl. hierzu Polanyi (1983), S. 1–25.
Dieses Wissen enthält zu einem großen Teil mentale Modelle, durch die Individuen ihre Welt subjektiv wahrnehmen und definieren. Vgl. Krcmar (2005), S. 482.
Implizites Wissen stellt damit eine handlungsweisende Problemlösungskapazität dar, ohne dass die zugrunde liegenden Lösungswege im Detail formal begründet werden können. Vgl. Polanyi (1966), S. 4; Rupprecht-Däullary (1994), S. 115 sowie Bendt (2000), S. 16–18.
Vgl. hierzu z. B. Leonard-Barton/ Sensiper (1998), S. 113 sowie kritisch Schreyögg/ Geiger (2005), S. 433–454.
Vgl. hierzu im Einzelnen Nonaki/ Takeuchi (1997), S. 73–87; Jänig (2004), S. 247–266; Maier (2004), S. 133–230 sowie kritisch Romhardt (1998), S. 34 und Morawietz (2002), insb. S. 81–84.
Das Wissen dringt in höhere ontologische Schichten vor, indem es „ausgehend von der individuellen Ebene sukzessive weitere Interaktionsgemeinschaften erfasst und die Grenzen von Sektionen, Abteilungen, Divisionen und sogar Unternehmen überschreitet“ (Nonaka/ Takeuchi (1997), S. 86). Vgl. aber auch Roehl (2001), S. 79–83 und Haun (2002), insb. S. 188–191 sowie zur Einführung in das Themenfeld der „Ontologien“ Zelewski (2005b).
Vgl. hierzu als Überblick Przygodda (2005), S. 59–95 sowie die dort angegebene Literatur.
Vgl. zum organisationalen Lernen insb. Argyris/ Schön (1996), S. 20–33; Schüppel (1996), S. 13–42; Probst/Büschel (1998), S. 15–28 und 47–52; Stotz (1999), S. 7–60; Pieler (2003), S. 110–113; Dittmar (2004), S. 31–86 sowie Nübel (2005), S. 26–29. Eicker/ Gartner/ Schuller (2003, S. 790–796) schlagen ein Konzept zur elektronischen Unterstützung von Lernprozessen vor.
Vgl. als Beispiele für viele Voß/ Gutenschwaiger (2001), S. 15; Matiaske/ Nienhüser (2005), S. 132 sowie Stahlknecht/ Hasenkamp (2005), S. 85.
Die Ausdehnung der zwischenmenschlichen Kommunikation auf technische Aspekte erfolgte zunächst unbeabsichtigt, indem der anglo-amerikanische Begriff „communication“ fälschlicherweise dem deutschen Begriff der Kommunikation gleichgesetzt wurde. Hier erscheint die Bezeichnung „Datenübertragung“ angemessener. Vgl. Lehner (1995), S. 142 sowie Gabriel/ Beier (2003), S. 37.
Vgl. hierzu das aus der mathematischen Kommunikations-und Informationstheorie stammende Kommunikationsmodell von Shannon (1998), das den Kommunikationsvorgang zwischen Sender und Empfänger auf syntaktischer Ebene beschreibt.
Vgl. Reichwald (1993), Sp. 2175 sowie Hierdeis (2003), S. 13–16.
Reichwald (1993), Sp. 2175.
Voraussetzung ist, dass sich die Kommunikationspartner an einem gemeinsam verbindlichen Muster wechselseitiger Verhaltenserwartungen orientieren. Vgl. Joas (1991), S. 138.
Vgl. als Beispiele für viele Reichwald (1993), Sp. 2177 sowie Oelsnitz/ Hahmann (2003), S. 55 f.
Vgl. Watzlawick/ Beavin/ Jackson (2003), S. 56.
Vgl. hierzu auch Schmidt (2004), insb. S. 55–57.
Vgl. Wahren (1987), S. 79–87 sowie Watzlawick/ Beavin/ Jackson (2003), S. 53–56.
Vgl. z. B. Scholz (2000a), S. 288–307.
Zur Abgrenzung von technischen und sozio-technischen Systemen vgl. z. B. Haberfellner (1975), S. 18 f.
Vgl. z. B. Wissenschaftliche Kommission der Wirtschaftsinformatik (1994), S. 80; Alpar/ Grob/ Weimann/Winter (2002), S. 28 sowie Hansen/ Neumann (2005a), S. 84.
Vgl. Küpper (2005), S. 127 f. sowie Horváth (2006), S. 317–322. In der Literatur zum rationalitäts-und zum reflexionsorientierten Controlling wird das Informationssystem nur wenig beachtet. Informationsbezogene Ausführungen sind auf die Abgrenzung der Information und die Analyse der Informationsversorgung fokussiert. Vgl. Weber (2004), insb. S. 99–144 sowie Pietsch/ Scherm (2004), insb. S. 540 f.
Vgl. z. B. Riemann (2001), insb. S. 311; Gabriel/ Beier (2003), S. 45 f. sowie Krcmar (2005), S. 25 f.
Vgl. Küpper (2005), S. 156 sowie Horváth (2006), S. 318, wobei Horváth den Begriff des „Informationsversorgungssystems“ verwendet, um informelle Informations-und Kommunikationsbeziehungen auszugrenzen.
Vgl. Weber (2004), insb. S. 145–306; Küpper (2005), insb. S. 128–187 sowie Horváth (2006), insb. S. 332–637.
Horváth (2006), S. 659.
Vgl. Schiller (2000), S. 3 f.
Reichmann (2006), S. 684.
Vgl. Palloks (2006), S. 506–524.
Vgl. hierzu als Beispiele für viele Bertalanffy (1971), S. 3–29; Flechtner (1970), S. 107; Baetge (1974), S. 11 sowie Ackoff/ Emery (1975), S. 18.
Vgl. Ulrich (1970), S. 107; Kiener (1973), S. 13 f. sowie Haberfellner (1975), S. 8.
Vgl. Beer (1966), S. 250; Ulrich (1970), S. 113 f. sowie Kiener (1973), S. 15 f.
Zur Einteilung in Administrations-, Dispositions-und Führungssystemen vgl. als Beispiele für viele Rautenstrauch/ Schulze (2003), S. 286 f.; Grob/ Reepmeyer/ Bensberg (2004), S. 272–275; Mertens (2005), S. 12 sowie Lachnit/ Müller (2006), S. 18.
Vgl. hierzu etwa Stahlknecht/ Hasenkamp (2005), S. 334–382.
Vgl. hierzu die Ausführungen in Kap. 3.3.2.2. Ein Vergleich von ARIS mit anderen Ansätzen erfolgt in Scheer (2002), S. 132–146. Die unternehmensübergreifende Integration von Informationssystemen wird in Kap. 4.4.2 thematisiert.
Vgl. hierzu z. B. Buxmann (2001a), S. 434 f.
Vgl. hierzu im Einzelnen Kaib (2002), insb. S. 79–83; Linthicum (2003); Schmietendorf/ Lezius/ Dimitrov/Reitz (2003), S. 377–387; Aier/ Schönherr (2004), S. 10–41; Scheer/ Adam/ Erbach (2005), S. 8–10 sowie Vogler (2006), S. 52–57.
Überschneidungen zu den Informationssystemen sind nicht vermeidbar. Insb. der Informationsfluss zwischen Anwendungssystemen lässt eine Abgrenzung der Informationssysteme von der Informationstechnik schwierig erscheinen. Vgl. zum Verständnis der Informationstechnik bspw. Krcmar (2005), S. 27 sowie Stahlknecht/ Hasenkamp (2005), S. 11.
Die Bedeutung des Wortes „téchne“ wandelte sich im Zeitablauf. Während das Wort ursprünglich nur das angewandte Wissen im Bereich des Handwerks bezeichnete, umfasste es später auch das bewusste menschliche Handeln. „Von den Künsten des handwerklichen, materiellen Herstellens wurde téchne auf bewußtes Schaffen schlechthin — Ausüben, Wirken, Handeln [...] übertragen“, Seibicke (1968), S. 16.
Vgl. hierzu Krcmar (2005), S. 27.
Banse/ Striebing (1997), S. 871.
Kurrer (1990), S. 534 f.
Rammert (1993), S. 11.
Vgl. Zahn (1993), S. 4; Gerpott (1999), S. 18 sowie Meißner (2001), S. 10.
Vgl. Pfeiffer (1990), S. 13; Specht (1993), Sp. 4155; Wolfrum (1994), S. 4; Pleschak/ Sabisch (1996), S. 7; Schröder (1996), S. 1995 sowie Gerpott (1999), S. 18.
Schiller (2000), S. 6.
Schiller (2000), S. 6.
Vgl. Schiller (2000), insb. S. 45–93, 121–154 sowie 172.
Wall (2006), S. 87.
Vgl. zu den folgenden Ausführungen Wall (2006), S. 79–82.
Wall (2006), S. 8.
Vgl. Wall (2006), S. 124.
Wall (2006), S. 112.
Wall (2006), S. 271.
Vgl. Wall (2006), S. 357–360 und 461–466.
Wall (2006), S. 458.
Wall (2006), S. 4.
Vgl. Wall (2006), S. 63–65 sowie auch Kap. 2.2.3.
Wall (2006), S. 307.
Vgl. Horton (1979), S. 99–121; Synnott/ Gruber (1981), S. 7–9; Szyperski/ Eschenröder (1983), S. 11 sowie Finke (1987), S. 364.
Vgl. hierzu Krcmar (2005), S. 28 sowie auch Schaefer (1993), S. 38.
Vgl. als Beispiel Heinrich/ Lehner (2005), S. 9 f.
Dabei ist das Personal Information Management auf den persönlichen Umgang mit Informationen am Arbeitsplatz fokussiert. Entsprechend handelt es sich primär um operative Aufgaben des Informationsmanagement, welche auf die individuelle Anwendung von Bürosystemen ausgerichtet sind. Vgl. z. B. Rautenstrauch (1997), S. 12 f.; Heinrich/ Lehner (2005), S. 9 sowie Stahlknecht (2005), S. 415–422.
Die Ansätze des technologieorientierten Informationsmanagement beschränken sich auf Entwicklung und Betrieb der technischen Informations-und Kommunikationsinfrastruktur. Vgl. z. B. Rautenstrauch/ Schulze (2003), S. 6; Schlögl (2001), S. 55–68 sowie die dort angegebene Literatur.
Das Management der Informatik ist auf den Auf-und Ausbau der personellen und der technischen Infrastruktur fokussiert. Vgl. z. B. Österle (1987), S. 24–31; Küting (1993), S. 93 f. sowie Wirz (2003).
Vgl. Krcmar (2005), S. 28–49.
Krcmar (2005), S. 49.
Vgl. Applegate/ McFarlan/ McKenney (2002), S. 15–38.
Vgl. Benson/ Parker (1985), S. 132 sowie Krcmar/ Reb (2000), S. 435 f.
Vgl. zu den folgenden Ausführungen insb. Krcmar (2005), S. 30 f.
Vgl. ähnlich Parker/ Benson/ Trainor (1988), S. 59.
Vgl. hierzu sowie zu den folgenden Ausführungen Earl (1996), S. 485–502.
In Anlehnung an Earl (1996), S. 489.
Vgl. hierzu im Einzelnen Henderson/ Venkatraman (1993), insb. S. 476.
Das aufgabenorientierte Verständnis des Informationsmanagement geht auf Heinrich/ Burgholzer zurück. Vgl. Heinrich/ Burgholzer (1987), S. 21–24.
Heinrich (1993), Sp. 1749.
Heinrich/ Lehner (2005), S. 21.
Hildebrand (2001, S. 79–82), Biethahn/ Mucksch/ Ruf (2004, S. 60–137) und Stickel (2001, insb. S. 4–6) legen ihren Arbeiten eine vergleichbare Systematisierung der Aufgaben des Informationsmanagement zugrunde.
Vgl. hierzu sowie zu den folgenden Ausführungen Heinrich/ Lehner (2005), S. 22 f. sowie S. 32–35.
Vgl. hierzu im Einzelnen Heinrich/ Lehner (2005), S. 73–322.
Vgl. im überblick Heinrich/ Lehner (2005), S. 35 f. sowie zum Benchmarking auf der Basis von Kennzahlen Schaefer (2004), S. 15 f.
Vgl. zu den folgenden Ausführungen Wollnik (1988), S. 37–42 sowie Riemer/ Klein (2006), S. 37–43.
Wollnik (1988), S. 34.
Wollnik (1988), S. 39 f.
Als Beispiel für den externen Informationseinsatz nennt Wollnik (1988, S. 40) die Kommunikation mit Behörden.
Vgl. Wollnik (1988), S. 38.
Krcmar (2005), S. 47.
Krcmar (2005), S. 48.
Krcmar (2005), S. 47.
Dabei definiert Krcmar (2005, S. 212) Technikbündel als „applikationsunabhängige Kombinationen von Basistechnik zur Realisierung spezieller Konzepte“. Basistechnik wiederum bezeichnet die Basiseinheiten der Informationstechnik zur Bereitstellung der Basisfunktionalitäten Verarbeitung, Speicherung und Kommunikation.
Vgl. Krcmar (2005), S. 47.
Wollnik weist lediglich darauf hin, dass die Beziehungen zwischen den Ebenen idealisiert als „Anforderungen“ und „Unterstützungsleistungen“ oder „Dienste“ zu bezeichnen sind. Vgl. Wollnik (1988), S. 39.
Vgl. hierzu im Einzelnen IBM (1988).
Vgl. hierzu Österle/ Brenner/ Hilbers (1992), insb. S. 33–37 sowie die dort angegebene Literatur.
Vgl. zu einer ähnlichen Aufgabengliederung auch Ward/ Griffiths/ Whitmore (1990), S. 438.
Entnommen aus Österle/ Brenner/ Hilbers (1992), S. 29.
Vgl. Hafner (2006), S. 80.
Die informationsbewusste Unternehmensführung soll — ausgehend von der unternehmerischen Sicht auf die Informatik — informationstechnische Potenziale erkennen und für die Lösung von Entscheidungsproblemen nutzen (z. B. Einsatz von Data Warehouse-Lösungen und OLAP-Konzepten zur entscheidungsorientierten Auswertung von Informationen). Das Management der Informatik schafft aus personeller und technischer Sicht die Voraussetzungen für die Entwicklung und den Einsatz der Informationsinfrastruktur, indem es etwa für die Bereitstellung von Personal, Hardware, Software und (IT-)Netzwerken sorgt. Vgl. Österle/ Brenner/ Hilbers (1992), S. 28–31 sowie Zarnekow/ Brenner (2004), S. 5 f.
Entnommen aus Österle/ Brenner/ Hilbers (1992), S. 44.
Vgl. Österle/ Brenner/ Hilbers (1992), insb. S. 64–69.
Zum Begriff des IT-Governance vgl. z. B. Meyer/ Zarnekow/ Kolbe (2003), S. 445–448 sowie Tjoa/ Karagiannis (2005), S. 18 f.
Vgl. Zarnekow/ Brenner/ Pilgram (2005), S. 62 f.
Dabei sind die Kontrollziele aus international anerkannten Standards und Empfehlungen abgeleitet. Vgl. zum Vergleich von CObIT mit internationalen Standards IT Governance Institute (2004).
Vgl. IT Governance Institute (2003), S. 36 f.
Vgl. Junginger (2005), S. 149 f. sowie Zarnekow/ Brenner/ Pilgram (2005), S. 63 f.
Vgl. Junginger/ Krcmar (2004), S. 23. Dem IT Governance Global Status Report zufolge ist CObIT weltweit 18% der befragten Unternehmen bekannt, lediglich 30% dieser Unternehmen setzen CObIT auch ein. Dabei wird der Zufriedenheitsgrad mit 73–91% angegeben.
Vgl. Office of Governance Commerce (2004), S. 5
Vgl. hierzu im Einzelnen Zarnekow/ Brenner/ Pilgram (2005), S. 55–61.
Vgl. ähnlich Office of Government Commerce (2002), S. 7.
Einer empirischen Untersuchung in deutschen Unternehmen zufolge kannten 63% von 118 antwortenden Unternehmen unterschiedlicher Größe und unterschiedlicher Branche bereits ITIL. Davon hatten 57% ihre IT-Prozesse bereits nach ITIL ausgerichtet, weitere 8% planten die Einführung von ITIL. Dabei kamen primär die kundennahen Supportprozesse Service Desk, Problem Management und Incident Management zur Anwendung. Die Mehrzahl der ITIL-Implementierung wurden als Erfolg gewertet. Vgl. hierzu im Einzelnen Kemper/ Hadjicharalambous/ Paschke (2004), S. 22–31.
Da der ITIL innovative, theoriebasierte Erkenntnisse fehlen, schlagen Hochstein/ Zarnekow/ Brenner (2004, S. 382–389) vor, ITIL nicht als Best Practice-, sondern als Common Practice-Referenzmodell zu bezeichnen. Vgl. zur Kritik an ITIL bspw. auch Hafner/ Schelp/ Winter (2006), S. 108 f.
Vgl. hierzu z. B. Gaulke (2006), S. 25 f.
Dies erscheint umso bedeutsamer, als empirischen Untersuchungen zufolge die Modellierung und Implementierung von Informationsprozessen entlang der unternehmerischen Geschäftsprozesse vielfach nur unvollständig erfolgt und zudem weder mit der Unternehmensstrategie noch mit den Informationsanforderungen der Benutzer abgestimmt ist. Vgl. als Beispiele für viele ITGI (2006).
Eine Perspektive beschreibt nach Frank (1994, S. 163–165) eine eingeschränkte, mehr oder weniger unbewusst subjektiv beeinflusste Konzeptualisierung von Realität, zugleich kennzeichnet sie — wie Luhmann (1977, S. 182) betont — die notwendige Einschränkung der Komplexität. Sie orientiert sich an Sichten von Aufgabenträgern auf den Untersuchungsgegenstand, wird aber auch analytischen Anforderungen an den Untersuchungsgegenstand gerecht.
Entsprechend sehen bspw. Gabriel und Beier (2003, S. 107) das Geschäftsprozessmanagement als wichtigen Bestandteil des Informationsmanagement an.
Interdependenzen zwischen den Perspektiven des Informationsmanagement sind somit unverkennbar. Eine Integration der Perspektiven in eine integrierte Konzeption erscheint folglich sinnvoll. Vgl. ähnlich auch Frank (1994), S. 168.
Vgl. Eicker (1996), S. 112 f.
Vgl. zur Definition des Begriffs der Multiperspektivität insb. Rosemann (1996), S. 229 f.
Wollnik (1986), S. 44.
Vgl. Frank (1994), S. 167 f.
Vgl. Frank (1994), insb. S. 168.
Vgl. Österle/ Winter (2003), S. 6.
Vgl. Österle/ Blessing (2003), S. 67 sowie Winter (2003), S. 93—95.
Vgl. Ferstl/ Sinz (1995), S. 209–220; Rolf (1998), S. 140–146 sowie Gabriel/ Beier (2003), S. 112–116.
Vgl. als Beispiele für viele Heinrich/ Lehner (2005) sowie Krcmar (2005).
Vgl. hierzu z. B. Welge/ Al-Laham (2003), S. 98 sowie Bamberger/ Wrona (2004), S. 111.
Dabei bezieht sich die Informationsstrategie auf die Gestaltungsobjekte des Informationsmanagement. Sie wird in der Literatur auch als Informatikstrategie oder als Informationsmanagementstrategie bezeichnet. Vgl. hierzu Hübner (1996), S. 111; Hildebrand (2001), S. 88–90; Stickel (2001), S. 28 sowie auch Heinrich/ Lehner (2005), S. 98.
Vgl. Porter (2000, 2002) sowie Bamberger/ Wrona (2004), S. 124–134.
Einen überblick über Modelle zum Ablauf sowie über Methoden zur Durchführung der strategischen Planung geben Bamberger/ Wrona (2004, S. 381–393). Sie können die Strategieentwicklung und-umsetzung unterstützen.
Aus der Sicht von Informationsmanagement und Controlling ist die Stärken-Schächen-Analyse in eine umfassendere „SWOT-Analyse“ zu integrieren, welche neben den Stärken („Strengths“) und Schwächen („Weaknesses“) der unternehmerischen Informationsinfrastruktur auch die Chancen („Opportunities“) und Risiken („Threats“) aus dem Unternehmensumfeld aufnimmt und deren Veränderung abschätzt. Vgl. Welge/ Al-Laham (2003), S. 187.
Vgl. Ulrich (1990), S. 62.
Vgl. zur Konkurrenzanalyse z. B. Kreikebaum (1997), S. 121–123; Thompson/ Strickland (2004), S. 150 f. sowie Bausch (2006), S. 195–214.
Vgl. zum Benchmarking z. B. Horváth/ Herter (1992), S. 4–11; Camp (1994), insb. S. 21–25; Töpfer/ Mann (1997), S. 31–75; Legner (1999), S. 20–29; Rehäuser (1999), S. 39–67 sowie Kajüter (2000), S. 115–129.
Vgl. hierzu sowie zu den folgenden Ausführungen Porter/ Millar (1985), 149–160 sowie Picot/ Reichwald (1991), S. 273–275.
Zur Operationalisierung der Informationsintensität differenzieren Porter und Millar zwischen der Informationsintensität in der Wertkette und der Informationsintensität in den Leistungen. Die Informationsintensität in der Wertkette beschreibt die Ausmaützung entlang der Geschäftsprozesse. Die Informationsintensität in der Leistung ist auf die Erläuterung von Produkten fokussiert. Sie umfasst bspw. den Beratungs-und Schulungsbedarf, die Dokumentation oder Produktinformation und den Anteil an Softwareunterstützung. Vgl. hierzu im Einzelnen Picot/ Reichwald/ Wigand (2003), S. 190.
Vgl. zu den Geschäftsbereichsstrategien im Einzelnen Bamberger/ Wrona (2004), S. 122–124.
Vgl. zur Analyse von Wettbewerbsbedingungen in der Branche im Detail Porter (2000), S. 28–36 sowie Welge/ Al-Laham (2003), S. 198–205.
Dabei ist die Technologieanalyse nur ein Ausschnitt aus der umfassenderen Umfeldanalyse, die sich darüber hinausgehend auch auf Einflüsse aus dem politisch-rechtlichen, ökonomischen und soziokulturellen Unternehmens-bzw. Kooperationsumfeld beziehen kann. Vgl. hierzu z. B. Farmer/ Richmann (1970), S. 25–31; Bosemann/ Phatak (1989), S. 26 sowie Hahn/ Hungenberg (2001), S. 337.
Vgl. Krystek (1987), S. 140 sowie Hahn/ Hungenberg (2001), S. 333 f.
Vgl. Ansoff (1976, S. 129–152), Bea/ Haas (2005), S. 294–307 sowie Krystek/ Müller-Stewens (2006), S. 175–193.
Zur strategischen Prognose vgl. Welge/ Al-Laham (2003), S. 293–302 sowie die zahlreiche dort angegebene Literatur.
Dies erscheint notwendig, da sowohl dass Wissen der Entscheidungsträger als auch ihre Vorstellungen vom informationsbezogenen (strategischen) Verhalten permanenten Veränderungen unterworfen sind. Vgl. Scholz (2000b), S. 66–68 sowie Bamberger/ Wrona (2005), S. 6.
Vgl. hierzu im Einzelnen Bamberger/ Wrona (2004), S. 364–374 sowie die dort angegebene Literatur.
Die Entwicklungsrichtungen der Informationsinfrastruktur können alternativ auch mit Hilfe der Bedeutungsmatrix von Cash/ McFarlan/ McKenney (1988, S. 23 f.) analysiert werden. Sie tragen die gegenwärtige und zukünftige Bedeutung der Informationsverarbeitung im Unternehmen entlang der vertikalen und der horizontalen Dimension der Matrix ab und klassifizieren die Bedeutung der Informationsinfrastruktur dann entsprechend den Quadranten „Unterstützung“, „Fabrik“, „Durchbruch“ und „Waffe“.
Vgl. hierzu z. B. Krcmar (1987), S. 228, Krüger/ Pfeiffer (1988), S. 9 sowie Picot/ Reichwald (1991), S. 275.
Vgl. zur Einteilung von Entwicklungsstrategien als Beispiele für viele Welge/ Al-Laham (2003), S. 440 f. sowie Bamberger/ Wrona (2004), S. 134–137. Szyperski (1981, S. 177–195) differenziert dagegen zwischen der aggressiven Entwicklungsstrategie, der moderaten Entwicklungsstrategie, der Momentum-und der Defensivstrategie. Diese Differenzierung wird von Heinrich/ Lehner (2005, S. 98 f.) sowie von Krcmar (2005, S. 293 f.) übernommen.
Handlungsspielraum besteht hier insb. für große Unternehmen, deren spezifischer Technologiebedarf vom Anbieter wirtschaftlich vertretbar realisiert werden kann. Einen Entwicklungsdruck hat bspw. die Chrysler Corp. auszuüben versucht, indem sie über mehrere Jahre hinweg Ausschreibungen für ein Satellitenkommunikationssystem zur Unterstützung des Bestandsmanagement in den Teilelagern der Händler versandt hat, wohl wissend, dass diese Technologie auf dem Markt noch nicht verfügbar war. Vgl. zu diesem Beispiel Hammer/ Champy (1995), S. 131 f.
Vgl. insb. Ciborra (1994), S. 3–6.
In diesem Zusammenhang kommt dem Innovationsgrad der Informationstechnologie bei relativ „starren Marktverhältnissen“ eine besondere Bedeutung zu. Vgl. Bamberger/ Wrona (2004), S. 135.
Dabei misst die Ressourcenstärke den Beitrag der Informationstechnologie zur Beeinflussung der Wettbewerbsfaktoren (z. B. prozentuale Senkung der Kosten der Leistungserstellung, Reduzierung der Durchlaufoder Servicezeiten, Verbesserung der Qualität). Vgl. ähnlich Heinrich/ Lehner (2005), S. 335.
Vgl. hierzu Porter (2000), S. 243–255.
Der Berechnung des Stakeholder Value kann die bereits seit Jahren im Zusammenhang etwa mit der Ermittlung der einzelwirtschaftlichen Einkommensverteilung diskutierte Wertschöpfungsrechnung zugrunde gelegt werden. Der Stakeholder Value gibt damit den Beitrag der jeweiligen Stakeholder zur unternehmerischen Wertschöpfung an und kann ökonomisch als Barwert der über mehrere Perioden hinweg ermittelten Differenz zwischen monetarisierten Stakeholdernutzen und-kosten errechnet werden. Hierbei liegt es nahe, den Stakeholder Value in Anlehnung an die von Lange vorgeschlagene Wertschöpfungs-Verwendungsrechnung in Teilgrößen aufzusplitten. Vgl. Lange (1989), S. 247 f. sowie Lange (2000), S. 1034–1036.
Vgl. Zangenmeister (1976), S. 45 f. sowie Saaty (1990), S. 9–26.
Vgl. Franke/ Hax (2004), S. 252–279; Brealey/ Myers/ Franklin (2006), S. 244–266 sowie Schaefer (2007).
Vgl. Sommerlatte (2000), S. 237 f. sowie Krcmar (2005), S. 315.
Vgl. Schaefer (2003a), S. 332 f. sowie Gälweiler (2005), S. 204–221. Voraussetzung ist die Dokumentation möglichst aller in die Strategieentwicklung und die sich daran anschließende IT-Planung eingehenden Prämissen sowie die Auswahl der „kritischen“ Prämissen, denen Kontrollrhythmen zugeordnet werden.
Vgl. Davenport (1993), S. 5 f. sowie Hammer/ Champy (1995), S. 52.
Vgl. Porter (2002), S. 62.
Vgl. als Beispiel für viele Krüger/ Homp (1997), S. 34.
Während das Business Process Reengineering auf die Modellierung von ausgewählten Geschäftsprozessen ausgerichtet ist, bezieht sich das Business Reengineering auf die ganzheitliche Gestaltung des Unternehmens. Die Begriffe werden jedoch nicht einheitlich verwandt. Hammer/ Champy (1995, S. 102–109), Matern (2003) und Osterloh/ Frost (2006) wählen den Begriff des Business Reengineering, Harvey (1994), Hunt (1994), Morris/ Brandon (1994) und Obeng/ Crainer (1994) reduzieren diesen auf das Reengineering. Johansson/ McHugh/ Pendlebury/ Wheeler (1993), Servatius (1994), Perlitz (1995), Tsai (2003) und Haid (2004) verwenden der Begriff des Business Process Reengineering, Harbour (1993) den des Process Reengineering.
Vgl. Hammer (1990), S. 104–112.
Vgl. Hammer/ Champy (1995), S. 69 sowie Davenport (1993), insb. S. 153–164.
Zahlreiche Praxisbeispiele haben gezeigt, dass das Business Process Reengineering dem Anspruch, durch die radikale Umgestaltung der Prozessabläufe große Verbesserungspotenziale aufzudecken, vielfach nicht gerecht werden konnte. Daher kommt auch Hammer zu dem Ergebnis, dass in Abhängigkeit vom Einzelfall eine permanent durchgeführte, inkrementelle Prozessverbesserung vorzuziehen ist. Vgl. Hammer (2001a), S. 52 f. sowie Hammer/ Champy (2001), S. 239.
Österle bezeichnet ein auch das Business Improvement umfassendes Business Reengineering als Business Engineering. Vgl. z. B. Österle/ Winter (2003), S. 7–14.
Für die Erweiterung des Business Reengineering um kontinuierliche Verbesserungsprozesse findet auch der Begriff des Business Process Management Verwendung. Vgl. hierzu z. B. Lee/ Dale (1998), S. 216; Kim/ Ramkaran (2004), S. 30 sowie Hugos (2006), S. 119 f.
Vgl. Österle/ Blessing (2003), insb. S. 67 und 87.
Dabei steht das X für „crossing boundaries between organizations“, Champy (2002), S. 2.
Champy (2002), S. 3. In den beteiligten Unternehmen sind Kernprozesse zu identifizieren und Alleinstellungsmerkmale (z. B. Preis, Qualität, Service) zu formulieren. Zudem sind das Ausma die „Spielregeln“ der Zusammenarbeit von Partnern entlang der Wertschöpfungskette festzulegen. Vgl. auch Horváth/ Mayer (2002), S. 52 f.
Alt/ Fleisch (2002), S. 64.
Vgl. z. B. Buxmann/ Ahsen/ Martín Díaz/ Wolf (2004), S. 296.
Werkzeuge, genauer Softwareentwicklungswerkzeuge, sind Computerprogramme, die — unter der Bezeichnung CASE (Computer Aided Software Engineering) — die Entwicklung von Anwendungssystemen unterstützen. Vgl. Stahlknecht/ Hasenkamp (2005), S. 212 f.
Darüber hinausgehend ist das von Frank entwickelten Multi-Perspective Enterprise Modelling (MEMO) zur multiperspektivischen Unternehmensmodellierung zu nennen. Vgl. hierzu Als Beispiele für viele Frank (2004), S. 373 sowie Frank (2007), S. 94–97.
Vgl. Österle/ Blessing (2005), S. 14 f.
Vgl. Scheer (2002), S. 4.
Vgl. Gabriel/ Knittel/ Taday/ Reif-Mosel (2002), S. 303 und 321 sowie Scheer (2002), 145 f.
Vgl. ähnlich Scheer (2002), S. 42. Die einem Haus gleichende Darstellung des ARIS-Konzeptes symbolisiert die ganzheitliche Betrachtungsweise, die ein Ineinandergreifen der einzelnen Teilmodule sowie die Berücksichtigung ihrer Interdependenzen verlangt.
Vgl. zu den folgenden Ausführungen insb. Scheer (2002), S. 38–43.
Es werden Beschreibungssprachen gewählt, die betriebswirtschaftlich verständlich, aber so weit formalisiert sind, dass sie der informationstechnischen Implementierung als Basis dienen können. Entsprechend werden dem Fachkonzept auch Datenbank-und Softwaresysteme zugeordnet. Vgl. Scheer (2002), S. 40.
Vgl. Scheer (1998), S. 16.
Vgl. hierzu sowie zu den folgenden Ausführungen insb. Scheer (2002), S. 33–37.
Organisationseinheiten werden nach den Kriterien „gleiche Funktion“ oder „gleiches Arbeitsobjekt“ gebildet. Vgl. Scheer (2002), S. 36 f. Die Begriff „Organisationssicht“ ist allerdings insoweit irreführend, als nur die Aufbauorganisation des Unternehmens abgebildet wird. Die Ablauforganisation kommt in der Steuerungssicht zum Ausdruck.
EPK sind in der Praxis weit verbreitet. Sie werden nicht nur in ARIS eingesetzt, sondern finden auch unabhängig von ARIS umfangreich Verwendung. Vgl. Schütte (1998), S. 99–109; Scheer (2001), S. 125–128; Gabriel/ Beier (2003), S. 110; Rautenstrauch/ Schulze (2003), S. 244 sowie Staud (2006), S. 59–228.
Vgl. z. B. Scheer (1998), S. 50 sowie Rosemann (2000), S. 60.
Als Konnektoren werden die Konjunktion (UND), die Disjunktion (exklusives ODER) und die Adjunktion (ODER) unterschieden. Vgl. Voß/ Gutenschwager (2001), S. 190 sowie Rautenstrauch/ Schulze (2003), S. 244 f.
Vgl. Schwarzer/ Krcmar (2004), S. 91.
Vgl. hierzu Gierhake (2000), S. 160–164 sowie Grob/ Reepmeyer/ Bensberg (2004), S. 287 f.
Die Objektorientierung war zunächst auf die objektorientierte Programmierung fokussiert. Dem der Programmierung vorangehenden Entwurf und der Analyse wurde erst Ende der 70er bzw. Ende der 80er Jahre ein objektorientiertes Vorgehen zugrunde gelegt. Vgl. Balzert (2001), S. 152.
Spezialisierung bezeichnet die schrittweise inhaltliche Verfeinerung einer Klasse in einem Top down-Vorgehen durch Ableitung von mehreren Subklassen mit zusätzlichen Daten und Funktionen. Generalisierung erfolgt in einem Bottom up-Vorgehen, indem durch schrittweise Abstraktion aus zwei (oder mehreren) Klassen eine übergeordnete Klasse hervorgehoben wird. Vgl. Pagel/ Six (1994), S. 525–527 sowie Balzert (2001), S. 202 f.
Der Schutz der Daten vor externer Manipulation wird auch als Datenkapselung bezeichnet. Vgl. Alpar/ Grob/ Weimann/ Winter (2002), S. 147.
Objekte werden zu einer Black Box, die nur erkennen lässt, was sie leistet und nicht wie die interne Verarbeitung erfolgt. Das Prinzip des Verbergens von Realisierungsdetails wurde 1972 von Parnas (1972, S. 1053–1058) formuliert und stellt einen zentralen Bestandteil der Software Engineering-Methodik dar.
Die ersten Methoden zur Objektmodellierung wurden 1986 publiziert. 1993 waren weltweit mehr als 40, 1996 mehr als 60 Methoden vorgestellt worden. Vgl. Riemann (2001), S. 420 f.
Die OMG ist eine Non Profit-Organisation mit mehr als 800 Mitgliedern, die neben Unternehmen aus der IT-Branche (z. B. Daimler AG, Fuijitsu-Siemens, HP, IBM, Oracle, SUN Microsystems) auch Universitäten und andere Forschungseinrichtungen umfasst. Fokussiert ist die OMG auf die Schaffung einer „Object Management Architecture“ (OMA), in der u. a. Anwendungsobjekte (als Server oder Clients) definiert werden und als Vermittler zwischen Objekten als Middleware ein „Object Request Broker“ implementiert wird. Diese Komponenten wurden 1992 unter der Abkürzung CORBA (Common Object Request Broker Architecture) standardisiert (vgl. Hümmer, 2001, S. 99 f.) und um die Definitionssprache „Interface Definition Language“ (IDL) zur programmiersprachenunabhängigen Beschreibung von Schnittstellen zwischen Objekten ergänzt. Auf dem CORBA-Standard basieren u. a. die von IBM unter den Abkürzungen SOM und DSOM (Distributed System Object Model) angebotenen Entwicklungswerkzeuge.
Vgl. zu UML bspw. Gässle/ Baumann/ Baumann (2000), insb. S. 41–43; Nüttgens/ Hoffmann/ Feld (2001), S. 197–203; Fowler (2003); Brügge/ Dutoit (2004), S. 53–98; Kastens/ Kleine Büning (2005), S. 178; Booch/ Rumbaugh/ Jacobson (2006), S. 18–21; Herden/ Gómez/ Rautenstrauch/ Zwanziger (2006), S. 57–65 sowie Oestereich (2006), S. 210.
Dabei ist die Object Constraint Language eine einfache formale Sprache, mit der UML-Modellen weitere Semantik hinzugefügt werden kann. Vgl. Oestereich (2006), S. 210 und 336.
Dabei handelt es sich allerdings nur um einen Ausschnitt aus der gesamten UML, der bei Bedarf standardkonform erweitert werden kann. Vgl. hierzu sowie zu den folgenden Ausführungen Herden/ Gómez/ Rautenstrauch/ Zwanziger (2006), S. 57 f. sowie Oesterreich (2006), insb. S. 209 f.
Dabei werden als Strukturdiagramme zumeist Klassen-, Objekt-, Paket-, Einsatz-und Verteilungs-, Komponenten-, Kompositionsstruktur-und Subsystemdiagramme diskutiert. Vgl. hierzu im überblick Hansen/ Neumann (2005a), S. 231–233; Herden/ Gómez/ Rautenstrauch/ Zwanziger (2006), S. 58 f. sowie im Detail Oesterreich (2006), S. 211-301.
Als Verhaltensdiagramme werden insb. Aktivitäts-, Zustands-, Sequenz-, Kommunikations-, Zeit-und Interaktionsübersichtsdiagramme differenziert. Vgl. im überblick Hansen/ Neumann (2005a), S. 238–245; Herden/ Gómez/ Rautenstrauch/ Zwanziger (2006), S. 59 f. sowie im Detail Oesterreich (2006), S. 302–334. Nicht einheitlich diskutiert wird die Zuordnung von Anwendungsfalldiagrammen (Use Case-Diagrammen). Sie werden in der UML-Spezifikation als Verhaltensdiagramme bezeichnet. Nach Oestereich fallen sie jedoch unter die Strukturdiagramme, da sie keine Abläufe und Verhaltensweisen, sondern nur die strukturellen Beziehungen zwischen Anwendungsfällen und Akteuren umschreiben. Vgl. hierzu Oestereich (2006), S. 211 und 213.
Vgl. Booch/ Rambaugh/ Jacobson (2006), S. 37–64.
Zur Beschreibung eines Softwaresystems müssen nicht alle genannten Diagrammarten eingesetzt werden. UML-Diagramme sind ein unterstützendes Hilfsmittel für einzelne Software-Entwicklungsphasen. Vgl. Dumke (2003), S. 417 sowie Herden/ Goméz/ Rautenstrauch/ Zwanziger (2006), S. 60.
Vgl. Riemann (2001), S, 424–429 sowie Oestereich et al. (2003), S. 160–162.
Vgl. auch Andres (2005), S. 2 f.
Vgl. Scholz (2004), S. 55. Als problematisch erscheint allerdings, dass die UML-Diagramme zumeist auf zentrale Aspekte der zu erstellenden Software fokussiert sind. Unwesentliche Aspekte werden vernachlässigt und sind dann — eine automatische Erstellung vorausgesetzt — auch kein Bestandteil des Quellcodes. Die Vollständigkeit der Software-Funktionalität kann nur gewährleistet werden, wenn die Komplexität der UML-Diagramme erhöht wird, was allerdings die Verständlichkeit der Darstellung beeinträchtigt.
Vgl. hierzu die Studie von Lyman/ Varian (2003, insb. S. 1 f.). Sie unterstreicht eindrucksvoll die explosionsartige Entwicklung der gespeicherten und kommunizierten Informationen weltweit. Der Studie zufolge wurden im Jahr 2002 etwa fünf Exabytes (1018 Bytes) an neuen Informationen auf physischen Datenträgern (Papier, Film, optische sowie magnetische Datenträger) gespeichert. Die Informationsmenge, die in jenem Jahr mittels elektronischer Kanäle (Telefon, Radio, Fernsehen und Internet) übertragen worden ist, wird auf 18 Exabytes geschätzt.
Vgl. so auch Schenk (2002), S. 572 f.
Vgl. z. B. Picot (1997), S. 178–182.
Dabei wird der Begriff der Informationslogistik — anders als bei Augustin (1990, S. 255) und Immoor (1998, S. 48–50) — auf Informationsprozesse bezogen, die vom Güterstrom unabhängig sind. Entsprechend ordnet Szyperski (1990, S. 79–95) die Informationslogistik als Analogon zur Realgüter-und Finanzlogistik ein. Nach Vo und Gutenschwager kann Informationslogistik als „der Teil des Informationsmanagement definiert werden, der sich mit der Bereitstellung, d. h. der Distribution und Allokation von Informationen beschäftigt“ (Vo, 2001, S. 307).
Vgl. Szyperski (1980), Sp. 904; Manecke/ Rückl/ Tänzer (1985), S. 31 f.; Berthel (1992), Sp. 873; Gmünden (1993), Sp. 1726 f.; Picot/ Reichwald/ Wigand (2003), S. 81 sowie Küpper (2005), S. 156.
Schröder/ Schettgen (2006, S. 187 und 189) verdeutlichen dies am Beispiel des sortimentspezifischen Informationsbedarfs.
Vgl. Koreimann (1976), S. 67 sowie Berthel (1992), Sp. 875 f.
Risikoscheue Entscheidungsträger haben tendenziell einen höheren (subjektiven) Informationsbedarf als risikofreudige Entscheidungsträger. Vgl. so auch Wall (2006), S. 47.
Auch der objektive Informationsbedarf ist letztlich subjektiv geprägt. Er ermittelt sich aus der Interpretation der Aufgabeninhalte durch die dem Aufgabenträger hierarchisch übergeordneten Akteure. Damit ist die Differenzierung von objektivem und subjektivem Informationsbedarf stets relativ zu betrachten und die Einstufung als objektiver oder subjektiver Informationsbedarf abhängig von der gewählten Perspektive. Vgl. zur Relativität des Informationsbedarfs Szyperski (1980), Sp. 907.
Infolge einer Veränderung des Unternehmensumfeldes können sich mit den Aufgabeninhalten und den Entscheidungsträgern auch die Informationsbedarfe verändern. Vgl. Szyperski (1980), Sp. 906.
Chwolka weist darauf hin, dass durch die Konkretisierung des Informationsbedarfs die in eine Entscheidung einzubeziehenden Informationen verbindlich festgelegt werden können. Vgl. Chwolka (2002), Sp. 730.
Dabei kann mit dem Konzept des Informationswertes die Preisobergrenze für die informationsbezogenen Aktivitäten des Informationsmanagement und des Controlling ermittelt werden. Vgl. Buxmann (2001b), S. 8–10 sowie Laux (2005), S. 345–372.
Vgl. Koreimann (1976), S. 71–141; Szyperski (1980), S. 910 f.; Berthel (1992), Sp. 879–885 sowie Küpper (2005), S. 162–169.
Für die Ermittlung des strategisch relevanten Informationsbedarfs der Unternehmensführung werden in der Literatur insb. die Methode der Kritischen Erfolgsfaktoren von Rockart (1979, S. 81–91) sowie das von IBM entwickelte Business Systems Planning diskutiert. Vgl. Welge/ Al-Laham (2003), S. 124–130; Heinrich/Lehner (2005), S. 344-357 sowie Krcmar (2ßß5), S. 196–199.
Vgl. hierzu sowie zu den folgenden Ausführungen Küpper (2005), S. 163–167.
Um zu messen, in welchem Ausmaß ders befriedigt worden ist, wird in der Literatur (z. B. Berthel (1992), Sp. 876) die Ermittlung des Informationsgrades vorgeschlagen. Er ist definiert als Quotient aus den vom Entscheidungsträger verwendeten Informationen und den für die Lösung eines Entscheidungsproblems erforderlichen Informationen. Der Informationsgrad hat jedoch nur eine eingeschränkte Aussagekraft. Aus ihm können allenfalls erste Hinweise auf mögliche Mängel der Informationsversorgung abgeleitet werden. Vgl. zur Kritik am Informationsgrad bspw. Chwolka (2002), Sp. 726 f.
Darüber hinausgehend kann zwischen originär erhobenen und derivativen, aus den Informationen bereits vorhandener Informationsquellen abgeleiteten Informationsquellen unterschieden werden. Vgl. Kramer (1962), S. 76 f. sowie Brönimann (1970), S. 65.
Das Informationsmanagement kann auch erwägen, mit Informationsvermittlern zusammenzuarbeiten. Dabei kann zwischen primären Informationsvermittlern, die direkt am Markt agieren (z. B. Datenbankanbieter, Informationsberater), und sekundären Informationsvermittlern, die organisationsintern Informationen verwalten, differenziert werden, wobei eine überschneidungsfreie Abgrenzung zumeist nicht möglich ist. Vgl. hierzu im Einzelnen Kuhlen (1995), S. 336 f.
Vgl. z. B. Eicker (1996), S. 59 f. sowie Lange/ Schaefer (1998), S. 311.
Der Begriff des Data Warehouse wurde vor allem von Devlin (1997, S. 20 f.) sowie von Inmon geprägt. Inmon definiert das Data Warehouse als „subject-oriented, integrated, nonvolatile, time-variant collection of data in support of management’s decision“, Inmon (2005), S. 29. Vgl. aber auch Holthuis (1998), S. 72–77; Jung/ Winter (2000), S. 4 f. und Mucksch (2002), S. 387–389 sowie kritisch Zeh (2003), S. 32–38.
Vgl. Eicker/ Jung/ Nietsch/ Winter (1997), S. 451; Mucksch/ Behme (1998), S. 44–48; Jung/ Winter (2000), S. 10–13 sowie Bauer/ Günzel (2004), S. 75–118.
Vgl. zum Data Mining im Einzelnen Chamoni (1999), S. 358–372; Lusti (2002), S. 259–279; Kemper/ Mehanna/ Unger (2004), S. 106–109 sowie Han/ Kamber (2006), insb. S. 146–150.
Vgl. Zeller (2003), S. 119–146.
Vgl. Eicker (1991), S. 3–9; Mucksch/ Behme (1998), S. 63–68; Wieken (1998), S. 275–315 sowie Bauer/ Günzel (2004), S. 68–70.
Vgl. zum Begriff der Metadaten z. B. Gómez/ Rautenstrauch/ Cissek/ Grahlher (2006), S. 9.
Zur Konkretisierung und Operationalisierung der datenbezogenen Qualitätssicherung sind zahlreiche Ansätze entwickelt worden. Vgl. als Beispiele für viele Lesca/ Lesca (1995), S. 33 f.; Redmann (1996), S. 17–35; Wang/ Strong (1996), S. 5–23; Königer/ Reithmayer (1998), S. 91–100; Alexander/ Tate (1999), S. 7–17; English (1999), S. 67–197 sowie Eppler (2006), insb. S. 46–55.
Damit bezieht sich das Informationsmanagement letztlich nicht nur auf das Data Warehouse. Es unterstützt auch das sog. Data Warehousing, verstanden als „Prozess der Zusammenführung und des Managements von Daten aus unterschiedlichen Quellen mit dem Zweck, eine einheitliche, detaillierte Sicht auf einen einzelnen Geschäftsbereich oder das gesamte Unternehmen zu erhalten“, Gardner (1998), S. 54 f.
Inkonsistenzen können bspw. darin bestehen, dass die Informationsquellen eine höhere Aktualität als die im Data Warehouse hinterlegten Daten aufweisen. Vgl. auch Reichmann (2006), S. 675.
Vgl. Mucksch/ Behme (1998), S. 45 f.; Vo (2001), S. 264–266 sowie Lusti (2002), S. 135–142.
Vgl. zur Datensicherheit und zum Datenschutz in Data Warehouse-Systemen z. B. Pernul (1995), S. 239–255; Burkert (2000), S. 117–125; Gerhardt/ Pohl/ Spruit (2000), S. 88–136; Hafner (2003), S. 149–166 sowie Rupprecht (2003), S. 113-147.
Vgl. z. B. Gluchowski/ Gabriel/ Chamoni (1997), S. 282 sowie Eicker (2001), S. 70 f.
Relationale Datenbanken basieren auf Tabellen. Tabellenübergreifende Operationen können mehrfach geschachtelte SQL-Anweisungen erfordern. Vgl. als Beispiel hierfür Holthuis (1998), S. 45.
Vgl. Codd/ Codd/ Salley (1993), S. 14. Vom OLAP-Konzept zu differenzieren ist das OLTP (Online Transaction Processing), das transaktionsorientiert die Abwicklung der operativen Geschäftstätigkeit unterstützt. Siehe hierzu Böhnlein/ Knobloch/ Ulbrich-vom Ende (2003), S. 170 sowie Chamoni/ Gluchowski/ Hahne (2005), S. 21.
Codd/ Codd/ Sally haben insgesamt zwölf Evaluierungsregeln bzw. 18 Merkmale aufgestellt, deren Erfüllung die OLAP-Fähigkeit von Informationssystemen gewährleisten soll. Vgl. hierzu Codd/ Codd/ Sally (1993), S. 14–25.
Vgl. zu FASMI insb. Pendse/ Creeth (2006). Die FASMI-Regeln sind weniger spezifisch als die Regeln nach Codd/ Codd/ Sally. Sie erlauben es, wesentlich mehr Informationssysteme dem OLAP zuzuordnen.
Dabei stehen als Operationen für die Navigation durch den Datenbestand „drill down“ (Wechsel in Konsolidierungsebenen mit einer höheren Detailtiefe, etwa für Zwecke der Abweichungsanalyse), „roll up“ (Wechsel in Konsolidierungsebenen mit stärkerer Informationsverdichtung), „slicing“ (Herausschneiden von Scheiben aus dem Würfel etwa zum Anzeigen von Tabellen) und „dicing“ (Heraustrennen von Teilwürfeln zur Betrachtung ausgewählter Attribute einzelner Dimensionen) zur Verfügung. Vgl. Holthuis (1998), S. 42–48 sowie Gómez/ Rautenstrauch/ Cissek/ Grahlher (2006), S. 16 f.
Standardberichte weisen zumeist fest vorgegebene, starre Strukturen und Inhalte auf. Sie sind aber auch mit variablen Strukturen realisierbar. Dann beziehen sich die Berichte auf Abweichungen (bspw. Plan-Ist-Abweichungen) oder auf die Unter-/ Überschreitung von Grenz-bzw. Schwellenwerten. Vgl. Mertens/ Griese (2002), S. 75–80.
Vgl. Gluchowski/ Gabriel/ Chamoni (1997), S. 216–221.
Vgl. hierzu im Einzelnen Bauer (2001), S. 34–36 sowie Großmann/ Koschek (2005), S. 34–36.
Vgl. z. B. Heinrich/ Lehner (2005), S. 409–411 und Krcmar (2005), S. 148–156 sowie die jeweils dort angegebene Literatur.
Vgl. hierzu im überblick Krcmar (2005), S. 149.
Vgl. Seibt (2001), S. 498.
Vgl. zum V-Modell XT als Beispiele für viele Rausch/ Broy (2006) sowie Höhn/ Höppner (2008).
Das Wasserfallmodell bezeichnet ein Entwicklungskonzept, in dem eine neue Phase erst dann begonnen werden darf, wenn die vorhergehende Phase vollständig abgeschlossen ist und die Phasenergebnisse validiert bzw. verifiziert worden sind. Graphisch werden die Phasen daher als Kaskaden, von links oben nach rechts unten, angeordnet. Vgl. hierzu z. B. Royce (1970), S. 1–9; Boehm (1988), S. 63 sowie Myerson (1996), S. 30 f.
Vgl. Boehm (1988), S. 61–72.
Vgl. Pietsch (2001), S. 428 f.
Die Integration des Prototyping in das Spiralmodell ermöglicht es, frühzeitig Fehler zu erkennen und den Benutzer in den Entwicklungsprozess einzubinden. Vgl. zum Begriff des Prototyping als Beispiele für viele Haberfellner et al. (2002), S. 63–67.
Vgl. ähnlich Boehm (1988), S. 123.
Vgl. hierzu Zuser/ Grechenig/ Köhle (2004), S. 91–96 sowie Kruchten (2005).
Dabei werden als Prozess-Workflows im Wesentlichen Geschäftsprozessmodellierung, Anforderungsanalyse, Analyse und Design, Implementierung, Test und Einsatz differenziert. Zur Unterstützung der Systementwicklung werden zusätzlich das Konfigurations-und Änderungsmanagement, das Projektmanagement und das Infrastrukturmanagement aufgenommen. Vgl. Kruchten (2005), S. 105–213.
Vgl. Beck (2005), insb. S. 35–117.
Das eXtreme Programming gilt als „leichtgewichtig“, da es keine vollständige Spezifikation der zu entwickelnden Lösung voraussetzt. Vgl. Ambler (2002), S. 6–15 sowie Cockburn (2003), S. 222–228.
Vgl. Jeffries/ Anderson/ Hendrickson (2001), S. 19–25 sowie Lippert/ Roock/ Wolf (2002), S. 4–19.
Im Einzelnen kann die Softwareentwicklung durch externe IT-Spezialisten, durch die unternehmensinterne IT-Abteilung oder — im Rahmen des sog. Enduser Computing — durch den Benutzer selbst erfolgen. Dabei gilt das Enduser Computing aus der Sicht des Informationsmanagement und Controlling als besonders problematisch. Es birgt die Gefahr eines unkontrollierten Einsatzes unterschiedlicher, z. T. nicht kompatibler Hard-und Softwarelösungen, kann zu Doppelentwicklungen führen und eine redundante, nicht aufeinander abgestimmte Datenhaltung mit sich bringen. Vgl. Schwarzer/ Krcmar (2004), S. 224.
Vgl. hierzu auch Baumöl/ Borchers/ Eicker et al. (1996), S. 192–194.
Vorschläge zur Konkretisierung dieser sechs Qualitätskriterien werden im Anhang der ISO/IEC 9126 (2001) unterbreitet. Vgl. aber auch Dunn (1993), S. 17–27; Stelzer (1998), S. 85; Heinrich/ Lehner (2005), S. 145 f. sowie Stahlknecht (2005), S. 310 f.
Vgl. z. B. McCall/ Richards/ Walter (1977), S. 157 f.
Als Beispiele für FCM-Modelle können das Modell der Deutschen Gesellschaft für Qualität e.V., das FURPS (Functionality-Usability-Reliability-Performance-Supportability)-Modell von Hewlett Packard, das CUPRIMDSO (Capability-Usability-Performance-Reliability-Installability-Mainatability-Documentation-Service-Overall Satisfaction)-Modell von IBM genannt werden. Vgl. Deutsche Gesellschaft für Qualität e.V. (1986); Grady/ Caswell (1987), S. 189 f. sowie Kan (2003), S. 98.
Vgl. im Einzelnen Basili/ Caldiera/ Rombach (1994), S. 528–532 sowie Solingen/ Berghout (1999), S. 41–81.
Vgl. Oskarsson/ Glass (1997), S. 55–95.
Vgl. Paulk/ Curtis/ Chrissis (1993), S. 8 f.
Dies ist darin begründet, dass das CMMI keinen spezifischen Entwicklungsprozess definiert, sondern lediglich Anforderungen an bzw. Kriterien für eine qualitativ hochwertige Entwicklung beschreibt. Vgl. hierzu im Einzelnen Curtis/ Hefley/ Miller (2002), S. 69; Chrissis/ Konrad/ Shrum (2004), S. 17–19 sowie Kneuper (2006), S. 31–80.
Vgl. Simon (1996), S. 633–641; Loon (2004), S. 81–126 sowie Hörmann/ Dittmann/ Hindel/ Müller (2006), S. 221–266.
Vgl. zu dem Instrumentarium im Überblick bspw. Baumöl (1999), S. 167–188; Balzert (2001), S. 78–93 sowie Burghardt (2002), S. 84.
Vgl. hierzu Boehm (1981), S. 57–73; Londeix (1987), S. 47 sowie Burkhardt (2002), S. 99–103.
Vgl. Boehm et al. (2000).
COCOMO II ist neben der Function Point-Methode eine in der Unternehmenspraxis weit verbreitete Softwaremetrik. Vgl. Balzert (2001), S. 86 und 91.
Vgl. Albrecht (1979), S. 83–92; Garmus/ Herron (2001), S. 33–68 und 83–91 sowie Poensgen/ Bock (2005), S. 133–151.
Vgl. Kargl (2000), S. 102–108 sowie Bundschuh/ Fabry (2004), S. 138 f.
Vgl. Sneed (1996), S. 133–140 sowie Heinrich/ Lehner (2005), S. 443.
Vgl. Eicker (1996), S. 91–94.
Vgl. zur Definition des Projektes DIN 69901, Teil 1, sowie Lange/ Schaefer (1992), S. 490.
Vgl. zur Netzplantechnik z. B. Lachnit (1994), S. 70–79; Baetge/ Mochty (1998), S. 546 f.; Runzheimer/ Cleff/ Schäfer (2005), S. 143–204; Burghardt (2006), S. 222–240 sowie Zimmermann/ Stark/ Rieck (2006), S. 135–147.
Vgl. zu den möglichen Ursachen für das Scheitern von IT-Projekten bspw. Staw (1997), S. 191–215; Keil/ Cule/ Lyytinen/ Schmidt (1998), S. 78; Kottula (2002), S. 177–179; Hertweck (2003), S. 132–134 sowie Gaulke (2004), S. 33 f.
Dabei sind insb. auch die Abhängigkeitsbeziehungen zwischen den im Unternehmen vorhandenen Komponenten der Informationsinfrastruktur zu beachten. Angesichts des Vorherrschens proprietärer Softwaresysteme kann ein Wechsel der Hardware-Technik nicht ohne grundlegende Veränderung der Softwaresysteme erfolgen. Vgl. Heinrich/ Lehner (2005), S. 159.
Zum organisationalen Lernen vgl. z. B. Mochty (1996a), Sp. 1084.
Vgl. zur Diffusion von Innovationen in sozialen Systemen z. B. Schmalen (1993), S. 776–787 sowie Rogers (2003), S. 23–35.
Vgl. hierzu im Überblick z. B. Freidank (2006), S. 175–179.
Vgl. als Beispiele für viele Meyer/ Zarnekow/ Kolbe (2003), S. 445 f. sowie Niemann (2005), S. 28 f.
Weill/ Woodham (2002), S. 1.
IT Governance Institute (2003), S. 7.
Vgl. hierzu die Vorschläge der IT-Grundschutz-Kataloge des Bundesamtes für Sicherheit in der Informationstechnik (2006).
Als Beispiele hierfür können Nicklisch (1912); Leitner (1915); Rieger (1928); Stadler (1932) sowie Knittel (1939) genannt werden.
Vgl. z. B. Elschen (1982), S. 324; Braun (1984), S. 22; Bonß (1995), S. 29; Pritzer (1999), S. 148; Weber/ Liekweg (2001), S. 460; Doupnik/ Richter (2003); Wolf (2003), S. 37; Hofmann (2004), S. 256 sowie Wencke Schröder (2005), S. 35.
Auf eine Beschreibung der unterschiedlichen Erklärungsansätze zum Risikobegriff soll in dieser Arbeit verzichtet werden. Vgl. hierzu im Überblick z. B. Form (2005), S. 18–23.
Vgl. hierzu Kupsch (1973), S. 26.
Vgl. Knight (1971), S. 19 f. sowie Karten (1972), S. 152.
Vgl. z. B. Hölscher (2000), S. 299; Kremers (2002), S. 13; Rogler (2002), S. 6; Bernecker/ Präuer (2006), S. 29 sowie Diederichs/ Kißler (2007) S. 83.
Vgl. z. B. Lück (2000), S. 315 f.; Form (2005), S. 25 sowie Junginger (2005), S. 107. Eine vergleichbare Differenzierung nehmen Weber/ Weißenberger/ Liekweg (1999, S. 1711) vor. Sie unterscheiden zwischen symmetrischen Risiken, die auch Chancen umfassen, und asymmetrischen Risiken, die lediglich Schadensgefahren darstellen.
Das reine Risiko gilt als das versicherbare Risiko, dem der Begriff der Schadensgefahr zugeordnet wird. Das spekulative Risiko ist dagegen nicht versicherbar, da dem Versicherer lediglich die Verlustkomponente zugewiesen und die Chancen beim Versicherungsnehmer verbleiben würden. Vgl. Farny (1979), S. 20 f.
Vgl. z. B. Fasse (1995), S. 69 f.; Ernst (1998), S. 1027; Wolf (2003), S. 42 sowie ähnlich Reichmann/ Form (2000, S. 192) und Pfohl (2002, S. 11), die zwischen exogenen und endogenen Risiken differenzieren.
Vgl. z. B. Hermann (1996), S. 29; Wyss (2000), S. 179 sowie Form (2005), S. 28 f. Mochty (1996b, S. 863 f.) grenzt vom Zeitbezug des Risikos das zeitbezogene Risiko ab. Dieses definiert er als Wahrscheinlichkeit, dass ein Ereignis nicht zum geplanten Zeitpunkt eintritt.
Vgl. Farny (1989), Sp. 1751; Wolf (2003), S. 43 f. sowie Junginger (2005), S. 107.
Zu den gesetzlichen und anderen regulatorischen Rahmenbedingungen der Implementierung eines Risikomanagement in Unternehmen vgl. als Beispiele für viele Diederichs (2004), S. 27–40; Form (2005), S. 111–121; Junginger (2005), S. 116–125 sowie die zahlreiche dort angegebene Literatur.
Vgl. z. B. Haller (1986), S. 31 f.; Hahn (1987), S. 139; Baetge/ Jerschensky (1999), S. 171; Diederichs (2004), S. 12 f. sowie Reichmann (2006), S. 622 und 626.
Vgl. zum Katastrophenmanagement Heinrich/ Burgholzer (2005), S. 273–286.
Zu Projektrisiken vgl. als Beispiele für viele Scherpner/ Form (2003), S. 547 f.
Vgl. insb. Vitale (1986); Loch/ Carr/ Warkentin (1992) sowie Junginger (2005), S. 136 f.
Gemessen an den bei Projektbeginn geplanten Kosten, Zeiten und Funktionalitäten wurden — den Untersuchungen der Standish Group (2004) zufolge — im Jahre 2004 nur 29 % der gestarteten Projekte erfolgreich abgeschlossen. 18 % der Projekte wurden abgebrochen. 53 % der Projekte waren durch negative Abweichungen von den geplanten Kosten, Zeiten oder Funktionalitäten gekennzeichnet. Diese Ergebnisse bestätigen frühere Untersuchungen der Standish Group. Vgl. Reske (2006), S. 74 f.
Zur Analyse der Risiken in IT-Projekten kann auf das von Hertweck (2003) entwickelte Konzept „Escalation of Commitment“ verwiesen werden. Hertweck (2003, insb. S. 30) gelangt zu dem Ergebnis, dass Projektrisiken nicht primär auf technische Probleme zurückzuführen sind. Es können vielmehr falsch verstandene Anforderungen, sozio-psychologische Faktoren seitens der Projektmitarbeiter (z. B. emotionale Bindung zum Projekt) und die organisatorische Einbettung des Projektes als wesentliche Risikofaktoren identifiziert werden.
Dabei empfiehlt es sich, Risikomanagement und Controlling stärker als bisher miteinander zu verknüpfen. Vgl. als Beispiele für viele Lachnit/ Müller (2003, S. 566 f.) sowie Freidank/ Paetzmann (2004, S. 11 f.).
Vgl. zu vergleichbaren Phaseneinteilungen Braun (1984), S. 64 f.; Lück (1998), S. 1926; Freidank (2000), S. 358–365; Krcmar/ Junginger (2003), S. 256; Horváth (2006), S. 749 sowie Reichmann (2006), S. 627.
Vgl. hierzu insb. Diederichs/ Form/ Reichmann (2004), S. 191 f.
Zur Problematik der Berechnung von Schadenserwartungswerten vgl. Gleißner (2004), S. 353.
Vgl. Lück (2000), S. 335.
Vgl. Wittmann (2001), S. 276; Schierenbeck/ Lister (2002), S. 351 sowie Brühwiler (2003), S. 128.
Vgl. hierzu sowie zu den folgenden Ausführungen Braun (1984), S. 107–113; Schnorrenberg/ Goebels (1997), S. 134–139; Horváth/ Gleich (2000), S. 112–114 sowie Weidemann/ Wieben (2001), S. 1793.
Vgl. Baetge/ Jerschensky (1999), S. 173 sowie Junginger (2005), S. 294 f.
Vgl. Braun (1984), S. 262; Lück (1998), S. 1928 sowie Schierenbeck/ Lister (2002), S. 370.
Vgl. zum Begriff der Nutzdaten Hansen/ Neumann (2005a), S. 8.
Es können aber auch — eine entsprechende IT-Kompetenz vorausgesetzt — von den zentralen Aufgaben-und Entscheidungsträgern mit vergleichsweise geringen Informationskosten und niedrigem Arbeitseinsatz entscheidungsrelevante Informationen beschafft und aufbereitet werden, so dass (mögliche) Gründe für die Delegation von Entscheidungsaufgaben entfallen. Vgl. Gurbaxani/ Whang (1991), S. 69.
Vgl. West/ Courtney (1993), S. 249.
Vgl. hierzu auch Wall (2006), S. 337.
Dabei kann die Partizipation in dem Informationsvorsprung dezentraler Aufgaben-und Entscheidungsträger begründet sein. Dies gilt insb. für die Formulierung von Anforderungen an Informationssysteme, die in dezentralen Organisationseinheiten eingesetzt werden. Vgl. zur Partizipation von Aufgaben-und Entscheidungsträgern z. B. Heinrich/ Lehner (2005), S. 421–430.
Rights and permissions
Copyright information
© 2008 Gabler | GWV Fachverlage GmbH, Wiesbaden
About this chapter
Cite this chapter
(2008). Controllinggerechte Ausgestaltung des Informationsmanagement. In: Controlling und Informationsmanagement in Strategischen Unternehmensnetzwerken. Gabler. https://doi.org/10.1007/978-3-8349-9933-7_3
Download citation
DOI: https://doi.org/10.1007/978-3-8349-9933-7_3
Publisher Name: Gabler
Print ISBN: 978-3-8349-1411-8
Online ISBN: 978-3-8349-9933-7
eBook Packages: Business and Economics (German Language)