Auszug
Die voran gegangenen Ausführungen haben gezeigt, dass Business Intelligence-Systeme höchst unterschiedliche Erscheinungsformen annehmen und zahlreiche betriebswirtschaftliche Aufgabenstellungen unterstützen können. Dennoch lassen sich Kriterien erarbeiten, welche für die Gestaltung und den Betrieb entsprechender Lösungen kennzeichnend sind. Ausgehend von den verschiedenen Reifegradstufen von Business Intelligence-Systemen (vgl. Abschnitt 9.1), die zur Einordnung und Bewertung konkreter Umsetzungen heran gezogen werden können, beleuchten die folgenden Abschnitte geeignete Vorgehensmodelle für den Aufbau und die Nutzung der Systeme (vgl. Abschnitt 9.2). Anschließend erfolgt die detaillierte Erörterung der einzelnen Phasen und Aktivitätsblöcke, die im Rahmen der Gestaltung und des Betriebs Relevanz aufweisen (vgl. Abschnitt 9.3).
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Zur IV-Strategie vgl. Gabriel/Beier (2003) sowie Krcmar (2005).
Vgl. Steria-Mummert (2006); Schulze/Dittmar (2006).
Vgl. Mellis/Stelzer (1999).
Vgl. Paulk/Weber/Curtis (1995).
Vgl. Bollinger/McGowan (1991).
Vgl. Suhr/Suhr (1993), S. 96.
Im Rahmen der vorliegenden Ausführungen wird dem Begriffsverständnis von Pomberger und Blaschek gefolgt, die Software Engineering definieren als “die praktische Anwendung wissenschaftlicher Erkenntnisse für die wirtschaftliche Herstellung und den wirtschaftlichen Einsatz qualitativ hochwertiger Software”. Pomberger/Blaschek (1993), S. 3. Alternative Abgrenzungen finden sich z. B. bei Boehm (1986), S. 13; Balzert (1989), S. 3.
Vgl. Hesse/Merbeth/Frölich (1992), S. 30; Balzert (1989), S. 17.
Vgl. Pomberger/Blaschek (1993), S. 24. Teilweise werden die Begriffe Life-Cycle-Modell und Wasserfallmodell auch synonym verwendet. Vgl. Goldammer (1994), S. 253.
Ein Überblick über unterschiedliche Phasenkonzepte findet sich bei Balzert (1989), S. 469.
Vgl. Suhr/Suhr (1993), S. 97.
Vgl. Pomberger/Blaschek (1993), S. 22.
Vgl. Balzert (2000).
Eine Übersicht über diese Vorgehensmodelle zur Gestaltung klassischer MSS-Systeme findet sich bei Walterscheid (1996), S. 105–113.
Entsprechende Vorgehensmodelle präsentieren u. a. Holthuis (1998), S. 206–228; Kemper u. a. (2004), S. 147–173; Poe/Reeves (1997), S. 79–98.
Vgl. Hansen (1997), S. 319.
Vgl. Heck-Weinhart/Mutterer/Herrmann/Rupprecht (2003), S. 201.
Vgl. z. B. Krcmar (2005), S. 238ff.; Gabriel/Beier (2003).
Vgl. Gehrke/Wendlandt/Sommer (2006).
Vgl. Totok (2006), S. 62. Allerdings finden sich ebenfalls Organisationsformen, in denen neben den aufgeführten Aktivitäten auch die Entwicklung, der Betrieb und der Support zu einer BI-Organisationseinheit gerechnet werden. Vgl. Kemper/Finger (2006).
Vgl. Totok (2006), S. 56.
Ein allgemeiner Kriterienkatalog zur Beurteilung von Data Warehouse-Lösungen findet sich beispielsweise bei Böttiger/Chamoni/Gluchowski/Müller (2001), S. 39–56.
Vgl. Küpper (2005), S. 156, Strauch/Winter (2002) S. 363. In diesem Sinne wird Informationsbedarf hier als Menge von objektiv relevanten Informationen verstanden. Hiervon abzugrenzen ist das (subjektive) Informationsbedürfnis sowie die tatsächlich nachgefragte Informationsmenge. Vgl. zur Abgrenzung Koreimann (1999); Groffmann (1992), S. 15f.
Vgl. Küpper (2005), S. 160f. Gemünden führt als weiteren Bestimmungsfaktor die angestrebte Lösungsqualität an. Vgl. Gemünden (1993), Sp. 1728.
Dazu trägt der Umstand bei, dass die späteren Nutzer ihren konkreten Bedarf oftmals nicht oder nur unzureichend artikulieren können. Vgl. Strauch/Winter (2002b), S. 362f.
Vgl. Reichmann (2006), S. 666.
Vgl. Küpper (2005), S. 163; Horvath (2006), S. 335–339.
Vgl. Berthel (1975), S. 13.
Vgl. Horvath (2006), S. 336.
Vgl. Küpper (2005), S. 167.
Vgl. Schirp (2001), S. 84.
Vgl. Chen (1976), S. 9–36; Schelp (2000), S.161; Totok (2000b), S. 124.
Ein (semantisch fragwürdiger) Vorschlag besteht darin, die Objekte einer elementbestimmten Dimension (wie beispielsweise „Plan“, „Ist“ und „Abweichung“) als Attribute einer Entitätsmenge („Szenario“) zu interpretieren. Vgl. Totok (2000b), S. 124f.
Vgl. Sapia/Blaschka/Höfling/Dinter (1998).
In Anlehnung an Sapia/Blaschka/Höfling/Dinter (1998), S. 9; Totok (2000b), S. 126f.
Vgl. Sapia (1999), S. 2.2–2.4.
Vgl. Sapia (1999), S. 2.7–2.8.
Vgl. Golfarelli/Maio/Rizzi (1998), S. 1–10.
Vgl. Golfarelli/Maio/Rizzi (1998), S. 2.
Vgl. Golfarelli/Maio/Rizzi (1998), S. 3f.
Vgl. Sapia (1999), S. 2.2–2.4.
Vgl. Bulos (1996), S. 33–37.
Vgl. Bulos (1996), S. 34–35.
Vgl. Totok (1998), S. 15; Totok (2000a), S. 199–203.
Vgl. Behme/Holthuis/Mucksch (2000), S. 216; Holthuis (1998), S. 186; Müller (2000), S. 100; Oehler (2006), S. 107.
Vgl. Bauer/Günzel (2004), S. 202ff.
Der Begriff resultiert aus der sternenförmigen Anordnung der beteiligten Tabellen. Vgl. Bauer/Günzel (2004), S. 2005; Holthuis (1998), S. 193.
Vgl. Gluchowski (1998a), S. 32–39.
Vgl. Hahne (2006), S. 191f.; McClanahan (1997), S. 67; Nußdorfer (1998), S. 23f. Bereits die Tabelle „Absatz“ in Abbildung 9/16 kann nach diesem Verständnis als Fakten-Tabelle bezeichnet werden, allerdings erfolgt in realen Modellen eher die Nutzung künstlicher, möglichst speicherschonender Primärschlüssel.
Kimball bezeichnet eine derartige Anordnung von Tabellen auch als „dimensional model“. Vgl. Kimball (1996), S. 10.
Eine derartige Vorgehensweise akzeptiert die Abkehr von der Normalformenlehre (vgl. Gabriel/Röhrs (1995), S. 123–131), wie sie bei der Gestaltung operativer Datenbanksysteme genutzt wird, zumal sich durch denormalisierte Dimensionstabellen Geschwindigkeitsvorteile beim Zugriff eröffnen.
Vgl. Bauer/Günzel (2004), S. 210. Hahne bezeichnet derartige selbstreferenzierende Tabellen als Parent-Child-Tabellen. Vgl. Hahne (2002), S. 114.
Vgl. Bauer/Günzel (2004), S. 203–205.
Vgl. McClanahan (1997), S. 67. Kurz verweist darauf, dass dann jedoch bei Abfragen u. U. viele verbundene Tabellen über Join-Operationen zu verknüpfen sind, was erhebliche Geschwindigkeitseinbußen mit sich bringt. Vgl. Kurz (1999), S. 164.
Nußdorfer unterscheidet sogar sieben unterschiedliche Typen von Faktentabellen, die für unterschiedliche Auswertungsziele angelegt werden können. Vgl. Nußdorfer (1998), S. 26.
Vgl. Bauer/Günzel (2004), S. 209; Hahne (2002), S. 140–143; Raden (1996); Schelp (2000), S. 170f.
Bislang wurde implizit unterstellt, dass sich in einer zentralen Faktentabelle alle quantitativen Größen finden lassen. Falls dies nicht nur die Detaildaten auf höchster Disaggregationsstufe, sondern auch verdichtete Größen sind, dann lässt sich ein derartiges Schema als konsolidiert bezeichnen. Vgl. Kurz (1999), S. 171f.
Vgl. Bauer/Günzel (2004), S. 209f.; Nußdorfer (1998), S. 23f.; Schelp (2000), S. 173. Alternativ werden derartige Strukturen auch Multi-Faktentabellen-Schema genannt. Vgl. Holthuis (1998), S. 194.
Oehler bezeichnet diese Ablageform als RAM-basiert. Vgl. Oehler (2006), S. 123.
Vgl. Kurz (1999), S. 330.
Im günstigen Fall läßt sich dadurch das Datenvolumen um den Faktor 100 gegenüber einer ASCII-Datei mit gleichem Informationsgehalt reduzieren. Vgl. Clausen (1999), S. 311; Thomsen (1997), S. 208.
Bauer und Günzel unterscheiden zwischen den Extrempositionen „real time processing“ und „batch processing“. Vgl. Bauer/Günzel (2004), S. 231.
Vgl. Chamoni/Gluchowski (2000), S. 359.
Vgl. Gluchowski/Chamoni (2006), S. 160.
Dieser Effekt verstärkt sich, wenn anstatt zwei mehr Dimensionen betrachtet werden und/oder die Dimensionen eine größere Anzahl an Hierarchieebenen aufweisen. Vgl. Behme/Holthuis/Mucksch (2000), S. 220.
Vgl. Chamoni/Gluchowski (2000), S. 358.
Eine Veranschaulichung des Problems der dünnen Besetzung findet sich bei Behme, Holthuis und Mucksch. Vgl. Behme/Holthuis/Mucksch (2000), S. 217–220; siehe auch Clausen (1998), S. 70–72.
Auf die Notwendigkeit zur effizienten Behandlung dünnbesetzter Matrizen weisen vor allem Codd, Codd und Salley hin. Vgl. Codd/Codd/Salley (1993).
Vgl. Buytendijk (1995), S. 9.
Einen Überblick über die gebräuchlichen Ablageverfahren geben Bauer und Günzel. Vgl. Bauer/Günzel (2004), S. 235–239. Clausen stellt weitere Techniken zur Ablage multidimensionaler Daten mitsamt den zugehörigen Vor-und Nachteilen vor. Vgl. Clausen (1999), S. 309f.
Vgl. Bauer/Günzel (2004), S. 236.
Vgl. Clausen (1999), S. 308f.
Vgl. Kimball/Reeves/Ross/Thornthwaite (1998), S. 587; Roti (1996), S. 3.
Vgl. Biethahn/Mucksch/Ruf (2004).
Vgl. Yazdani/Wong (1997), S. 122. Gegenüber dem einfachen B-Baum-Index zeichnet sich der B*-Baum-Index dadurch aus, dass sich Angaben über die jeweilige Position des Datensatzes nur auf der Blatt-Ebene des aufgespannten Baumes finden. Vgl. Bauer/ Günzel (2004), S. 261.
Vgl. Grandy (2002), S. 10.
Vgl. Behme/Holthuis/Mucksch (2000), S. 232; Roti (1996), S. 2. Die Kardinalität ist eine Maßgröße, welche die Anzahl unterschiedlicher Wertausprägungen einer Tabellenspalte mit der Anzahl aller Tabellenzeilen in Beziehung setzt. Somit sind B*-Baum-Indizes bei wenigen Wertwiederholungen in einer Tabellenspalte, wie etwa im Falle der Kundennamen in der Kundentabelle, oder bei Tabellenspalten, in denen die Ausprägungen nur einmalig auftreten, wie bei eindeutigen Primärschlüsseln (z. B. Kunden#), ausgezeichnet als Zugriffstechnik geeignet.
Vgl. Kimball/Reeves/Ross/Thornthwaite (1998), S. 588.
Vgl. Berson/Smith (1997), S. 180; Gluchowski (1998b), S. 17; Kimball/Reeves/Ross/ Thornthwaite (1998), S. 588; Kurz (1999), S. 257; Oracle (1997), S. 142.
Vgl. Grandy (2002), S. 18; Holthuis (1998), S. 202; Oracle (1997), S. 140.
Vgl. Behme/Holthuis/Mucksch (2000), S. 216; Bontempo/Saracco (1996).
Bei 1.000.000 Kundensätzen benötigt der Index für die Einkommens-Spalte lediglich 1.000.000*3*1 Bit zuzüglich des fast zu vernachlässigenden Overhead-Platzes (einmalige Ablage der Wertausprägungen „hoch“, „mittel“ und „niedrig“), also ca. 375 KB. Ein entsprechender B*-Baum-Index würde dagegen allein für die Speicherung der RIDs gemäß dem RID-Listen-Verfahren (bei einer RID-Größe von 4 Byte) ca. 4 MB benötigen. Mit jeder neuen Ausprägung der Einkommenspalte (z. B. „ohne eigenes Einkommen“) vergrößert sich allerdings der Bitmap-Index um 125 KB. Somit lässt sich ein Bitmap-Index vor allem bei wenigen Wertausprägungen (geringe Kardinalität) besonders klein halten. Vgl. Reuter (1996), S. 28–33.
Vgl. Bauer/Günzel (2004), S. 272; O’Neil/Quass (1997), S. 42.
Vgl. Oracle (1997), S. 141; Yazdani/Wong (1997), S. 122.
Vgl. Grandy (2002), S. 26; Kurz (1999), S. 259f.
Vgl. Behme/Holthuis/Mucksch (2000), S. 232; O’Neil/Quass (1997), S. 38–49.
Vgl. Harms (1996). Einige aussagekräftige Performanceergebnisse stellt Nußdorfer vor. Vgl. Nußdorfer (1996); Nußdorfer (1999), S. 222. Durch den Einsatz paralleler Technologie gelingt es, auch Datenbestände in Terabyte-Größe in vertretbaren Zeiten zu analysieren.
Vgl. Behme/Holthuis/Mucksch (2000), S. 236–238; Berson/Smith (1997), S. 47–66; Gilliland (1996), S. 63–65; Holthuis (1998), S. 203; Nußdorfer (1999), S. 217; Wenig/Sannik (1997), S. 77.
Vgl. Bauer/Günzel (2004); S. 423.
Vgl. Nußdorfer (1999), S. 218.
Vgl. Ballard u. a. (2005), S. 132.
Vgl. Küspert/Nowitzky (1999), S. 146–147; Saylor/Bedell/Rodenberger (1997), S. 42; Scalzo (1996), S. 67.
Vgl. Ballard u. a. (2005), S. 128ff.
Neben dieser als Range-Partitionierung bezeichneten Variante finden sich auch Techniken, die mit Hash-Verfahren arbeiten. Vgl. Bauer/Günzel (2004), S. 279; Kurz (1999), S. 255.
Vgl. Bauer/Günzel (2004), S. 277.
Vgl. Bauer/Günzel (2004), S. 458.
Als Rahmenordnung für die Definition und den Betrieb von IT-Prozessen diente ITIL zwar ursprünglich primär der Beschreibung von Prozessen für die Serviceerbringung bei transaktionalen, operativen Systemen, lässt sich allerdings nutzbringend auf den Business Intelligence-Sektor übertragen. Philippi präsentiert hierzu eine BI-spezifische ITILSpezifikation und bezeichnet diese als biTIL. Vgl. Philippi (2005).
Vgl. Kemper/Finger (2006).
Vgl. Philippi (2005).
Vgl. Bauer/Günzel (2004), S. 444.
Mucksch und Behme erweitern die erforderliche Verfügbarkeit gar auf 24 (Stunden) * 7 (Tage) * 52 (Wochen). Vgl. Mucksch/Behme (2000), S. 48.
Vgl. Bauer/Günzel (2004), S. 387.
Vgl. Bauer/Günzel (2004), S. 389.
In Anlehnung an Conrad (2000), S. 293.
Vgl. Bauer/Günzel (2004), S. 395.
Eine Übersicht über unterschiedliche Datenqualitätsmerkmale findet sich bei Winter u. a., die Interpretierbarkeit, Nützlichkeit, Glaubwürdigkeit, zeitlicher Bezug und Verfügbarkeit anführen. Vgl. Winter/Herrmann/Helfert (2003), S. 226f.
Behme beziffert den Schaden einer unzureichenden Datenqualität („Total Cost of poor Data Quality“) in Unternehmungen auf 8-12 % des Umsatzes. Vgl. Behme (2002), S. 49.
Vgl. Winter/Herrmann/Helfert(2003), S. 222.
Vgl. Behme/Nietzschmann (2006), S. 45.
Vgl. Winter/Herrmann/Helfert(2003), S. 229, Goltsche (2006), S. 13f.
Vgl. Schieder (2006).
Serwas und Wandt definieren hierzu sogar einen Data Quality Life Cycle mit den Phasen „Inspect, Transform, Name, Address, Identify, Merge, Enrich und Report“. Vgl. Serwas/Wandt (2007), S. 12.
Vgl. Schorb (2006), S. 19.
Behme und Nietzschmann diskutieren unterschiedliche strategische Ansätze für eine Verbesserung und Sicherung der Datenqualität und beleuchteten dabei Aspekte der Integration in die strategische Unternehmungsführung. Vgl. Behme/Nietzschmann (2006), S. 45–50.
Rights and permissions
Copyright information
© 2008 Springer-Verlag Berlin Heidelberg
About this chapter
Cite this chapter
(2008). Gestaltung und Betrieb von BI-Lösungen. In: Management Support Systeme und Business Intelligence. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-540-68269-1_9
Download citation
DOI: https://doi.org/10.1007/978-3-540-68269-1_9
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-540-23543-9
Online ISBN: 978-3-540-68269-1
eBook Packages: Business and Economics (German Language)