Advertisement

Wissensmanagement

  • Stefan Voß
  • Kai Gutenschwager

Zusammenfassung

Wissensmanagement beschäftigt sich mit der wirtschaftlichen Unterstützung (im Sinne einer Strukturierung) der Generierung, Distribution und Allokation von Wissen. Die organisationale Wissensbasis setzt sich dabei aus individuellen und kollektiven Wissensbeständen zusammen, auf die eine Organisation zur Lösung von Problemen zugreifen kann. Organisationales Lernen betrifft die Veränderung der organisationalen Wissensbasis, die Schaffung kollektiver Bezugsrahmen sowie die Erhöhung der organisationalen Problemlösungs- und Handlungskompetenz. Wissensmanagement bildet in diesem Zusammenhang ein integriertes Interventionskonzept zur Gestaltung der organisationalen Wissensbasis; vgl. Probst et al. (1998).

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. 2.
    Andere Ansätze betonen den Bezug zur Modellierung von Geschäftsprozessen, bei denen einzelne Aktivitäten nur durch entsprechende Wissensbestände (Fähigkeiten) erfüllt werden können. Diese sind bei der Geschäftsprozeß-modellierung ebenfalls abzubilden und definieren somit eine (notwendige) Wissensbasis; vgl. hierzu z.B. Warnecke et al. (1998), Allweyer (1998) sowie Hagemeyer und Rolles (1998). Des weiteren sei an dieser Stelle auf die Beiträge in Bürgel (1998) zum Wissensmanagement verwiesen.Google Scholar
  2. 4.
    So beschreibt Nonaka (1992), wie japanische Konzerne die Wissensentwicklung und Wissensverteilung bündeln, um neues Wissen zu generieren. Neben der Form der Führung mit dem Ziel, daß Mitarbeiter ihr Wissen preisgeben, werden vor allem Konzepte der Ideenfmdung (über die Nutzung von Metaphern, Analogien und Modellen) und organisatorische Maßnahmen, wie z.B. Rotation und überlappende Teams diskutiert.Google Scholar
  3. 8.
    Zu einer Typisierung der unterschiedlichen Verdichtungstypen, aus denen die drei genannten Funktionen abgeleitet werden können, sei auf Birk (1991), S. 33, verwiesen.Google Scholar
  4. 9.
    Es sei hierzu noch einmal auf die Unterscheidung verschiedener Berichtsarten in Standardberichte, Abweichungsberichte (Briefing Book) und Bedarfsberichte (Data Driven) verwiesen; vgl. Horváth (1996) oder Küpper (1997).Google Scholar
  5. 10.
    Rechkemmer (1994) weist in diesem Zusammenhang darauf hin, daß zumindest Top-Executives über eine eigene “Informationsmaschinerie” verfügen, z.B. das persönliche Sekretariat. Ein Top-Executive hat die Aufgabe, seine Informationsmaschinerie derart zu gestalten, zu lenken und zu entwickeln, daß sie ihn mit den Informationsinhalten und-mittein optimal versorgt. Ein EIS kann hierbei i.d.R. nur ergänzend eingesetzt werden.Google Scholar
  6. 11.
    Komplexere Probleme und Fragestellungen werden in betrieblichen Entscheidungsprozessen zudem oftmals nicht von einer einzelnen Person und nicht als Ganzes behandelt. Eine Unterstützung von Entscheidungsprozessen in Gruppen folgte zu Beginn der 80er Jahre in Form der Group Decision Support-Systeme (GDSS). Zu einem Überblick über unterschiedliche Konzepte und Systeme siehe z.B. Vetschera (1990), Vetschera (1995), Teng und Ramamurthy (1993) sowie Turoff et al. (1993). Dort behandelte Systeme werden zum Teil mittlerweile auch als Group Support-Systems bezeichnet und beinhalten Groupware-Applikationen, wie z.B. E-Mail oder Konferenz-Systeme; vgl. Kap. 9.1.Google Scholar
  7. 12.
    Dolk (2000) diskutiert im Zusammenhang mit dem Data Warehouse-Konzept die Schaffung eines Model Warehouse, das der Modell-und Methodenkomponente eines DSS weitestgehend entspräche. Im Model Warehouse sind dabei Repräsentationsformen und Annahmen für bestimmte Modelle sowie Schnittstellen zu Optimierungsmodulen, wie z.B. CPLEX im Bereich der mathematischen Optimierung, in geeigneter Weise — d.h. auch in einer übergeordneten Modellierungssprache — zu verwalten. Entsprechende Verfahren können so bereits beim Datenimport in das Data Warehouse automatisiert angewendet werden, z.B. Trendanalysen zur Problemerkennung im Kontext eines EIS.Google Scholar
  8. 13.
    Durch eine solche Einbindung kann der Entscheider Zugriff auf verschiedene Quellen bekommen. Grass und Zilberstein (2000) stellen in diesem Zusammenhang ein DSS vor, das eine autonome Informationssuche über vom Benutzer spezifizierte Quellen im WWW ermöglicht. Das System bietet dabei eine direkte Verbindung von Entscheidungsmodell und Informationssuche, um das Modell mit geeigneten Informationsobjekten, z.B. Preisen zu vergleichender Produkte, aufzufüllen. Hierzu verfügt das DSS zusätzlich über eine Datenbank mit potentiellen Informationsquellen, insbesondere über die Kosten des Zugangs, das Antwortzeit verhalten sowie Informationen darüber, wie Informationen für das Entscheidungsmodell aus der Quelle extrahiert werden können. Der Entscheidungsprozeß — als Auswahl der nächsten aufzusuchenden Quelle einschließlich der Festlegung des Endes der Suche (sobald die Kosten der Suche den Nutzen übersteigen) — wird dabei automatisch vom System vorgenommen; vgl. hierzu noch einmal die Ausführungen zum individuellen Entscheidungsverhalten in Kap. 2.3.3.Google Scholar
  9. 14.
    Für eine ergänzende Betrachtung von Kriterien für eine erfolgreiche Einführung von MSS, insbesondere EIS, siehe auch Heinecke und von der Oelsnitz (1995).Google Scholar
  10. 18.
    Unter Fuzzy-Systemen versteht man Systeme, die ein unscharfes Schließen auf der Basis unscharfer Daten ermöglichen. Der Begriff der Unschärfe bedeutet hierbei, daß abweichend von der klassischen Mengentheorie, in der ein Element entweder zu einer Menge M gehört oder nicht, mit sogenannten Fuzzy-Mengen operiert wird, wobei mit Hilfe einer charakteristischen Funktion die Zugehörigkeit zur Menge M beschrieben wird. Durch eine solche Zugehörigkeitsfunktion wird für jedes Element ein Mitgliedsgrad zwischen 0 und 1 festgelegt; vgl. Zadeh (1965). Die Bestimmung geeigneter Zugehörigkeitsfunktionen ist dabei nicht Gegenstand der Fuzzy-Theorie. Sie werden von Experten auf der Grundlage ihres Fachwissens bestimmt. In der Fuzzy-Logik finden sich Definition von Verknüpfungsoperatoren für Fuzzy-Mengen mit den Grundoperatoren Durchschnitt, Vereinigung und Komplement. Um unscharfes Schließen zu modellieren, werden in der Fuzzy-Logik eine Regelbasis und verschiedene Interpolations-und Approximationsverfahren eingesetzt, mittels derer eine Fuzzifizierung der Eingangs variablen und eine anschließende Defuzzifizierung zur Ergebnisermittlung (als “scharfen” Wert) ermöglicht werden. Zu einer Einführung in Fuzzy-Systeme und Fuzzy-Logik wird auf Nauck und Kruse (1998), Rommelfanger (1994) sowie Joereßen und Sebastian (1998) verwiesen. Zimmermann (1995) beschäftigt sich explizit mit der Fuzzy-Datenanalyse.Google Scholar
  11. 19.
    Es sei an dieser Stelle noch einmal auf die Indexierung und die automatisierte Klassifikation von Dokumenten (Texten), die in Kap. 7.5 im Kontext des Information Retrieval behandelt wurden, hingewiesen. In diesem Bereich wird der zugrundeliegende Indexierungs-und Analyseprozeß von Dokumenten ebenfalls aufgrund einer für eine manuelle Indexierung zu umfangreichen Datenbasis automatisiert. Dort eingesetzte (statistische) Methoden werden — in Analogie zu Verfahren des Data Mining — oftmals mit dem Begriff Text Mining bezeichnet. Text Mining stellt dabei eine Erweiterung des Data Mining-Konzepts auf unformatierte Datenbestände (qualitative Analyseobjekte) dar und steht als Oberbegriff für sämtliche Methoden, mit denen sich unbekannte, aber potentiell nützliche Informationen, die implizit in großen Textmengen enthalten sind, auffinden lassen; vgl. z.B. Gentsch (1999). Die Methoden des Text Mining umfassen Themen aus den Forschung sgebieten der Wissensrepräsentation, des Maschinellen Lernens, der Computer linguistik, der Informationsextraktin, der Datenbanken und des Data Mining. Als Grundfunktionen des Text Mining lassen sich die Assoziationsanalyse zur Ermittlung von Wechselbeziehungen zwischen gemeinsam auftretenden Begriffen innerhalb von Dokumenten und Dokumentensammlungen, die Klassifikation von Dokumenten, das Clustering zur Unterteilung von Dokumentbeständen sowie die Zeitreihenanalyse zum Aufdecken von Verschiebungen von Textinhalten im Zeitablauf nennen; vgl. hierzu Behme und Multhaupt (1999) und die dort angegebenen Quellen.Google Scholar
  12. 20.
    Für eine Einführung in neuronale Netze wird der Leser auf Nauck et al. (1996) verwiesen.Google Scholar
  13. 21.
    Suhl et al. (2000) beschreiben z.B. ein System zur Unterstützung des Störungsmanagements (im Echtzeit-Betrieb) von Bahngesellschaften, das auch wissensbasierte Systemkomponenten beinhaltet. Entsprechende Systeme dienen dabei vor allem einer reaktiven Planung, die durch eine fortwährende Aufnahme und Verarbeitung von Informationen gekennzeichnet sind; d.h. daß die zugrundeliegenden Prozesse durch unsicheres Wissen bzw. unvollständige Informationen gekennzeichnet sind; vgl. z.B. Scholz-Reiter und Scharke (2000). Ein “klassisches” Expertensystem zur Jahresabschlußerstellung wird z.B. von Preßmar und Wall (1998) im Kontext der Rechnungslegungspolitik vorgestellt; eine Einordnung der Expertensysteme in das Wissensmanagement findet sich bei Amelingmeyer und Strahringer (1999).Google Scholar
  14. 22.
    Aufgrund der strengen Trennung des Wissens über das Anwendungsgebiet und des allgemeinen Problemlösungswissens (logische Inferenz) ist diese Form der Modellierung der prozeduralen Programmierung (Optimierung), die keine solche Trennung ermöglicht, konzeptionell überlegen. Es bestehen allerdings wesentliche Gemeinsamkeiten zwischen Optimierung und logischer Inferenz, die für eine Aufhebung der strengen Trennung dieser Modellierungsansätze sprechen; vgl. Drexl et al. (1995).Google Scholar

Copyright information

© Springer-Verlag Berlin Heidelberg 2001

Authors and Affiliations

  • Stefan Voß
    • 1
  • Kai Gutenschwager
    • 1
  1. 1.Institut für Wirtschaftswissenschaften, Abt. Allg. BWL, Wirtschaftsinformatik u. InformationsmanagementTechnische Universität BraunschweigBraunschweig

Personalised recommendations