Skip to main content
  • 1906 Accesses

Auszug

Die Künstliche Intelligenz ist ein „Teilgebiet der Informatik, welches versucht, menschliche Vorgehensweisen der Problemlösung auf Computern nachzubilden, um auf diesem Wege neue oder effizientere Aufgabenlösungen zu erreichen.“508 Als eine der ersten Arbeiten im Bereich der Künstlichen Intelligenz wird häufig der Turing-Test aus dem Jahr 1950 zitiert, der benannt ist nach seinem Autor Alan Turing und untersucht, ob einer Maschine intelligentes Verhalten bescheinigt werden kann.509 Eine Vielzahl unterschiedlicher und sehr allgemein gehaltener Definitionen der Künstlichen Intelligenz ist ein eindeutiger Hinweis auf die große Unterschiedlichkeit der Inhalte dieses Forschungsgebietes, die sich seitdem entwickelt haben. 510 Die Arbeitsgebiete untersuchen Problembereiche wie Sprachverstehen, Robotik, Spiele, Theorembeweise, automatisches Programmieren und wissensbasierte Systeme.511 Diese Arbeit konzentriert sich auf das Gebiet der wissensbasierten Systeme, da deren Einsatz auch im Be-reich der strategischen Unternehmensplanung untersucht wird. Entsprechend werden nur diese im Folgenden erläutert.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 79.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 89.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. LÄMMEL, U./ CLEVE, J. (2004), S. 13.

    Google Scholar 

  2. Vgl. LÄMMEL, U./ CLEVE, J. (2004), S. 11 f.; TURING, A. (1994), S. 39 ff.

    Google Scholar 

  3. Für Beispiele ähnlicher, aber nicht identischer Definitionen der Künstlichen Intelligenz, die allesamt sehr allgemein formuliert sind, vgl. DURKIN, J. (1994), S. 3; RUSSELL, S./ NORVIG, P. (1995), S. 4 ff.; WINSTON, P. (1992), S. 5.

    Google Scholar 

  4. Vgl. FRIEDRICH, G./ STUMPTNER, M. (1990), S. 2 f.; HEINRICH, L./ HEINZL, A./ ROITHMAYR, F. (2004), S. 389. Die genannten Arbeitsgebiete repräsentieren nur einen Ausschnitt der Forschung und sind weder vollständig noch überlappungsfrei.

    Google Scholar 

  5. In der Literatur entspricht der deutsche Begriff des „wissensbasierten Systems“ dem englischen Ausdruck des „Knowledge-Based-System“, welches auch mit „KBS“ abgekürzt wird. Vgl. BORIANI, D. (1995), S. 141; PLANT, R./ GAMBLE, R. (2003), S. 47; MITEV, N. (1994), S. 173. Aufgrund der Dominanz der englischsprachigen Literatur wird nicht ein deutsches Kürzel, sondern das englische Pendant KBS als Abkürzung für den Begriff des wissensbasierten Systems für die weitere Arbeit verwendet.

    Google Scholar 

  6. Vgl. DURKIN, J. (1994), S. 7; PUPPE, F. (1991), S. 2; REINERSMANN, M. (1997), S. 250. Gleichzeitig existiert in der Fachliteratur der Begriff des Expertensystems, der sich nur marginal von dem des wissensbasierten Systems dadurch unterscheidet, dass das Wissen von einem Experten stammt. Vgl. ENGELMORE, R./ FEIGENBAUM, E. (2004), S. 1; PUPPE, F. (1990), S. 2. An dieser Stelle ist jedoch nicht die Art des Wissens, sondern der Aufbau und das Funktionieren eines solchen Programms entscheidend, weshalb der Begriff des wissensbasierten Systems verwendet wird.

    Google Scholar 

  7. Vgl. PUPPE, F. (1990), S. 2.

    Google Scholar 

  8. Aus BECKSTEIN, C. (1996), S. 11 ff. geht nicht klar hervor, ob Beckstein die Wissensbasis ebenfalls als Teil des KI-Systems definiert. In dieser Arbeit soll die Wissensbasis mit zum KI-System gezählt werden, da ein KI-System als Erweiterung eines wissensbasierten Systems um ein Begründungsverwaltungssytem definiert wird.

    Google Scholar 

  9. Neben den hier aufgeführten drei Komponenten werden in diesem Zusammenhang in der Literatur auch die Interviewer-, die Erklärungs-und die Wissenserwerbskomponente genannt, die dem Nutzer entweder zur Eingabe oder zur Erweiterung der Wissensbasis dienen oder ihm die Vorgehensweise des Systems transparent machen. Vgl. PUPPE, F. (1991), S. 12 f. Die Bedeutung dieser Komponenten ist für den Einsatz hoch, allerdings nicht für die grundsätzliche Funktionsweise eines KI-Systems, da es sich um Komponenten handelt, die den Einsatz vereinfachen. Vgl. ENGELMORE, R./ FEIGENBAUM, E. (2004), S. 1; FRIEDRICH, G./ STUMPTNER, M. (1990), S. 16; PUPPE, F. (1987B), S.21. So erwähnt auch Durkin diese nicht bei der Architektur eines wissensbasierten Systems. Vgl. DURKIN, J. (1994), S. 6 f. Für die vorliegende Arbeit wird angenommen, dass die Komponenten zur Erstellung und Änderung der Wissensbasis eine Frage der Implementierung darstellen. Soweit relevant, werden diese Aspekte im Rahmen der Auswahl eines KI-Systems für die Implementierung in Kapitel 4.3 „Informationstechnische Umsetzung der strategischen Planung“ diskutiert.

    Google Scholar 

  10. Vgl. DURKIN, J. (1994), S. 7.

    Google Scholar 

  11. Vgl. HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 1. Im Folgenden werden im Rahmen eines wissensbasierten Systems die Begriffe Wissen und Informationen synonym verwendet, da nur solche Informationen in einem KBS verwendet werden, die ein Potenzial zur Lösung des Problems besitzen. Jede Information des Systems ließe sich folglich als Wissen bezeichnen.

    Google Scholar 

  12. Vgl. PUPPE, F. (1987B), S. 10.

    Google Scholar 

  13. Vgl. DURKIN, J. (1994), S. 7; PUPPE, F. (1987B), S. 9; PUPPE, F. (1991), S. 12.

    Google Scholar 

  14. Vgl. DURKIN, J. (1994), S. 53 f.

    Google Scholar 

  15. Vgl. REINERSMANN, M. (1997), S. 262.

    Google Scholar 

  16. Vgl. DURKIN, J. (1994), S. 53; PUPPE, F. (1987B), S. 12.

    Google Scholar 

  17. Die Verwendung der natürlichen Sprache zur Repräsentation des Wissens ist aufgrund der Vielfältigkeit der Sprache wenig geeignet. Vgl. LÄMMEL, U./ CLEVE, J. (2004), S. 30; WINSTON, P. (1992), S. 16. Unterschiedliche Darstellungen für gleiche Sachverhalte sind für eine effiziente Verarbeitung ungünstig. Der Grund hierfür ist, dass entweder vor einer Verknüpfung des Wissens die unterschiedlichen Darstellungen als gleich definiert werden müssen oder sich jede Verknüpfung auf alle Darstellungsvarianten beziehen muss. Vgl. LÄMMEL, U./ CLEVE, J. (2004), S. 30.

    Google Scholar 

  18. Vgl. DURKIN, J. (1994), S. 54.

    Google Scholar 

  19. Vgl. REINERSMANN, M. (1997), S. 262; RUSSELL, S./ NORVIG, P. (1995), S. 157.

    Google Scholar 

  20. Vgl. ENGELMORE, R./ FEIGENBAUM, E. (2004), S. 1; REINERSMANN, M. (1997), S. 260. Die Qualität einer Repräsentation lässt sich nach den folgenden Kriterien beurteilen: Die Repräsentation muss vollständig sein (Vollständigkeit), frei von unwichtigen Details sein (Abstraktion), Ausdrucksmittel sparsam einsetzen (Ökonomie), Redundanzen vermeiden (Freiheit von Redundanz) und verständlich sein (Transparenz). Vgl. HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 3 f.; LÄMMEL, U./ CLEVE, J. (2004), S. 29 f.

    Google Scholar 

  21. Vgl. DURKIN, J. (1994), S. 54; LÄMMEL, U./ CLEVE, J. (2004), S. 31; PUPPE, F. (1987B), S. 16; REINERSMANN, M. (1997), S. 262 ff. In der Praxis wird meist nicht nur eine Technik verwendet, sondern häufig werden Mischformen verschiedener Wissensrepräsentationstechniken eingesetzt. Vgl. FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S. 27.

    Google Scholar 

  22. Grundsätzlich ließe sich an dieser Stelle der allgemeinere Begriff der Logik anstelle der Prädikatenlogik verwenden. Unter dem Begriff der Logik subsumiert man im Bereich der Wissensrepräsentation für gewöhnlich die Prädikaten-und die Aussagenlogik. Vgl. DURKIN, J. (1994), S. 80; LÄMMEL, U./ CLEVE, J. (2004), S. 31. Da die Aussagenlogik für viele Anwendungen im Bereich der wissensbasierten Systeme jedoch nicht ausreicht und die Prädikatenlogik eine Erweiterung der Aussagenlogik darstellt, beschränkt sich diese Arbeit auf die Darstellung der Prädikatenlogik. Vgl. EISINGER, N./ OHLBACH, H. (1992), S. 26; HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 75 und 93.

    Google Scholar 

  23. Vgl. HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 15. Als Begründer der Logik gilt Aristoteles im vierten Jahrhundert vor Christus. Vgl. BIBEL, W. (1982), S. 99.

    Google Scholar 

  24. HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 75.

    Google Scholar 

  25. Spies beschreibt den Unterschied der ersten Stufe zu höherstufigen Logiken und die Unzulänglichkeiten der höherstufigen Logiken. Vgl. SPIES, M. (2004), S. 226 f. In der prädikatenlogischen Sprache erster Stufe wird nur über Individuenvariablen quantifiziert und Prädikate beziehen sich nur auf Individuen. Die Prädikatenlogik 2. Stufe verwendet Prädikatvariablen, um über Prädikate zu quantifizieren. Noch höherstufige Logiken entstehen bei der Bildung von Prädikaten von Prädikaten. Der Einsatz der Prädikatenlogik 2. Stufe ist allerdings nur dann notwendig, wenn in einem abstrakten Sinn über Eigenschaften quantifiziert werden muss. Bereits ab der Prädikatenlogik 2. Stufe lässt sich allerdings nicht alles, was logisch folgt, auch ableiten. In dieser Arbeit wird deshalb die Prädikatenlogik erster Stufe verwendet. Wird in dieser Arbeit von Prädikatenlogik gesprochen, so ist damit die Prädikatenlogik erster Stufe gemeint.

    Google Scholar 

  26. Vgl. EISINGER, N./ OHLBACH, H. (1992), S. 27; FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S. 27. Die Prädikatenlogik wird im Englischen mit den beiden Begriffen „first-order logic“ oder „first-order predicate calculus“ bezeichnet. Vgl. RUSSELL, S./ NORVIG, P. (1995), S. 185.

    Google Scholar 

  27. Der Grund, weshalb dieser Hinweis explizit an dieser Stelle eingefügt wird, ist der, dass die Prädikatenlogik zwar inhaltlich gleich in der wissenschaftlichen Literatur beschrieben wird, jedoch minimale Unterschiede in den Definitionen bestehen. Ein Beispiel ist die unterschiedliche Festlegung der Schreibweise von Individuenvariablen. Vgl. LUGER, G./ STUBBLEFIELD, W. (1989), S. 48; SPIES, M. (2004), S. 91. Um späteren Ungenauigkeiten vorzubeugen, wird deshalb die in dieser Arbeit verwendete Syntax und Semantik genau definiert.

    Google Scholar 

  28. Vgl. FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S. 27; LUGER, G./ STUBBLEFIELD, W. (1989), S. 46 f.

    Google Scholar 

  29. Vgl. EISINGER, N./ OHLBACH, H. (1992), S. 28; FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S. 27; GENESERETH, M./ NILSSON, N. (1989), S. 19 ff.; HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 94; HERMES, H. (1973), S. 46; KAMPS, J./ MASUCH, M. (1997), S. 1230; LUGER, G./ STUBBLEFIELD, W. (1989), S. 46 ff.; RUSSELL, S./ NORVIG, P. (1995), S. 186 ff.; SPIES, M. (2004), S. 91.

    Google Scholar 

  30. Vgl. EISINGER, N./ OHLBACH, H. (1992), S. 27 f.; GENESERETH, M./ NILSSON, N. (1989), S. 19 ff.; HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 94 ff; LUGER, G./ STUBBLEFIELD, W. (1989), S. 49 ff; NILSSON, N. (1980), S. 132 ff; REIMER, U. (1991), S. 30 f.; SMULLYAN, R. (1968), S. 43 ff; SPIES, M. (2004), S. 91 ff.

    Google Scholar 

  31. SPIES, M. (2004), S. 92.

    Google Scholar 

  32. In der Prädikatenlogik erster Stufe ist die Anzahl der Argumente zu einem Funktionszeichen eindeutig festgelegt. Vgl. SPIES, M. (2004), S. 93. Bei der später folgenden Modellierung einer strategischen Unternehmensplanung kann es jedoch vorkommen, dass die Anzahl der Argumente zwar endlich, aber je nach Modell unterschiedlich ist. In diesem Fall handelt es sich eigentlich um eine Art der höherstufigen Logik, der Prädikatenlogik zweiter Stufe. Vgl. SPIES, M. (2004), S. 226 f. Für das später folgende Modell sollen diese Funktionen aber in der Art der Prädikatenlogik erster Stufe mit einer Variablen, die für die Anzahl der Elemente steht, wie folgt notiert werden. Eine Funktion f mit n Argumenten besitzt entsprechend folgende Form: f(X1,...,Xn).

    Google Scholar 

  33. Ist einem syntaktischen Ausdruck ein anderer Ausdruck zugewiesen, so wird in dieser Arbeit hierfür das Symbol „:=“ verwendet. Vgl. SPIES, M. (2004), S. 70. Ein Beispiel für eine Zuordnung eines Ausdrucks als Ergebnis einer Funktion ist Peter, welcher der Freund von Eva ist: freund_von(Eva):=Peter.

    Google Scholar 

  34. Die mathematischen Symbole werden, wie von Kamps dargestellt, in der wissenschaftlichen Literatur auch an Stelle von zweistelligen Atomen verwendet. Vgl. KAMPS, J. (1999), S. 4 ff; KAMPS, J. (1998), S. 481 ff. „x>y“ könnte auch mit dem Atom „Größer(x,y)“ repräsentiert werden. Aufgrund der Anschaulichkeit der mathematischen Symbole werden sie in dieser Arbeit für die Repräsentation von Größenrelationen eingesetzt. Verwendet werden dabei: „+“, „−“, „=“, „<“, „>“, „≤“ sowie „≥“.

    Google Scholar 

  35. Die Abkürzung für eine prädikatenlogisch wohl geformte Formel stellt das Kürzel „wff“ für den englischen Begriff „wellformed formula“ dar. Vgl. GENESERETH, M./ NILSSON, N. (1989), S. 23 f.; SPIES, M. (2004), S. 97. Die Abkürzung „wff“ wird im Folgenden synonym verwendet für eine prädikatenlogisch wohl geformte Formel. Im Falle mehrerer prädikatenlogisch wohl geformter Formeln wird die Mehrzahl ebenfalls mit dem Kürzel „wff“, für „wellformed formulas“ abgekürzt.

    Google Scholar 

  36. Vgl. NILSSON, N. (1980), S. 133; SPIES, M. (2004), S. 105.

    Google Scholar 

  37. Vgl. SPIES, M. (2004), S. 102.

    Google Scholar 

  38. Unter einer Domäne wird in der Prädikatenlogik ein Individuenbereich verstanden. Vgl. SPIES, M. (2004), S. 88.

    Google Scholar 

  39. Vgl. GENESERETH, M./ NILSSON, N. (1989), S. 26; SPIES, M. (2004), S. 97 f.

    Google Scholar 

  40. Vgl. NILSSON, N. (1980), S. 136; SMULLYAN, R. (1968), S. 43.

    Google Scholar 

  41. Vgl. GENESERETH, M./ NILSSON, N. (1989), S. 26 f.; LUGER, G./ STUBBLEFIELD, W. (1989), S. 51.

    Google Scholar 

  42. Vgl. NILSSON, N. (1980), S. 136; SPIES, M. (2004), S. 105 f.

    Google Scholar 

  43. Vgl. GENESERETH, M./ NILSSON, N. (1989), S. 27; NILSSON, N. (1980), S. 136; SPIES, M. (2004), S. 97.

    Google Scholar 

  44. Vgl. GENESERETH, M./ NILSSON, N. (1989), S. 27.

    Google Scholar 

  45. Vgl. hierzu auch GENESERETH, M./ NILSSON, N. (1989), S. 28 f.

    Google Scholar 

  46. Vgl. GENESERETH, M./ NILSSON, N. (1989), S. 28; SPIES, M. (2004), S. 15.

    Google Scholar 

  47. Vgl. NILSSON, N. (1980), S. 138.

    Google Scholar 

  48. A, B etc. repräsentieren jeweils einzelne Atome. Für die Äquivalenzen vgl. SPIES, M. (2004), S. 32 ff.; NILSSON, N. (1980), S. 138. Äquivalenzen von Ausdrücken mit Quantoren werden in der vorliegenden Arbeit nicht benötigt. Sie werden deshalb an dieser Stelle nicht explizit dargestellt, und der interessierte Leser wird auf die Literatur wie SCHÖNING, U. (1995), S. 61 verwiesen.

    Google Scholar 

  49. Vgl. GENESERETH, M./ NILSSON, N. (1989), S. 63 ff.; NILSSON, N. (1980), S. 140; SPIES, M. (2004), S. 126 ff. Im Rahmen eines wissensbasierten Systems ist die Ableitung von neuen prädikatenlogisch wohl geformten Formeln die Aufgabe der Problemlösungskomponente, welche in Kapitel 3.1.3 erläutert wird.

    Google Scholar 

  50. Vgl. GENESERETH, M./ NILSSON, N. (1989), S. 64; SPIES, M. (2004), S. 45 f. Als konkretes Beispiel fuhrt Nilsson auf, dass beim Voraussetzen der Implikation „Auf(A,B)→Über(A,B)“ und der Antezedenz „Auf(A,B)“ der Modus Ponens es erlaubt, die Konsequenz „Über(A,B)“ abzuleiten.

    Google Scholar 

  51. Für weitere Inferenzregeln wird auf die Literatur verwiesen. Vgl. hierzu GENESERETH, M./ NILSSON, N. (1989), S. 64 und SPIES, M. (2004), S. 45 f.

    Google Scholar 

  52. Vgl. NILSSON, N. (1980), S. 195; WINSTON, P. (1992), S. 119 f.

    Google Scholar 

  53. Vgl. HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 121 f.

    Google Scholar 

  54. Vgl. PUPPE, F. (1991), S. 21.

    Google Scholar 

  55. HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 121.

    Google Scholar 

  56. Vgl. DURKIN, J. (1994), S. 60; LÄMMEL, U./ CLEVE, J. (2004), S. 63.

    Google Scholar 

  57. Vgl. PUPPE, F. (1991), S. 21; WANDEL, H. (1992), S. 35.

    Google Scholar 

  58. Vgl. LÄMMEL, U./ CLEVE, J. (2004), S. 72; REINERSMANN, M. (1997), S. 263.

    Google Scholar 

  59. Eine Regel der Form: V1,..., Vn → A, bei der V1..., Vn die Vorbedingungen darstellen und A eine Aktion, die keine Handlung repräsentiert, lässt sich im Rahmen der Prädikatenlogik als Implikation V1 ∧...∧Vn → A verstehen. Vgl. HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 123.

    Google Scholar 

  60. Vgl. FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S. 29. Ein Beispiel für ein Element der Prädikatenlogik, das sich nicht in Form von Regeln formulieren lässt, stellt nach Friedrich/Gottlob/Stumptner eine Aussage mit Existenzquantor dar.

    Google Scholar 

  61. Vgl. PUPPE, F. (1987B), S. 18; PUPPE, F. (1991), S. 29.

    Google Scholar 

  62. Für die Ausführungen von Minsky vgl. MINSKY, M. (1975), S. 211 ff.

    Google Scholar 

  63. Die verschiedenen Eigenschaften eines Frames werden auch als „Slots“ bezeichnet, die Werte als „Facets“. Vgl. FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S. 45; LÄMMEL, U./ CLEVE, J. (2004), S. 75; REINERSMANN, M. (1997), S. 265.

    Google Scholar 

  64. Vgl. FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S. 44; LÄMMEL, UV CLEVE, J. (2004), S. 75; PUPPE, F. (1991), S. 29. Die Eigenschaften werden dabei auch als Charakteristika eines Objektes bezeichnet.

    Google Scholar 

  65. Vgl. WANDEL, H. (1992), S. 36.

    Google Scholar 

  66. Vgl. PUPPE, F. (1991), S. 29; WANDEL, H. (1992), S. 36. Die Vererbung der Eigenschaften lässt sich dabei auch selektiv unterdrücken.

    Google Scholar 

  67. Vgl. LÄMMEL, U./ CLEVE, J. (2004), S. 76; PUPPE, F. (1991), S. 29. Die verschiedenen Arten möglicher Prozeduren beschreibt Winston in WINSTON, P. (1992), S. 197 ff.

    Google Scholar 

  68. Vgl. PUPPE, F. (1991), S. 31. Die Vorbelegungen für die Defaultwerte eines Objektes werden mit einem Objektklassen-Frame, einer Übersetzung des englischen Begriffs „class frame“, beschrieben. Vgl. DURKIN, J. (1994), S. 75 f. Ein Frame zur Beschreibung eines konkreten Objektes wird im Gegensatz dazu als Instanz, so die Übersetzung des englischen Begriffs „instance frame“, bezeichnet. Vgl. WINSTON, P. (1992), S. 180.

    Google Scholar 

  69. Vgl. DURKIN, J. (1994), S. 75.

    Google Scholar 

  70. Vgl. PUPPE, F. (1991), S. 31.

    Google Scholar 

  71. Vgl. PUPPE, F. (1991), S. 32; WINSTON, P. (1992), S. 200.

    Google Scholar 

  72. Vgl. REINERSMANN, M. (1997), S. 265.

    Google Scholar 

  73. Ein Beispiel dafür, dass Frames auch im Rahmen der Wissensrepräsentation mittels Logik einsetzbar sind, zeigt die Verwendung eines Frames im Rahmen einer beispielhaften PROLOG-Wissensrepräsentation in LÄMMEL, U./ CLEVE, J. (2004), S. 76.

    Google Scholar 

  74. FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S. 55.

    Google Scholar 

  75. Vgl. LÄMMEL, U./ CLEVE, J. (2004), S. 74; QUILLIAN, M. (1968), S. 234 ff.

    Google Scholar 

  76. Vgl. DURKIN, J. (1994), S. 68 f.; FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S. 55; LÄMMEL, U./ CLEVE, J. (2004), S. 75; REINERSMANN, M. (1997), 264 f.; WINSTON, P. (1992), S. 16 ff. Als Beispiele für semantische Netze existieren in der Literatur SNePS (Semantic Network Processing System) oder SNeBR (SNePS with Belief Revision). Vgl. CRAVO, M./ MARTINS, J. (1989), S. 99 ff.; CRAVO, M./ MARTINS, J. (1990), S. 16 f. Für weitere Netzformalismen vgl. FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S.56.

    Google Scholar 

  77. Vgl. FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S. 55; REINERSMANN, M. (1997), S. 265; WANDEL, H. (1992), S. 36.

    Google Scholar 

  78. Vgl. DURKIN, J. (1994), S. 69 f.; REINERSMANN, M. (1997), S. 264.

    Google Scholar 

  79. Vgl. FRIEDRICH, G./ GOTTLOB, G./ STUMPTNER, M. (1990), S. 55. Beispielsweise lassen sich Existenz-Aussagen und Oder-Aussagen nicht mit der Technik eines semantischen Netzes darstellen. Vgl. LÄMMEL, U./ CLEVE, J. (2004), S. 74.

    Google Scholar 

  80. Dass die grafische Darstellung von prädikatenlogisch formuliertem Wissen in der wissenschaftlichen Literatur ebenfalls eingesetzt wird, zeigt das Beispiel in BIBEL, W. (1987), S. 58 f. Dies wird jedoch nicht in allen Fällen möglich sein aufgrund der vorher aufgeführten Unzulänglichkeiten der semantischen Netze. Allerdings besteht das Bestreben, zumindest Teile oder Gesamtübersichten des gesamten Wissens mit dieser Technik darzustellen, da dies dem Leser das Verständnis der Zusammenhänge erleichtert.

    Google Scholar 

  81. Vgl. DURKIN, J. (1994), S. 7; KÖNIG, W. (1988), S. 747; FRIEDRICH, G./ STUMPTNER, M. (1990), S. 18; PUPPE, F. (1987B), S. 12.

    Google Scholar 

  82. Vgl. FRIEDRICH, G./ GOTTLOB, G. (1990), S. 117; FRIEDRICH, G./ STUMPTNER, M. (1990), S. 9. In der vorliegenden Arbeit werden die beiden Begriffe Reasoning und Inferenz e-benfalls synonym verwendet.

    Google Scholar 

  83. Vgl. LUGER, G./ STUBBLEFIELD, W. (1989), S. 88 ff. Bei den hier vorgestellten Infe-renzstrategien handelt es sich um uninformierte Strategien, da keine Informationen über das Problem mit in die Strategie einfließen. Im Bereich der KBS sind die Inferenzstrategien zumeist Tricks der Experten, um das Problem zu vereinfachen und es schneller lösen zu können. Vgl. FRIEDRICH, G./ GOTTLOB, G. (1990), S. 119 f.; HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 27. Falls solche Tricks im Rahmen der später folgenden Modellierung möglich sind, so sollen sie im Rahmen des Modells aufgezeigt werden. Eine vom Modell unabhängige Erläuterung von informierten Inferenzstrategien ist an dieser Stelle nicht zielführend, da ein Problembezug notwendig ist.

    Google Scholar 

  84. Vgl. FRIEDRICH, G./ GOTTLOB, G. (1990), S. 119; PUPPE, F. (1990), S. 50.

    Google Scholar 

  85. Vgl. DURKIN, J. (1994), S. 100; FRIEDRICH, G./ GOTTLOB, G. (1990), S. 119; LÄMMEL, U./ CLEVE, J. (2004), S. 64 f.; MOCKLER, R./ DOLOGITE, D. (1987), S. 39; PUPPE, F. (1987B),S. 14.

    Google Scholar 

  86. Vgl. FRIEDRICH, G./ GOTTLOB, G. (1990), S. 119; LÄMMEL, U./ CLEVE, J. (2004), S. 69; MOCKLER, R./ DOLOGITE, D. (1987), S. 39; PUPPE, F. (1990), S. 50.

    Google Scholar 

  87. Vgl. DURKIN, J. (1994), S. 112 ff.; LÄMMEL, U./ CLEVE, J. (2004), S. 71 f.

    Google Scholar 

  88. Vgl. PUPPE, F. (1991), S. 78.

    Google Scholar 

  89. Diese Darstellungsweise wird in der wissenschaftlichen Literatur bevorzugt gewählt, um die verschiedenen Suchtechniken vorzustellen. Vgl. DURKIN, J. (1994), 116 ff.; HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 27; LUGER, G./ STUBBLEFIELD, W. (1989), S. 90.

    Google Scholar 

  90. Vgl. LUGER, G./ STUBBLEFIELD, W. (1989), S. 94. Eine Thematik, die in direktem Zusammenhang mit der Suchtechnik steht, ist, wie in STALLMAN, R./ SUSSMAN, G. (1977), S. 135 angesprochen, die Verwendung von Informationen, die man aus erfolgten Suchdurchläufen erhalten hat. Hierbei gilt es, durch Reduzierung des Suchraums die Effizienz der Suche zu erhöhen. Eine Form der Effizienzerhöhung kann die Begründungsverwaltungskomponente bei Veränderungen der Wissensbasis und erneut erfolgender Lösungssuche darstellen. Die Speicherung des Wissens von Suchläufen stellt aber nicht das zentrale Thema in dieser Arbeit dar. Soweit relevant, wird das Thema in Kapitel 3.1.4 „Das Begründungsverwaltungssystem“ dargestellt.

    Google Scholar 

  91. Vgl. DURKIN, J. (1994), S. 118 ff.; HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 27 ff.; LUGER, G./ STUBBLEFIELD, W. (1989), S. 94; RUSSELL, S./ NORVIG, P. (1995), S. 74 f.; SHOHAM, Y. (1994), S. 22 ff.

    Google Scholar 

  92. Vgl. DURKIN, J. (1994), S. 120 ff.

    Google Scholar 

  93. Vgl. REINFRANK, M. (1985), S. 5. Die Veränderung kann aus einer Erweiterung der Eingabedaten, einer Abweichung von vorhandenen Eingabedaten oder aus einer Deaktivierung bereits eingegebener Daten bestehen. Vgl. hierzu auch WINSLETT, M. (1986), S. 421 f.

    Google Scholar 

  94. Vgl. BREWKA, G. (1989), S. 20.

    Google Scholar 

  95. Vgl. BARR, A./ FEIGENBAUM, E. (1982), S. 74 f.; NEBEL, B. (1989), S. 301; PUPPE, F. (1991), S. 58.

    Google Scholar 

  96. Vgl. ALLEN, J. (2004), S. 4; MARTINS, J. (1991), S. 7; PUPPE, F. (1991), S. 58; SHOHAM, Y.(1994),S. 102.

    Google Scholar 

  97. Vgl. DRESSLER, O./ FREITAG, H. (1989), S. 18; MARTINS, J. (1991), S. 7 f.; MARTINS, J./ SHAPIRO, S. (1986), S. 384; MCALLESTER, D. (1990), S. 1109. Intensive Beschäftigungen mit diesem Thema und vielfältige Anwendungsgebiete unterstützen die Behauptung, dass die Begründungsverwaltung eines der Hauptgebiete der Künstlichen Intelligenz darstellt. Als Beispiele hierzu vgl. BHARADWAJ, A./ SEN, A./ VINZE, A. (1993), S. 126 ff.; DOYLE, J. (1983), S. 349 ff.; JUNKER, U. (1991), S. 17 ff.; ROSE, D./ LANGLEY, P. (1986), S. 528 ff.; SATTAR, A./ GOEBEL, R. (1997), S. 164 f.; TADEPALLI, K./ PARAMESWARAN, N. (1992), S. 249 ff.; VAN DER GAAG, L./ DE KONING, C. (1994), S. 1 ff.

    Google Scholar 

  98. Vgl. BECKSTEIN, C. (1996), S. 12; CASTRO, J./ ZURITA, J. (1996), S. 185; FREITAG, H./ REINFRANK, M. (1988B), S. 2; GALLIERS, J. (1991), S. 236; MARTINS, J. (1991), S. 8; REINFRANK, M./ FREITAG, H. (1988A), S. 439; RUSSELL, S./NORVIG, P. (1995), S. 326.

    Google Scholar 

  99. Vgl. PUPPE, F. (1990), S. 235; PUPPE, F. (1991), S. 58; REINFRANK, M. (1988), S. 6.

    Google Scholar 

  100. Vgl. KELLEHER, G./ SMITH, B. (1988), S. 5 f. Auch Doyle selbst spricht von einer unglücklichen Benennung seines eigenen Systems, behält diese aber bei, um selbst konsistent zu bleiben. Vgl. DOYLE, J. (1979B), S. 232.

    Google Scholar 

  101. Vgl. DRESSLER, O./ FREITAG, H. (1989), S. 13; MCDERMOTT, D. (1991), S. 289; REINFRANK, M. (1989C), S. 20; RICHTER, M. (1989), S. 174.

    Google Scholar 

  102. Vgl. DOYLE, J. (1979B), S. 231 ff.

    Google Scholar 

  103. Die Hauptkategorien unterscheiden sich in der Art und Weise, wie Abhängigkeiten zwischen abgeleiteten Informationen und den dafür zugrunde liegenden Informationen gespeichert werden. Vgl. STANOJEVIC, M./ VELASEVIC, D./ VRANES, S. (1998), S. 23.

    Google Scholar 

  104. Vgl. BODINGTON, R./ ELLEBY, P. (1988), S. 117 ff.; BECKSTEIN, C. (1996), S. 13; MARTINS, J. (1991), S. 8 ff.; PUPPE, F. (1987A), S. 176; PUPPE, F. (1991), S. 58. Neben diesen beiden Haupttypen wurden auch weitere Begründungsverwaltungssysteme wie bspw. LTMS (Logic-based-Truth-Maintenance-Systeme) und RTMS (Revsion-based-Truth-Maintenance-Systeme) entwickelt, die allerdings in der Wissenschaft eine kleinere Rolle spielen und zu deren Inhalten deshalb auf die Literatur verwiesen wird. Vgl. JACKSON, P./ PAIS, J. (1991), S. 155 ff.; MCALLESTER, D. (1978), S. 1 ff.; MCALLESTER, D. (1980), S. 1 ff.; STANOJEVIC, M./ VRANES, S. (1994), S. 52 f.

    Google Scholar 

  105. Für die Quellen der konkreten Begründungsverwaltungssysteme vgl. BECKSTEIN, C. (1996), S. 87 ff.; DE KLEER, J. (1986A), S. 127 ff; DOYLE, J. (1979B), S. 231 ff.; DRESSLER, O. (1988A), S. 535 ff.; GOODWIN, J. (1982), S. 1 ff.; PUPPE, F. (1991), S. 61.

    Google Scholar 

  106. Vgl. RUSSELL, S./ NORVIG, P. (1995), S. 327. Es handelt sich dabei um das Truth-Main-tenance-System von Doyle. Vgl. DOYLE, J. (1979B), S. 231 ff.

    Google Scholar 

  107. Vgl. BECKSTEIN, C. (1996), S. 80; DOYLE, J. (1982), S. 121.

    Google Scholar 

  108. Vgl. DOYLE, J. (1979B), S. 231 f.; HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 160; NEBEL, B. (1990), S. 175 ff.; REINFRANK, M. (1989B), S. 14 f. Die „Out“-Markierung steht dabei nicht für eine Negation des Knotens, sondern für ein „Nicht-Glauben“ des Knotens aufgrund von Unkenntnis. Vgl. hierzu auch GIORDANO, L./ MARTELLI, A. (1990), S. 309. MORRIS, P. (1987), S. 301.

    Google Scholar 

  109. Vgl. BECKSTEIN, C. (1996), S. 82 f.; DOYLE, J. (1979B), S. 238 f.

    Google Scholar 

  110. Vgl. BECKSTEIN, C. (1996), S. 80 f.; DOYLE, J. (1982), S. 121.

    Google Scholar 

  111. Vgl. BECKSTEIN, C. (1996), S. 81.

    Google Scholar 

  112. Mit n und m jeweils ≥ 0. Vgl. GIORDANO, L./ MARTELLI, A. (1990), S. 309; GIORDANO, L./ MARTELLI, A. (1991), S. 71; KUNDU, S./ CHEN, J. (1989), S. 459. Doyle verwendet in DOYLE, J. (1979A), S. 234 zur Darstellung der Grundform einer Rechtfertigung die Form: (SL <inlist> <outlist>), was inhaltlich identisch ist.

    Google Scholar 

  113. Vgl. MORRIS, P. (1987), S. 301; PUPPE, F. (1991), S. 59. Eine Rechtfertigung mit mindestens einem nicht-monotonen Unterstützungsknoten wird in der Literatur auch als nicht-monotone Rechtfertigung bezeichnet. Vgl. BECKSTEIN, C. (1996), S. 81.

    Google Scholar 

  114. Vgl. FEHRER, D. (1996), S. 12.

    Google Scholar 

  115. Vgl. REINFRANK, M. (1989A), S. 350.

    Google Scholar 

  116. Vgl. BECKSTEIN, C. (1996), S. 169; BODINGTON, R./ ELLEBY, P. (1988), S. 119; PETRIE, C. (1989), S. 56f.; STANOJEVIC, M./ VRANES, S. (1994), S. 54; STANOJEVIC, M./ VELASEVIC, D./ VRANES, S. (1998), S. 27.

    Google Scholar 

  117. Vgl. BECKSTEIN, C. (1996), S. 169 f. Beckstein beschreibt in seinen Ausführungen jedoch nicht, wie der Kontextwechsel und die Ummarkierungen aussehen müssten, um alle Lösungen zu ermitteln. Bodington/ Elleby beschreiben in BODINGTON, R./ ELLEBY, P. (1988), S. 119 den Fall, dass sich zwei Annahmen gegenseitig widersprechen. Ist eine Lösung mit einer der Annahmen gefunden, so muss diese Annahme bei einem JTMS erst wieder zurückgenommen werden, um weitere Lösungen zu identifizieren.

    Google Scholar 

  118. Vgl. PETRIE, C. (1989), S. 56 f. Wichtig ist an dieser Stelle die genaue Unterscheidung von „Ermittlung von Lösungen“ und „Verwaltung von Lösungen“. Ein JTMS kann zwar alle Lösungen ermitteln, ist jedoch nicht in der Lage, diese gleichzeitig zu verwalten, da jeder Knoten nur eine Markierung „IN“ oder „OUT“ besitzt und zur Ableitung unterschiedlicher Lösungen gegebenenfalls unterschiedliche Markierungen der Knoten notwendig sind.

    Google Scholar 

  119. Weitere Mängel, die ein JTMS besitzt, werden hier nicht vertieft, da bereits dieser Mangel einen Einsatz in der strategischen Unternehmensplanung äußerst schwierig gestaltet, da der Planer zwischen gegebenenfalls parallel existierenden Lösungen aussuchen können sollte, um die optimale Strategie für das Unternehmen zu identifizieren. Für weitere Mängel wird deshalb auf die Literatur verwiesen. Vgl. BECKSTEIN, C. (1996), S. 169 f.; DE KLEER, J. (1984), S. 81.

    Google Scholar 

  120. Vgl. hierzu auch BECKSTEIN, C. (1996), S. 169 f.

    Google Scholar 

  121. Vgl. ZETSCHE, F. (1989), S. 119.

    Google Scholar 

  122. Vgl. CASTRO, J./ ZURITA, J. (1996), S. 185; DE KLEER, J. (1986A), S. 129.

    Google Scholar 

  123. Vgl. RUSSELL, S./ NORVIG, P. (1995), S. 327.

    Google Scholar 

  124. Vgl. FUJIWARA, Y./ HONIDEN, S. (1991), S. 125.

    Google Scholar 

  125. Für die Vielzahl und Inhalte der verschiedenen Einsatzmöglichkeiten vgl. BAKER, A./ GINSBERG, M. (1989), S. 463 ff.; BOS-PLACHEZ, C. (1997), S. 854 ff.; DE KLEER, J./ WILLIAMS, B. (1987), S. 100 ff.; ESHGHI, K. (1990), S. 272 ff; FORBUS, K. (1988), S. 201 ff.; FREITAG, H./ REINFRANK, M. (1988A), S. 603 ff.; GINSBERG, M. (1988), S. 470 ff.; JOHNSON, R./ BUENAFE, M./ BENNETT, L./ U.A. (1993), S. 182 ff; KLAUSNER, J. (2001), S. 63 ff.; KONO, Y./ YANO, T./ IKEDA. T./ U.A. (1999), S. 488 ff; LINDNER, M. (1991), S. 22 ff; LOISEAU, S./ ROUSSET, M. (1993), S. 283 ff.; PAPAIOANNOU, S./ HEIN, M. (1991), S. 206 ff; SELMAN, B./ LEVESQUE, H. (1990), S. 344 ff; STRUSS, P./ DRESSLER, O. (1989), S. 1319 ff; TAYLOR, J. (2004), S. 79 ff.

    Google Scholar 

  126. Vgl. DRESSLER, O. (1990A), S. 88; EUZENAT, J. (1991), S. 300; PETRIE, C. (1989), S. 56 ff; STANOJEVIC, M./ VELASEVIC, D./ VRANES, S. (1998), S. 27.

    Google Scholar 

  127. Vgl. DE KLEER, J. (1984), S. 82; GALLIERS, J. (1991), S. 236.

    Google Scholar 

  128. Vgl. PROVAN, G. (1990), S. 522.

    Google Scholar 

  129. Vgl. DE KLEER, J. (1986A), S. 141 ff.; DRESSLER, O. (1990C), S. 144 f.; HAAG, A. (1995), S. 54 ff.; JOUBEL, C./ RAIMAN, O. (1990), S. 378; TAY, J./ QUEK, C./ HUANG, S. (2002), S. 1534 ff.

    Google Scholar 

  130. Vgl. BECKSTEIN, C. (1996), S. 171.

    Google Scholar 

  131. Vgl. LIU, W./ BUNDY, A. (1996), S. 147.

    Google Scholar 

  132. Vgl. BECKSTEIN, C. (1996), S. 171. Bei einem JTMS werden die Antezedenten als Unterstützungsknoten bezeichnet.

    Google Scholar 

  133. Vgl. FEHRER, D. (1996), S. 20; DE KLEER, J. (1986B), S. 166.

    Google Scholar 

  134. Vgl. BECKSTEIN, C. (1996), S. 172.

    Google Scholar 

  135. Vgl. DRESSLER, O. (1990A), S. 92; OHTA, Y./ INOUE, K. (1990), S. 387.

    Google Scholar 

  136. Vgl. DE KLEER, J. (1986C), S. 197 f.; DRESSLER, O. (1988B), S. 72; FEHRER, D. (1996), S. 20 f.

    Google Scholar 

  137. Vgl. BECKSTEIN, C. (1996), S. 44. Der logische Ausdruck für ein nogood der widersprüchlichen Annahmen A1,...,An würde folgendermaßen lauten: A1... An→⊥.

    Google Scholar 

  138. Vgl. BECKSTEIN, C. (1996), S. 44; DE KLEER, J. (1986A), S. 136 f. Ein identifizierter Widerspruch wird als nogood gespeichert, um ihn in Zukunft zu vermeiden.

    Google Scholar 

  139. Vgl. BECKSTEIN, C. (1996), S. 175; DE KLEER, J. (1986A), S. 144; DE KLEER, J. (1988), S. 188; DE KLEER, J. (1989), S. 291; DRESSLER, O. (1990A), S. 94 f.

    Google Scholar 

  140. Vgl. BECKSTEIN, C. (1996), S. 175; DRESSLER, O. (1990A), S. 93; ESHGHI, K. (1990), S. 272 f.; FEHRER, D. (1996), S. 20. Bei einem Label handelt es sich folglich um eine Menge von Umgebungen, in welcher ein Knoten gültig ist.

    Google Scholar 

  141. Vgl. DE KLEER, J. (1986A), S. 145.

    Google Scholar 

  142. Vgl. DE KLEER, J. (1986A), S. 145. Wurden die Umgebungen der Label für einen Knoten noch nicht abgeleitet und ist der Knoten von der Veränderung der Gültigkeit der Annahmen betroffen, so muss daraufhin eine abweichungsspezifische Anpassungsplanung mit den veränderten Annahmen durchgeführt werden. Vgl. ZELEWSKI, S. (1991), S. 37.

    Google Scholar 

  143. Vgl. DE KLEER, J. (1986A), S. 143; DRESSLER, O. (1990A), S. 93. Hierbei spricht man von einem charakterisierenden Kontext, falls es sich um die Menge von Annahmen handelt, mit Hilfe derer sich sämtliche Knoten ableiten lassen. Sollte es sich um eine inkonsistente Umgebung handeln, so besitzt diese keinen Kontext. Vgl. DE KLEER, J. (1986C), S. 197 f.

    Google Scholar 

  144. Vgl. DE KLEER, J. (1986A), S. 146; DE KLEER, J. (1986B), S. 164; OHTA, Y./ INOUE, K. (1990), S. 387.

    Google Scholar 

  145. Vgl. DE KLEER, J. (1986A), S. 145 ff. De Kleer unterscheidet Annahmen und Knoten dadurch, dass er für Annahmen Groß-und für Knoten Kleinbuchstaben verwendet.

    Google Scholar 

  146. Vgl. PUPPE, F. (1991), S. 63.

    Google Scholar 

  147. Vgl. FUJIWARA, Y./ HONIDEN, S. (1991), S. 125.

    Google Scholar 

  148. Vgl. HAYES, C./ GAINES, D. (1996), S. 4; MARTINS, J./ SHAPIRO, S. (1988), S. 27; REINFRANK, M./ FREITAG, H. (1988B), S. 28.

    Google Scholar 

  149. Vgl. CASTRO, J./ ZURITA, J. (2004), S. 1 ff.; DRESSLER, O. (1988A), S. 536 ff.; DRESSLER, O. (1990A), S. 108 ff.; DRESSLER, O. (1990B), S. 254 ff.; EUZENAT, J. (1991), S. 301 ff.; GIORDANO, L./ MARTELLI, A. (1990), S. 311 f.; JUNKER, U. (1989), S. 1049 ff; URBANSKI, A. (1988), S. 43 ff. Auch de Kleer selbst hat mit DE KLEER, J. (1986B), S. 185 ff. sein Basis-ATMS erweitert. Die verschiedenen Varianten werden hier nicht weiter vertieft, da für die Arbeit nicht die Art und Weise entscheidend ist, wie, sondern, ob der Einsatz von nicht-monotonen Rechtfertigungen möglich ist.

    Google Scholar 

  150. Vgl. DRESSLER, 0./ FARQUHAR, A. (1989), S. 17 ff; PROVAN, G. (1988), S. 98 ff.

    Google Scholar 

  151. Vgl. BECKSTEIN, C. (1996), S. 191; DE KLEER, J. (1986B), S. 163; DE KLEER, J./ WILLIAMS, B. (1986), S. 911; DRESSLER, 0./ FARQUHAR, A. (1989), S. 17; HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 174 f.

    Google Scholar 

  152. Vgl. DE KLEER, J. (1986A), S. 150; HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 174 f.

    Google Scholar 

  153. Vgl. DE KLEER, J. (1986A), S. 150 f.; DRESSLER, O. (1988B), S. 78 f.; FRICKE, S./ HEIN, M. (1991), S. 201; KELLEHER, G./ VAN DER GAAG, L. (1993), S. 241.

    Google Scholar 

  154. Vgl. PROVAN, G. (1987), S. 177. Die relative Größenordnung „moderat“ bezieht sich dabei auf eine Skala, die Bild-und Sprachverarbeitungsprobleme als groß und komplex bezeichnet.

    Google Scholar 

  155. In HAAG, A./ ZETZSCHE, F./ ZINSER, G. (1988), S. 121 wurden zur Lösung eines Problems mit 533 Knoten 12 Minuten benötigt. Zusätzlich existieren Ansätze, welche die Effizienz eines ATMS erhöhen sollen. Vgl. DRESSLER, O./ FARQUHAR, A. (1991), S. 3 ff.; FORBUS, K./ DE KLEER, J. (1988), S. 194 ff.; KELLEHER, G./ VAN DER GAAG, L. (1993), S. 241 ff. Im Rahmen einer strategischen Planung in der vorliegenden Arbeit ist aber bereits der Algorithmus des Basis-ATMS akzeptabel. Ein manuelles Vorgehen würde mit Sicherheit wesentlich länger dauern.

    Google Scholar 

  156. Vgl. DE KLEER, J. (1986A), S. 142 ff.

    Google Scholar 

  157. Für die konkrete Vorgehensweise zum Ausräumen der Mängel vgl. DE KLEER, J. (1986B), S. 170 ff; DE KLEER, J. (1988), S. 189 ff.

    Google Scholar 

  158. Vgl. HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 59 f. Eine ähnliche Klassifizierung nimmt Puppe in PUPPE, F. (1991), S. 144 f. vor. Er unterscheidet hierbei nach der Zeitersparnis bei der Entwicklung und der Beschränkung des möglichen Einsatzgebietes durch die Implementierungsvariante.

    Google Scholar 

  159. Es handelt sich hierbei um die beiden Hauptarten zur Implementierung eines Kl-Systems, so wie sie bspw. auch in LOOPIK, A./ LICHTENSTEIN, Y. (1992), S. 153 und SCHMITT, H. (1996), S. 78 unterschieden werden. Andere Autoren unterteilen die Werkzeuge weiter nach allgemeinen Werkzeugen, problemspezifischen Werkzeugen und Shells, die bereits Basiswissen beinhalten. Vgl. PUPPE, F. (1991), S. 144 f. Diese Klassifizierung soll in dieser Arbeit nicht in dieser Weise verwendet werden, da es sich um einen fließenden Übergang zwischen den verschiedenen Werkzeugen handelt. Vgl. HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 60. Entscheidend ist letztendlich, was das Werkzeug leistet, und nicht, zu welcher Kategorie es gehört.

    Google Scholar 

  160. Vgl. HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 59 f.; PUPPE, F. (1991), S. 144 f.

    Google Scholar 

  161. Anstelle des Begriffs „Werkzeug“ wird in der Literatur eine Vielzahl von Begriffen, wie „Shell“, „Expertensystem-Entwicklungswerkzeug“, „Expert System Shell“, „Toolkit“ verwendet. Vgl. DURKIN, J. (1994), S. 701; HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 63; LOOPIK, A./ LICHTENSTEIN, Y. (1992), S. 154; MOCKLER, R./ DOLOGITE, D. (1987), S. 41; PUPPE, F. (1987B), S. 27. Diese Arbeit beschränkt sich auf die synonyme Verwendung der beiden Begriffe „Shell“ und „Werkzeug“.

    Google Scholar 

  162. Vgl. HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 59 f.

    Google Scholar 

  163. Vgl. LOOPIK, A./ LICHTENSTEIN, Y. (1992), S. 153 f.; PUPPE, F. (1991), S. 146 f.

    Google Scholar 

  164. Vgl. HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 50; MOCKLER, R./ DOLOGITE, D. (1987), S 41; PUPPE, F. (1987B), S. 27; RAO, M. (1993), S. 27; SCHMITT, H. (1996), S. 78. Dass ein Begründungsverwaltungssystem auch mit anderen Programmiersprachen umgesetzt werden kann, zeigt ein Beispiel, bei welchem ein ATMS mit FORLOG umgesetzt wurde. Vgl. FLANN, N./ DIETTERICH, T./ CORPRON, D. (1987), S. 25 ff.; KOFF, C./ FLANN, N./ DIETTERICH, T. (1988), S. 182 ff.

    Google Scholar 

  165. Die Grundlage für PROLOG ist eine Teilmenge der Prädikatenlogik. Vgl. HEINSOHN, J./ SOCHER-AMBROSIUS, R. (1999), S. 15; LÄMMEL, U./ CLEVE, J. (2004), S. 133. Da die Prädikatenlogik in der vorliegenden Arbeit dazu verwendet wird, das Wissen zu formalisieren, würde sich entsprechend PROLOG gut eignen, um das Kl-System zu erstellen. Vgl. hierzu auch LUGER, G./ STUBBLEFIELD, W. (1989), S. 334. Ein weiterer Grund, warum PROLOG hier erläutert wird, ist die Tatsache, dass es die am weitesten verbreitete Logik-Programmiersprache darstellt. Vgl. RUSSELL, S./NORVIG, P. (1995), S. 304.

    Google Scholar 

  166. Eine ausführliche Erläuterung von PROLOG findet sich in CLOCKSIN, W./ MELLISH, C. (1994), S. 1 ff.

    Google Scholar 

  167. Vgl. LÄMMEL, U./ CLEVE, J. (2004), S. 134 f.

    Google Scholar 

  168. Dies ist nicht weiter verwunderlich, da PROLOG für „Programming in Logic“ steht. Vgl. ENGELMORE, R./ FEIGENBAUM, E. (2004), S. 5; HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 51. Zur Syntax von PROLOG vgl. LÄMMEL, U./ CLEVE, J. (2004), S. 138 ff; LUGER, G./ STUBBLEFIELD, W. (1989), S. 204 ff.

    Google Scholar 

  169. Vgl. HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 52; LÄMMEL, U./ CLEVE, J. (2004), S. 135.

    Google Scholar 

  170. Vgl. CLOCKSIN, W./ MELLISH, C. (1994), S. 2; HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 51; LÄMMEL, U./ CLEVE, J. (2004), S. 136 f.

    Google Scholar 

  171. Vgl. BÜRCKERT, H. (1992), S. 153; LUGER, G./ STUBBLEFIELD, W. (1989), S. 206; PUPPE, F. (1991), S. 19; RUSSELL, S./NORVIG, P. (1995), S. 304.

    Google Scholar 

  172. Vgl. FRICKE, S./ HEIN, M. (1991), S.201 ff.; PUPPE, F. (1991), S. 19; KERR, R. (1991), S. 161; SHOHAM, Y. (1994), S. 101 ff. Auch in LISP ist die Entwicklung eines Begründungsverwaltungssystems möglich. Vgl. FORBUS, K./ DE KLEER, J. (1993), S. 197 ff.

    Google Scholar 

  173. Begründet wird diese Annahme damit, dass Personen, die mit der strategischen Planung in einem Unternehmen beauftragt sind, vom Hintergrund her oftmals ein betriebswirtschaftliches Studium absolviert haben. Da das Wissen zur Erstellung eines Begründungsverwaltungssystems mit einer Programmiersprache jedoch keinen Pflichtteil eines solchen Studiums darstellt, wird auch nicht angenommen, dass die Personen in der strategischen Unternehmensplanung solche Fähigkeiten besitzen. Unterstützt wird diese Argumentation durch die Aussage von Harmon/ Maus/Morrissey, die für die Entwicklung eines wissensbasierten Systems mittels einer KI-Programmiersprache die Fähigkeiten eines Entwicklers fordern. Ihrer Meinung nach stellen Werkzeuge an dieser Stelle die entsprechende Brücke her und erlauben selbst „Programmierlaien“ die Entwicklung eines KBS. Vgl. HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 59.

    Google Scholar 

  174. Vgl. DURKIN, J. (1994), S. 15; HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 63; LUGER, G./ STUBBLEFIELD, W. (1989), S. 295; SCHMITT, H. (1996), S. 78.

    Google Scholar 

  175. Vgl. ENGELMORE, R./ FEIGENBAUM, E. (2004), S. 4; PUPPE, F. (1991), S. 13.

    Google Scholar 

  176. Vgl. REINERSMANN, M. (1997), S. 279.

    Google Scholar 

  177. Vgl. ENGELMORE, R./ FEIGENBAUM, E. (2004), S. 4; HARMON, P./ MAUS, R./ MORRISSEY, W. (1989), S. 69 ff.

    Google Scholar 

  178. Puppe spricht bereits im Jahr 1991 von mehr als hundert Werkzeugen zur Erstellung von wissensbasierten Systemen. Vgl. PUPPE, F. (1991), S. 8.

    Google Scholar 

Download references

Rights and permissions

Reprints and permissions

Copyright information

© 2007 Deutscher Universitäts-Verlag | GWV Fachverlage GmbH, Wiesbaden

About this chapter

Cite this chapter

(2007). Künstliche-Intelligenz-Systeme. In: Strategische Unternehmensplanung mit Hilfe eines Assumption-based-Truth-Maintenance-Systems (ATMS). DUV. https://doi.org/10.1007/978-3-8350-9389-8_3

Download citation

Publish with us

Policies and ethics