Skip to main content

Part of the book series: Xpert.press ((XPERT.PRESS))

  • 4088 Accesses

Zusammenfassung

Bisher wurden Planungsverfahren aus der Künstlichen Intelligenz vorgestellt, die für die Verwendung in Assistenzsystemen geeignet erscheinen, weil sie sehr viele Anforderungen zur algorithmischen Umsetzung von Assistenz erfüllen. Nach dieser vergleichenden Diskussion ihrer Vor- und Nachteile insbesondere für die Realisierung von interaktiven Assistenzsystemen, ist es nun Ziel des aktuellen Kapitels, zu erörtern, wie Planungsalgorithmen in Assistenzsysteme integriert werden können.

Insbesondere wird es Thema dieses Kapitels sein, wie ein für die Erfordernisse interaktiver Szenarien relaxiertes Planungsverfahren mit der Ausführung von Plänen verzahnt werden kann, so dass das Assistenzsystem zielgerichtete Unterstützung über mehrere Schritte leisten kann.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 49.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Hardcover Book
USD 49.99
Price excludes VAT (USA)
  • Durable hardcover edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Der Planer ist in [2] beschrieben.

  2. 2.

    Dabei bleiben Tasks unverändert, die nebenläufig zum aktuellen Task sind, um Interferenzen zwischen parallelen Prozessen zu vermeiden.

  3. 3.

    Selbstverständlich soll hier nicht darüber hinweggesehen werden, dass technische Neuerungen oft neue Bedienmöglichkeiten und bisher nicht durchführbare Aufgaben ermöglichen. In solchen Fällen ist natürlich auch die Assistenzdomäne zu modifizieren.

  4. 4.

    Wie später herausstellen wird, erlaubt diese Organisation des Suchraum die Implementierung einer Systemarchitektur nach dem in [5] beschriebenen deliberative/reactive paradigm.

  5. 5.

    Diese Aussage trifft natürlich nur dann zu, wenn globale Effekte wie etwa Ressourcenverbrauch oder Fahrtdauer ignoriert werden.

  6. 6.

    Ähnliche Abhängigkeiten ergaben sich beim Modell Modus.

  7. 7.

    Im Beispiel mit dem TV-Gerät Modus ist es nicht möglich, das zuvor ausgewählte Fußballspiel gleichzeitig zum Überspielen von der Kamera auf einen externen, über Digital-Link angeschlossenen Recorder anzusehen, wenn das Spiel auf einem Digitalsender ausgestrahlt wird.

  8. 8.

    Das sind natürlich die geschätzten Restkosten aus Abschn. 6.6.7.

  9. 9.

    Zumindest dann nicht, wenn sich der Nutzer der Erwartung entsprechend verhält. Bei der Durchführung des Plans kann das Assistenzsystem für geeignete Aktionen – z. B. Informationen über die erwartete Reaktion des Nutzers – versuchen, den Nutzer so zu instruieren, dass der gewünschte Effekt eintritt. Will er sich wirklich kooperativ verhalten, wird der Nutzer kaum entgegen der gegebenen Information handeln.

  10. 10.

    Siehe dazu Abschn. 6.5.4.

  11. 11.

    Voraussetzung dafür war, Nebenläufigkeit durch interleaving primitiver Aktionen aus konkurrenten Prozessen zu modellieren.

  12. 12.

    In allen Szenarien und Beispielen, die in dieser Arbeit beschrieben werden, sind mobile Geräte oder eingebettete Systeme (z. B. TV-Geräte) die Umgebungen, auf denen ein Assistenzsystem realisiert werden muss.

  13. 13.

    „Verwaltungsoperationen“ wurden in Abschn. 6.6.11 eingeführt, um eine prozedurale Interpretation der Knotentypen von Concurrent Task Trees zu gewinnen.

  14. 14.

    Siehe dazu später in Kap. 8.

  15. 15.

    Sie wurden in Abschn. 6.3 angegeben.

  16. 16.

    Details zur Dateninterpretation bei ROSE sind in Abschn. 2.3.1 beschrieben worden.

  17. 17.

    Wie oben beschrieben, fordert das API zwischen Applikations- und Ausführungsebene, dass der Problemlöser die Nachbedingungen von observeFollow seinem Berechnungsergebnis entsprechend setzt. Im Allgemeinen modifiziert er die aktuelle Situation noch weiter, um das Ergebnis selbst an das Assistenzsystem zu kommunizieren – in unserem Beispiel etwa die ermittelte a posteriori-Wahrscheinlichkeit und Konfidenz.

  18. 18.

    Noch unübersichtlicher wird die Literatur, wenn auch die neueren Forschungsrichtungen Affective Computing (siehe [16]) und Pervasive Computing (siehe [17]) berücksichtigt, deren thematische Nähe zu Assistenzsystemen ja nicht von der Hand zu weisen ist: diskutieren wir hier doch immer wieder das Beispiel des Navigationssystems ROSE.

  19. 19.

    Dieser Vorgang erinnert an die Vorgehensweise, wie ein entscheidungstheoretischer Planer die nächste Aktion zur Planausführungszeit die nächste Aktion auswählt.

  20. 20.

    Diese Information ist für ein Assistenzsystem unter anderem deshalb wichtig, weil es dem Nutzer sehr konkrete Hinweise zum nächsten Schritt für die Lösung der aktuellen Aufgabe geben kann. Siehe dazu den Concurrent Task Tree in Abb. Abb. 6.6.

  21. 21.

    In Abb. Abb. 2.4 ist ein Bayes-Netz dargestellt, mit dem aus Beobachtungen der Interessenstatus des Nutzers erschlossen werden soll.

  22. 22.

    Das Beispiel nimmt eine sehr pragmatische Haltung zum unter dem Namen symbol grounding bekannten Problem der Zuordnung von Wahrnehmungen zu in Algorithmen benutzten Symbolen ein, da bei ROSE Sensordaten eindeutig zuzuordnen sind. Im Allgemeinen ist diese Aufgabe viel komplizierter (siehe dazu etwa [20] oder [21]).

  23. 23.

    Eine umfassende Darstellung der Entscheidungstheorie, die auch für Assistenzsysteme eine wesentliche Rolle spielt, zu der aber in dieser Arbeit keine neuen Beiträge geleistet werden, findet sich etwa in [22, 23, 24, 25, 26]. Ihre Rolle für die psychologische Analyse menschlicher Entscheidungen dokumentiert [27].

  24. 24.

    Siehe dazu beispielsweise den berühmten Aufsatz [29].

  25. 25.

    Siehe [30].

  26. 26.

    Ausführliche Darstellungen der Pareto-Optimalität sind beispielsweise in [31, 32] gegeben.

  27. 27.

    Die Spalte gesamt enthält den jeweiligen Wert für \(\text{val}(\{a_{1},\ldots,a_{m}\})\).

  28. 28.

    Wie das Assistenzsystem in solchen Fällen reagiert, wird unten beschrieben.

  29. 29.

    Ein Überblick über diese Forschungsrichtung ist in [33] gegeben.

  30. 30.

    Da MADL auch Wahrscheinlichkeitsverteilungen verarbeiten kann, sind stochastische Kriterien, die etwa durch statistische Auswertungen von Corpora gewonnen wurden, in den zulässigen Kriterien eingeschlossen.

  31. 31.

    Im Beispiel oben sind sie – als in Experimenten herausgefundene Entscheidungskriterien – fest vorgegeben; in vielen Fällen – etwa bei der Suche nach interessanten Besichtigungszielen – sind die Alternativen sowohl in Zahl als auch in Inhalt variabel und müssen von ins Assistenzsystem integrierten Problemlösern ermittelt werden.

  32. 32.

    Siehe dazu die Diskussion der Abb. 7.9 im letzten Abschnitt.

  33. 33.

    Deren Länge nicht einmal vorhersehbar ist.

  34. 34.

    D. h. das Ziel möglichst schnell zu erreichen.

  35. 35.

    Siehe dazu beispielsweise Abschn. 2.8 in [35].

  36. 36.

    Der Planer ist ein Pruningverfahren für die T Schritte in die Zukunft durchzuführende Ermittlung der Konsequenzen einer Entscheidung.

  37. 37.

    Siehe dazu auch die Liste der Assistenzfunktionen nach [41] in Abschn. 2.2.

  38. 38.

    Vergleiche dazu die Abb. 7.7 und 7.8.

  39. 39.

    instruct wäre durchführbar, wenn observeFollow ausgeführt werden konnte, aber die Richtung des Nutzers nicht präzise genug auf das Ziel ausgerichtet ist – ein Fehler, der von correct interaktiv behoben werden soll.

  40. 40.

    In der Alternative replan wird dabei ausgenutzt, dass MADL in einer hypothetischen aktuellen Situation ALGO-Prozeduren ausführen kann, um die Effekte von Aktionen in die Bewertung einer Alternativen eingehen zu lassen (siehe [18]). In diesem Fall wird ein neuer Fußweg zur Haltestelle ermittelt. Falls er eine bessere Bewertung in der Zielfunktion GOAL SAT!(-user.estimArrival,2-bus.departure) bekommt als der aktuelle Fußweg, ist dieser Umstand ein „Pluspunkt“ für die Alternative replan.

  41. 41.

    Eine Implementierung der Theorie in einem Java-Programm ist in [44, 45, 46, 47] beschrieben.

  42. 42.

    Zu ihrem Einsatz in der Robotik siehe etwa [48].

  43. 43.

    Vergleiche dazu das Beispiel in Abschn. 2.3.2, indem für die Beispieldomäne der Aufzugsteuerung derartige Diagnoseregeln implementiert sind.

  44. 44.

    Die Thematik ergibt sich ja aus der Einführung von „Zwischenzielen“ zur Behebung von Störungen.

  45. 45.

    Diese Vorstellung erklärt die Bezeichnung Relaxation: das ursprüngliche Ziel soll möglichst gut approximiert werden.

Literatur

  1. T. Bauereiß, Automatische Übersetzung von ctt in pddl. Master’s thesis, Lehrstuhl für Künstliche Intelligenz, Universität Erlangen-Nürnberg (2009)

    Google Scholar 

  2. J. Hoffmann, B. Nebel, J. Artif. Intell. Res. (JAIR) 14, 253 (2001)

    Google Scholar 

  3. R. Alford, U. Kuter, D.S. Nau, in C. Boutilier (ed.). IJCAI 2009, Proceedings of the 21st International Joint Conference on Artificial Intelligence, Pasadena, July 11–17, 2009 (2009), S. 1629–1634

    Google Scholar 

  4. I. Millington, Artificial Intelligence for Games (Morgan Kaufman, 2006)

    Google Scholar 

  5. R.R. Murphy, Introduction to AI Robotics (MIT Press, 2000)

    Google Scholar 

  6. M. Daily, J. Harris, D. Keirsey, D. Olin, D. Payton, K. Reiser, J. Rosenblatt, D. Tseng, V. Wong, in Proc. IEEE Intl. Conf. Robotics and Automation (Philadelphia, PA, 1988)

    Google Scholar 

  7. A. Kelly, O. Amidi, H. Herman, T. Pilarski, A. Stentz, N. Vallidis, Y. Warner, Int. J. Robotics Res. 25(5–6), 449 (2006)

    Google Scholar 

  8. Y.T. Kim, S. Candido, S. Hutchinson, in Proceedings of the IEEE International Conference on Advanced Robotics (Jeju island, South Korea, 2007)

    Google Scholar 

  9. S. Candido, Y.T. Kim, S. Hutchinson, in Proceedings of the IEEE-RAS Internation Conference on Humanoid Robots (Daejeon, Korea, 2008)

    Google Scholar 

  10. N. Wirth (ed.), Compilerbau (B.G. Teubner, Stuttgart, 1986)

    Google Scholar 

  11. M. Rauterberg, in HCI (1), ed. by M.J. Smith, G. Salvendy (Elsevier, 1993), S. 612–617

    Google Scholar 

  12. M. Rauterberg, in Advances in Occupational Ergonomics and Safety I, ed. by A. Mital, H. Krueger, S. Kumar, M. Menozzi, J. Fernandez (International Society for Occupational Ergonomics and Safety, Cincinnati, 1996), S. 154–157

    Google Scholar 

  13. M. Rauterberg, in ECBS (IEEE Computer Society, 1996), S. 435–441

    Google Scholar 

  14. M. Fjeld, S. Schluep, M. Rauterberg, in Proceedings of 7th IFAC/IFIP/IFORS/IEA Symposium on Analysis, Design and Evaluation on Man-Machine Systems (1998), S. 591–596

    Google Scholar 

  15. M. Fjeld, S. Schluep, M. Rauterberg. Automatic, action driven classification of user problem solving strategies by statistical and analytical methods: A comparative study (1998)

    Google Scholar 

  16. R. Piccard, Affective Computing (MIT Press, 2000)

    Google Scholar 

  17. U. Hansmann, L. Merk, M.S. Nicklous, T. Stober, Pervasive Computing. The Mobile World, 2nd edn. (Springer, 2003)

    Google Scholar 

  18. B. Zenker, Strategische Entscheidungen bei der Mensch-Maschine-Interaktion. Master’s thesis, Lehrstuhl für Künstliche Intelligenz, Friedrich-Alexander-Universität Erlangen-Nürnberg (2008)

    Google Scholar 

  19. B. Zenker, in Proceedings of 6th IFIP Conference on Artificial Intelligence Applications and Innovations (AIAI 2010) (Larnaca, Cyprus, 2010)

    Google Scholar 

  20. S. Coradeschi, A. Saffiotti, in Proc. of the 17th IJCAI Conf. (Seattle, WA, 2001), S. 407–412. Online at http://www.aass.oru.se/~asaffio/

  21. M. Fichtner, Anchoring symbols to percepts in the fluent calculus. Ph.D. thesis, Fakultät Informatik, Technische Universität Dresden (2009)

    Google Scholar 

  22. M. Peterson, An Introduction to Decision Theory (Cambridge University Press, 2009)

    Google Scholar 

  23. F. Burstein, C.W. Holsapple (eds.), Handbook on Decision Support Systems 1. International Handbooks on Information Systems (Springer, 2008)

    Google Scholar 

  24. F. Burstein, C.W. Holsapple (eds.), Handbook on Decision Support Systems 2. International Handbooks on Information Systems (Springer, 2008)

    Google Scholar 

  25. R.T. Clemen, Making Hard Decisions, 2nd edn. (Duxbery Press, 1995)

    Google Scholar 

  26. A. Rapoport, Decision Theory and Decision Behaviour (Kluwer, 1989)

    Google Scholar 

  27. H. Jungermann, H.R. Pfister, K. Fischer, Die Psychologie der Entscheidung – Eine Einführung, 2nd edn. (Elsevier Spektrum Akademischer Verlag, 2009)

    Google Scholar 

  28. G. Gigerenzer, D.G. Goldstein, Psychol. Rev. 103, 650 (1996)

    Google Scholar 

  29. C.E. Shannon, Bell Syst. Tech. J. 30, 50 (1951)

    Google Scholar 

  30. J.R. Quinlan, C4.5: Programs for Machine Learning (Morgan Kaufmann, 1993)

    Google Scholar 

  31. Y. Shoham, K. Leyton-Brown, Multiagent Systems: Algorithmic, Game-Theoretic, and Logical Foundations (Cambridge University Press, Cambridge, UK, 2009)

    Google Scholar 

  32. A.M. Feldman, Welfare Economics and Social Choice Theory (Kluwer, Boston, 1980)

    Google Scholar 

  33. L. Chen, P. Pu, Survey of preference elicitation methods. Tech. rep., Swiss Federal Institute Of Technology In Lausanne (EPFL) (2004). My note

    Google Scholar 

  34. S. Russell, P. Norvig, Artificial Intelligence: A Modern Approach (Prentice Hall, 2009)

    Google Scholar 

  35. M. Negnevitsky, Artificial Intelligence: A Guide to Intelligent Systems, 2nd edn. (Addison Wesley, 2004)

    Google Scholar 

  36. J.A. Baier, F. Bacchus, S.A. McIlraith, Artif. Intell. 173(5-6), 593 (2009)

    Google Scholar 

  37. S. Sohrabi, J.A. Baier, S.A. McIlraith, in C. Boutilier (ed.). IJCAI 2009, Proceedings of the 21st International Joint Conference on Artificial Intelligence, Pasadena, July 11–17, 2009 (2009), S. 1790–1797

    Google Scholar 

  38. C.W. Hsu, B.W. Wah, R. Huang, Y.X. Chen, in Proc. ICAPS Workshop on Preferences and Soft Constraints in Planning (2006), S. 54–58

    Google Scholar 

  39. C.W. Hsu, B.W. Wah, R. Huang, Y.X. Chen, in Proc. Fifth International Planning Competition, International Conf. on Automated Planning and Scheduling (2006), S. 39–42

    Google Scholar 

  40. A. Gerevini, D. Long, Plan constraints and preferences in pddl3 - the language of the fifth international planning competition. Tech. rep., Department of Electronics for Automation, University of Brescia, Italy (2005)

    Google Scholar 

  41. H. Wandke, Theor. Issues Ergonomics Sci. 6(2), 129 (2005)

    Google Scholar 

  42. C.D. Wickens, J. Lee, Y.D. Liu, S. Gordon-Becker, Introduction to Human Factors Engineering, 2nd edn. (Prentice-Hall, Upper Saddle River, 2003)

    Google Scholar 

  43. R. Reiter, Artif. Intell. 32(1), 57 (1987)

    Google Scholar 

  44. G. Steinbauer, F. Wotawa, in Proceedings of the 19th International Joint Conference on Artificial Intelligence (IJCAI-05) (2005)

    Google Scholar 

  45. J. Weber, F. Wotawa, in Proceedings of the 5th Mexican International Conference on Artcial Intelligence (MICAI 2006) (Apizaco, Mexico, 2006)

    Google Scholar 

  46. M. Hofbaur, J. Köb, G. Steinbauer, F. Wotawa, J. Intell. Robotic Syst. 48(1), 37 (2007)

    Google Scholar 

  47. J. Weber, F. Wotawa, in Proc. of the 20th International Conference on Industrial, Engineering and Other Applications of Applied Intelligent Systems (IEA/AIE 2007) (2007)

    Google Scholar 

  48. S. Thrun, W. Burgard, D. Fox, Probabilistic Robotics (MIT Press, 2005)

    Google Scholar 

  49. B.J. Grosz, C.L. Sidner, Comput. Linguist. 12(3), 175 (1986)

    Google Scholar 

  50. C. Gardent, K. Konrad, in Proceedings of LACL (Logical Aspects of Computational Semantics)) ’98 (Grenoble, France, 1998)

    Google Scholar 

  51. L. Danlos, in In Proceedings of SIGDIAL’04 (2004), S. 127–135

    Google Scholar 

  52. N. Asher, A. Lascarides, Logics of Conversation (Cambridge University Press, 2005)

    Google Scholar 

  53. J. Kowtko, S. Isard, G. Doherty, Conversational games within dialogue. Tech. rep., Human Communication Research Centre, University of Edinburgh (1993)

    Google Scholar 

  54. I. Lewin, M. Lane, in In Proc. Gotalog-00, 4 th Workshop on the Semantics and Pragmatics of Dialogue, Gothenburg (2000)

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Bernd Ludwig .

Rights and permissions

Reprints and permissions

Copyright information

© 2015 Springer-Verlag Berlin Heidelberg

About this chapter

Cite this chapter

Ludwig, B. (2015). Planbasierter Dialog. In: Planbasierte Mensch-Maschine-Interaktion in multimodalen Assistenzsystemen. Xpert.press. Springer Vieweg, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-44819-9_7

Download citation

  • DOI: https://doi.org/10.1007/978-3-662-44819-9_7

  • Published:

  • Publisher Name: Springer Vieweg, Berlin, Heidelberg

  • Print ISBN: 978-3-662-44818-2

  • Online ISBN: 978-3-662-44819-9

  • eBook Packages: Computer Science and Engineering (German Language)

Publish with us

Policies and ethics