Abstract
In the last decade, research has increasingly focused on robots as autonomous agents that should be capable of adapting to open and changing environments. Developing, building and finally deploying technology of this kind require a broad range of ethical and legal considerations, including aspects regarding the robots’ autonomy, their display of human-like communicative and collaborative behaviour, their characteristics of being socio-technical systems designed for the support of people in need, their characteristics of being devices or tools with different grades of technical maturity, the range and reliability of sensor data and the criteria and accuracy guiding sensor data integration, interpretation and subsequent robot actions. Some of the relevant aspects must be regulated by societal and legal discussion; others may be better cared for by conceiving robots as ethically aware agents. All of this must be considered against steadily changing levels of technical maturity of the available system components. To meet this broad range of goals, results are taken up from three recent initiatives discussing the ethics of artificial systems: the EPSRC Principles of Robotics, the policy recommendations from the STOA project Making Perfect Life and the MEESTAR instrument. While the EPSRC Principles focus on the tool characteristics of robots from a producer, user and societal/legal point of view, STOA Making Perfect Life addresses the pervasiveness, connectedness and increasing imperceptibility of new technology. MEESTAR, in addition, takes an application-centric perspective focusing on assistive systems for people in need.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
References
World Robotics – Industrial Robots 2014. Statistics, Market Analysis, Forecasts and Case Studies. IFR Statistical Department, Frankfurt, Germany. http://www.worldrobotics.org/uploads/media/Executive_Summary_WR_2014_02.pdf http://www.worldrobotics.org/uploads/media/Foreword_2014_01.pdf
Lichiardopol, S.: A Survey on Teleoperation. DCT Report, Technische Universiteit Eindhoven (2007)
Eurostat, http://ec.europa.eu/eurostat/statistics-explained/index.php/Population_structure_and_ageing
EPSRC Principles of Robotics, http://www.epsrc.ac.uk/research/ourportfolio/themes/engineering/activities/principlesofrobotics/
van Est, R., Stemerding, D. (eds.): Making Perfect Life. European Governance Challenges in 21st Century Bio-engineering. European Parliament STOA – Science and Technology Options Assessment (2012) http://www.rathenau.nl/uploads/tx_tferathenau/Making_Perfect_Life_Final_Report_2012_01.pdf
Manzeschke, A., Weber, K., Rother, E., Fangerau, H.: Studie “Ethische Fragen im Bereich Altersgerechter Assistenzsysteme”. VDI/VDE Innovation + Technik GmbH, Januar (2013)
Internet Encyclopedia of Philosophy, http://www.iep.utm.edu/ethics/
Hiatt, L.M., Harrison, A.M., Trafton, G.J.: Accommodating human variability in human–robot teams through theory of mind. In: Walsh, T. (ed.) Proceedings of the Twenty-Second International Joint Conference on Artificial Intelligence (IJCAI’11), vol. 3, pp. 2066–2071. AAAI Press (2011)
Pynadath, D.V., Si, M., Marsella, S.C.: Modeling theory of mind and cognitive appraisal with decision-theoretic agents. In: Gratch, J., Marsella, S. (eds.) Social Emotions in Nature and Artifact, pp. 70–87. Oxford University Press, Oxford (2013)
Orság, F.: Speaker recognition in the biometric security system. Comput. Inform. 25, 369–391 (2006)
Chakraborty, S., Bhattacharya, I., Chatterjee, A.: A palmprint based biometric authentication system using dual tree complex wavelet transform. Measurement 46(10), 4179–4188 (2013)
Dehghani, A., Ghassabi, Z., Moghddam, H.A., Moin, M.S.: Human recognition based on retinal images and using new similarity function. EURASIP J. Image Video Process. 2013, 58 (2013)
Skowron, M., Rank, S.: Interacting with collective emotions in e-Communities. In: Von Scheve, C., Salmela, M. (eds.) Collective Emotions, Perspectives from Psychology, Philosophy, and Sociology. Oxford University Press, Oxford (2014)
Matiasek, J., Baroni, M., Trost, H.: FASTY – a multi-lingual approach to text prediction. In: Miesenberger, K., et al. (eds.) Computers Helping People with Special Needs, pp. 243–250. Springer, Heidelberg (2002)
King, S., Karaiskos, V.: The blizzard challenge 2009. In: Proceedings of the International Blizzard Challenge TTS Workshop (2009)
Laghari, K., et al.: Auditory BCIs for visually impaired users: should developers worry about the quality of text-to-speech readers? In: International BCI Meeting 3–7 June, Pacific Grove, CA (2013)
Eis, C., Skowron, M., Krenn, B.: Virtual agent modeling in the RASCALLI platform. In: PerMIS’08 – Performance Metrics for Intelligent Systems Workshop, August 19–21, pp. 70–76. Gaithersburg, MD, USA (2008)
Skowron, M., Irran, J., Krenn, B.: Computational framework for and the realization of cognitive agents providing intelligent assistance capabilities. In: The 18th European Conference on Artificial Intelligence Proceedings 6th International Cognitive Robotics Workshop, July 21–22, pp. 88–96. Patras, Greece (2008)
Gregor Sieber, G., Krenn, B.: Towards an episodic memory for companion dialogue. In: Allbeck, J., et al. (eds.) Intelligent Virtual Agents, LNAI 6356, pp. 322–328. Springer, Heidelberg (2010)
Moor, J.H.: The nature, importance, and difficulty of machine ethics. In: Anderson, M., Anderson, S.L. (eds.) Machine Ethics, pp. 13–20. Cambridge University Press, New York (2011)
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Appendices
Appendix 1: MEESTAR Guiding Questions Original Formulation (German)
-
1.
Ist der Einsatz eines bestimmten altersgerechten Assistenzsystems ethisch bedenklich oder unbedenklich?
-
2.
Welche spezifisch ethischen Herausforderungen ergeben sich durch den Einsatz eines oder mehrerer altersgerechter Assistenzsysteme?
-
3.
Lassen sich ethische Probleme, die sich beim Einsatz von altersgerechten Assistenzsystemen ergeben, abmildern oder gar ganz auflösen? Wenn ja, wie sehen potenzielle Lösungsansätze aus?
-
4.
Gibt es bestimmte Momente beim Einsatz eines altersgerechten Assistenzsystems, die ethisch so bedenklich sind, dass das ganze System nicht installiert und genutzt werden sollte?
-
5.
Haben sich bei der Nutzung des Systems neue, unerwartete ethische Problempunkte ergeben, die vorher – bei der Planung oder Konzeption des Systems – noch nicht absehbar waren?
-
6.
Auf welche Aspekte und Funktionalitäten des untersuchten altersgerechten Assistenzsystems muss aus ethischer Sicht besonders geachtet werden?
Quoted from [6], p. 14.
Appendix 2: Ethical Dimensions Assessed in MEESTAR, Original Formulation (German)
All quotes [6], pp. 16–20.
Ethical dimension | Related questions |
---|---|
Care (Ge.: Fürsorge) | Q1: “An welchem Punkt wird eine technisch unterstützte Sorge für hilfebedürftige Menschen problematisch, weil sie das Selbstverhältnis und das Weltverhältnis dieser Menschen auf eine Weise verändert, die diese selbst nicht wünschen bzw. die wir Anderen im Blick auf diese Menschen nicht wünschen sollen?” p. 16 Q2: “Welche Grade der Abhängigkeit in Fürsorgestrukturen sind noch akzeptabel bzw. gewünscht und ab welchem Punkt wird aus positiv gemeinter Fürsorgehaltung eine Bevormundung bzw. eine negativ bewertete paternalistische Einstellung, die unter Umständen technisch unterstützt bzw. hergestellt werden kann?” p. 16 |
Autonomy/self-determination (Ge.: Selbstbestimmung) | Q1: “Wie können – in Anlehnung an eine konsequent am Selbstbestimmungsrecht des Einzelnen orientierte Praxis – Menschen bei der Ausübung ihrer Selbstbestimmung unterstützt werden?” p. 16 Q2: “Wie können Menschen in ihrer Selbstbestimmung unterstützt werden, bei denen die ‘normalen’ Kriterien selbstbestimmten Entscheidens und Handelns fraglich oder gar hinfällig geworden sind?” p. 16 Q3: “Wie gehen wir damit um, dass die Zuschreibung von Selbstbestimmung mit dem Anspruch auf Fürsorge und Unterstützung in Konflikt treten kann?” p. 16 |
Safety (Ge: Sicherheit) | Q1: “Wie ist dem zu begegnen, das die Herstellung von Sicherheit unter Umständen zur Verringerung vorhandener Fähigkeiten führt, d.h. wenn Menschen beginnen, sich auf Technik zu verlassen, hören sie vielleicht auf, sich selbst um bestimmte Dinge – in einem produktiven Sinn – zu sorgen?” p. 17 Q2: “Wie ist es zu bewerten, wenn durch ein Assistenzsystem das subjektive Sicherheitsgefühl steigt, ohne dass objektiv die Sicherheit erhöht wurde?” p. 17 Q3: “Wie können Konflikte zwischen Sicherheit und Privatheit oder Sicherheit und Selbstbestimmung (Freiheit) gelöst werden?” p. 17 |
Privacy (Ge.: Privatheit) | Q1: “Wie kann die Privatsphäre des Einzelnen über die informationelle Selbstbestimmung hinaus als moralischer Anspruch bei der Gestaltung altersgerechter Assistenzsysteme zur Geltung gebracht werden?” p. 18 Q2: “Wie kann die Privatheit kognitiv eingeschränkter Menschen geschützt werden?” p. 18 Q3: “Wie ist mit kulturellen Unterschieden in der Bewertung von privater und öffentlicher Sphäre umzugehen – z.B. bei Einführung von altersgerechten Assistenzsystemen bei Menschen mit Migrationshintergrund?” p. 18 |
Equity (Ge.: Gerechtigkeit) | Q1: “Wer bekommt Zugang zu altersgerechten Assistenzsystemen?” p. 18 Q2: “Wie soll die Finanzierung von altersgerechten Assistenzsystemen gestaltet werden (wer zahlt wie viel)?” p. 18 Q3: “Welches Verständnis von intragenerationeller und intergenerationeller Gerechtigkeit liegt vor?” p. 18 |
Participation (Ge.: Teilhabe) | Q1: “Welche Teilhabe besteht für ältere Menschen, die nicht mehr in das Arbeitsleben integriert werden (sollen)? Welche Teilhabe wünschen sie sich?” p. 18 Q2: “Welche Art und Weise der Teilhabe wird durch altersgerechte Assistenzsysteme a) anvisiert und b) tatsächlich gefördert? Inwiefern werden durch technische Assistenzsysteme bestimmte Teilhabevarianten be- oder verhindert?” p. 18 |
Self-conception (Ge.: Selbstverständnis) | Q1: “Wie wird der Sinnfrage, die im Alter verstärkt auftreten mag, Raum und Perspektive in sozio-technischen Arrangements geboten?” p. 19f Q2: “Inwiefern verändert die Tendenz zur Medikalisierung des Lebens auch die Haltung zum Alter und Altern?” p. 19f Q3: “Welche (direkten oder auch indirekten) sozialen Zwänge entstehen durch dominante Bilder des medikalisierten bzw. technisch unterstützten Alter(n)s?” p. 19f Q4: “Inwiefern werden durch altersgerechte Technik Normierungsroutinen etabliert?” p. 19f |
Rights and permissions
Copyright information
© 2015 Springer International Publishing Switzerland
About this chapter
Cite this chapter
Krenn, B. (2015). Robot: Multiuse Tool and Ethical Agent. In: Trappl, R. (eds) A Construction Manual for Robots' Ethical Systems. Cognitive Technologies. Springer, Cham. https://doi.org/10.1007/978-3-319-21548-8_2
Download citation
DOI: https://doi.org/10.1007/978-3-319-21548-8_2
Publisher Name: Springer, Cham
Print ISBN: 978-3-319-21547-1
Online ISBN: 978-3-319-21548-8
eBook Packages: Computer ScienceComputer Science (R0)