Advertisement

Feldstudie zur physiologischen und videogestützten Analyse von Nutzerzustand und -verhalten bei der Orientierung und Navigation am Frankfurter Flughafen

  • Elisa Maria KloseEmail author
  • Johannes Funk
  • Jens Hegenberg
  • Ludger Schmidt
Wissenschaftliche Beiträge
  • 43 Downloads

Zusammenfassung

Die vorliegende Studie untersucht das Verhalten und den Zustand von Menschen während der Navigation durch den Frankfurter Flughafen. Dafür absolvierten die zwölf Teilnehmer drei flughafentypische Navigationsaufgaben, während Gangparameter, die Herz-Kreislauf-Aktivität und die Blickbewegung aufgezeichnet wurden. Anschließend wurde die videogestützte Retrospektive-Think-Aloud-Methode genutzt, um einen Einblick in die Gedanken und Strategien der Probanden zu bekommen. Die vielfältigen sowohl quantitativ als auch qualitativ analysierten Daten liefern Erkenntnisse über das Gehverhalten, die Herzrate und die Herzratenvariabilität sowie das Informationssuch- und -aufnahmeverhalten. Außerdem werden Problemstellen bei der Orientierung und Navigation am Flughafen ermittelt. Die Ergebnisse werden diskutiert und auf den Anwendungsbereich der Reiseassistenz angewendet, um in einem menschzentrierten Ansatz den Informationsbedarf für ein Augmented-Reality-Reiseassistenzsystem zu spezifizieren und Gestaltungsempfehlungen dafür abzuleiten.

Praktische Relevanz Es wird eine Vielzahl an Daten aus einer Feldstudie unter natürlichen Bedingungen zur Verfügung gestellt, mithilfe derer Nutzerverhalten und -zustand bei der Navigation beschrieben und analysiert werden können. Der Versuchsraum – ein komplexer Verkehrsknotenpunkt – ist für diverse Anwendungsbereiche von Interesse. Die vorgestellten Daten können auch als Referenzdaten für ähnliche Studien von Nutzen sein, z. B. um zu vergleichen, ob und inwieweit sich das Verhalten und der Zustand von Reisenden durch eine Navigationsunterstützung verändert.

Schlüsselwörter

Blickbewegungsmessung Herzratenvariabilität Ganganalyse Retrospektive-Think-Aloud-Methode Augmented-Reality-Fußgängernavigation 

Field study with a physiological and video based analysis of user state and behavior during orientation and navigation at Frankfurt Airport

Abstract

The present study examines the behavior and state of people while navigating through Frankfurt Airport. The twelve participants completed three airport-typical navigation tasks, while gait parameters, cardiovascular activity and eye movement were recorded. Subsequently, the video-based retrospective Think-Aloud method was used to get an insight into the thoughts and strategies of the subjects. The diverse data were both quantitatively and qualitatively analyzed and provide insights into walking behavior, heart rate and heart rate variability, as well as information search and acquisition behavior, and help identifying problem areas in orientation and navigation at the airport. The results are discussed and applied to the application area of travel assistance in order to specify information requirements for an augmented reality travel assistance system in a human-centered approach and to derive design recommendations for that system.

Practical Relevance A great variety of data from a field study under natural conditions is provided to describe and analyze user behavior and state during navigation. The test field – a complex transportation hub – is of interest for a variety of applications. The presented data may also be useful as reference data for similar studies, e. g. to compare if and to what extent the behavior and state of travelers is changed by a navigation application.

Keywords

Eye-tracking Heart rate variability Gait analysis Retrospective think-aloud Augmented reality pedestrian navigation 

Notes

Danksagung

Wir danken den Projektpartnern, Frau Ina Ni und Herrn Oliver Rabe für ihre Unterstützung.

Förderung

Das Vorhaben RadAR+ wird mit Mitteln des BMBF unter dem Förderkennzeichen 16SV7282 gefördert.

Literatur

  1. Ahn E, Lee S, Kim GJ (2018) Real-time adjustment of contrast saliency for improved information visibility in mobile augmented reality. Virtual Real 22:245–262.  https://doi.org/10.1007/s10055-017-0319-y CrossRefGoogle Scholar
  2. Baloh RW, Sills AW, Kumley WE, Honrubia V (1975) Quantitative measurement of saccade amplitude, duration, and velocity. Baillieres Clin Neurol 25:1065.  https://doi.org/10.1212/WNL.25.11.1065 Google Scholar
  3. Behrends JC, Bischofsberger J, Deutzmann R, Ehmke H, Frings S, Grissmer S, Hoth M, Kurtz A, Leipziger J, Müller F, Pedain C, Rettig J, Wagner C, Wischmeyer E (2010) Physiologie. Duale Reihe. Thieme, StuttgartCrossRefGoogle Scholar
  4. Bortz J, Döring N (2002) Forschungsmethoden und Evaluation. Springer, BerlinCrossRefGoogle Scholar
  5. Buechner SJ, Wiener J, Hölscher C (2012) Methodological triangulation to assess sign placement. Proceedings of the 2012 Symposium on Eye-Tracking Research & Applications, ACM, New York, S 185–188.  https://doi.org/10.1145/2168556.2168589 Google Scholar
  6. Bulling A, Ward JA, Gellersen H, Tröster G (2009) Eye movement analysis for activity recognition. In: Helal S, Gellersen H, Consolvo S (Hrsg) Proceedings of the 11th international conference on ubiquitous computing—Ubicomp ’09. ACM, New York, S 41–50Google Scholar
  7. Canosa RL (2009) Real-world vision: selective perception and task. ACM Trans Appl Percept 6:1–34.  https://doi.org/10.1145/1498700.1498705 CrossRefGoogle Scholar
  8. Cave AR, Blackler AL, Popovic V, Kraal BJ (2014) Examining intuitive navigation in airports. Design Research Society Conference.Google Scholar
  9. Çöltekin A, Demsar U, Brychtova A, Vandrol J (2014) Eye-hand coordination during visual search on geographic displays. In: Kiefer P, Giannopoulos I, Raubal M, Krüger A (Hrsg) Proceedings of the 2nd International Workshop on Eye Tracking for Spatial Research, S 12–16Google Scholar
  10. Debernardis S, Fiorentino M, Gattullo M, Monno G, Uva AE (2014) Text readability in head-worn displays: color and style optimization in video versus optical see-through devices. IEEE Trans Vis Comput Graph 20:125–139.  https://doi.org/10.1109/TVCG.2013.86 CrossRefGoogle Scholar
  11. Deutsches Institut für Normung (2017) Ergonomie der Mensch-System-Interaktion—Teil 112: Grundsätze der Informationsdarstellung. DIN EN ISO 9241-112. DIN, BerlinGoogle Scholar
  12. Duchowski AT (2007) Eye tracking methodology: theory and practice. Springer, LondonzbMATHGoogle Scholar
  13. Frings S, Müller F (2014) Biologie der Sinne. Springer, BerlinCrossRefGoogle Scholar
  14. Gabbard JL, Swan JE, Hix D (2006) The effects of text drawing styles, background textures, and natural lighting on text legibility in outdoor augmented reality. Presence Teleoperator Virtual Environ 15:16–32.  https://doi.org/10.1162/pres.2006.15.1.16 CrossRefGoogle Scholar
  15. Guan Z, Lee S, Cuddihy E, Ramey J (2006) The validity of the stimulated retrospective think-aloud method as measured by eye tracking. In: Grinter R (Hrsg) Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. ACM, New York, S 1253–1262CrossRefGoogle Scholar
  16. Hölscher C, Meilinger T, Vrachliotis G, Brösamle M, Knauff M (2006) Up the down staircase: wayfinding strategies in multi-level buildings. J Environ Psychol 26:284–299.  https://doi.org/10.1016/j.jenvp.2006.09.002 CrossRefGoogle Scholar
  17. Jankowski J, Samp K, Irzynska I, Jozwowicz M, Decker S (2010) Integrating text with video and 3D graphics. In: Mynatt E, Schoner D, Fitzpatrick G, Hudson S, Edwards K, Rodden T (Hrsg) CHI 2010—we are HCI: conference proceedings and extended abstracts 28th Annual CHI Conference on Human Factors in Computing Systems, Atlanta, April 10–15, 2010 ACM, New York (1321)Google Scholar
  18. Karagiorgou S, Krassanakis V, Vescoukis VC, Nakos BP (2014) Experimenting with polylines on the visualization of eye tracking data from observations of cartographic lines. In: Kiefer P, Giannopoulos I, Raubal M, Krüger A (Hrsg) Proceedings of the 2nd International Workshop on Eye Tracking for Spatial Research, S 22–26Google Scholar
  19. Kiefer P, Giannopoulos I, Raubal M, Duchowski A (2016) Eye tracking for spatial research: cognition, computation, challenges. Spat Cogn Comput 17:1–19.  https://doi.org/10.1080/13875868.2016.1254634 CrossRefGoogle Scholar
  20. Klose EM, Eis A, Hegenberg J, Schmidt L (2018) Nutzerorientierte Anforderungsanalyse für ein adaptiv lernendes Reiseassistenzsystem mit Datenbrillen. Z Arbeitswiss 72:3–12.  https://doi.org/10.1007/s41449-017-0075-6 CrossRefGoogle Scholar
  21. Liversedge SP, Findlay JM (2000) Saccadic eye movements and cognition. Trends Cogn Sci (Regul Ed) 4:6–14.  https://doi.org/10.1016/S1364-6613(99)01418-7 CrossRefGoogle Scholar
  22. Müller-Feldmeth D, Schwarzkopf S, Büchner SJ, Hölscher C, Kallert G, v Stülpnagel R, Konieczny L (2014) Location dependent fixation analysis with sight vectors: locomotion as a challenge in mobile eye tracking. In: Kiefer P, Giannopoulos I, Raubal M, Krüger A (Hrsg) Proceedings of the 2nd International Workshop on Eye Tracking for Spatial Research, S 67–71Google Scholar
  23. Müsseler J, Rieger M (2017) Allgemeine Psychologie. Springer, Berlin, HeidelbergCrossRefGoogle Scholar
  24. Öberg T, Karsznia A, Öberg K (1993) Basic gait parameters: reference data for normal subjects, 10–79 years of age. J Rehabil Res Dev 30:210–223Google Scholar
  25. Salvucci DD, Goldberg JH (2000) Identifying fixations and saccades in eye-tracking protocols. In: Duchowski AT (Hrsg) Proceedings of the symposium on eye tracking research & applications—ETRA ’00. ACM, New York, S 71–78CrossRefGoogle Scholar
  26. Sammito S, Thielmann B, Seibt R, Klussmann A, Weippert M, Böckelmann I (2014) Leitlinie Nutzung der Herzschlagfrequenz und der Herzferquenzvariabilität in der Arbeitsmedizin und der Arbeitswissenschaft. AWMF Registernummer 002–042. https://www.awmf.org/leitlinien/detail/ll/002-042.html. Zugegriffen: 21. Aug. 2018Google Scholar
  27. Silva C, Rebelo F, Vilar E, Noriega P (2015) Preliminary study about social influence over wayfinding decisions. Procedia Manuf 3:5920–5926.  https://doi.org/10.1016/j.promfg.2015.07.905 CrossRefGoogle Scholar
  28. SMI (2012) Case study eye tracking—wayfinding in the railway station. https://www.yumpu.com/en/document/view/15075127/case-study-eye-tracking-wayfinding-in-the-railway-station-smi. Zugegriffen: 13. Aug. 2018Google Scholar
  29. Tanaka K, Kishino Y, Miyamae M, Terada T, Nishio S (2008) An information layout method for an optical see-through head mounted display focusing on the viewability. 7th IEEE/ACM International Symposium on Mixed and Augmented Reality (ISMAR) 2008. IEEE, Piscataway, S 139–142Google Scholar
  30. Viaene P, Ooms K, Vansteenkiste P, Lenoir M, Maeyer PD (2014) The use of eye tracking in search of indoor landmarks. In: Kiefer P, Giannopoulos I, Raubal M, Krüger A (Hrsg) Proceedings of the 2nd International Workshop on Eye Tracking for Spatial Research, S 52–56Google Scholar
  31. Ware C (2013) Information visualization: perception for design, 3. Aufl. Elsevier, Amsterdam, BostonGoogle Scholar
  32. Waters RL, Lunsford BR, Perry J, Byrd R (1988) Energy-speed relationship of walking: standard tables. J Orthop Res 6:215–222CrossRefGoogle Scholar

Copyright information

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019

Authors and Affiliations

  • Elisa Maria Klose
    • 1
    Email author
  • Johannes Funk
    • 1
  • Jens Hegenberg
    • 1
  • Ludger Schmidt
    • 1
  1. 1.Fachgebiet Mensch-Maschine-SystemtechnikUniversität KasselKasselDeutschland

Personalised recommendations