Advertisement

VR-Eingabegeräte

  • Paul GrimmEmail author
  • Rigo Herold
  • Johannes Hummel
  • Wolfgang Broll
Chapter
Part of the eXamen.press book series (EXAMEN)

Zusammenfassung

Wie erkennt ein VR-System die Aktionen eines Nutzers? Wie kann ein VR-System Objekte in ihrer Bewegung verfolgen? Welche technischen Möglichkeiten und Einschränkungen gibt es dabei? Wie sehen bewährte VR-Systeme aus, die ein Eintauchen in Virtuelle Welten unterstützen? Aufbauend auf den notwendigen Grundlagen, die Begriffe wie Freiheitsgrade, Genauigkeit, Wiederholraten, Latenz und Kalibrierung einführen, werden optische Verfahren betrachtet, die zur kontinuierlichen Verfolgung (engl. Tracking) von Objekten genutzt werden. Darüber hinaus werden weitere oft verwendete Eingabegeräte vorgestellt und diskutiert. Abschließend werden beispielhaft spezielle Verfahren wie Finger- und Augen-Tracking vertieft.

Literaturempfehlungen

  1. Bishop G, Allen D, Welch G (2001) Tracking: beyond 15 min of thought, SIGGRAPH 2001, Course 11, http://www.cs.unc.edu/~tracker/media/pdf/SIGGRAPH2001_CoursePack_11.pdf. Accessed 1 August 2013– Als Kurs auf der angesehenen Konferenz SIGGRAPH geben die Autoren einen guten Einblick in die technischen Grundlagen von VR-Eingabegeräten.

Literatur

  1. Berry R, Billinghurst M, Cheok AD, Geiger C, Grimm P, Haller M, Kato H, Leyman R, Paelke V, Reimann C, Schmalstieg D, Thomas B (2002) The first ieee international augmented reality toolkit workshop. IEEE Catalog Number 02EX632Google Scholar
  2. Bishop G, Allen D, Welch G (2001) Tracking: beyond 15 minutes of thought, SIGGRAPH 2001, Course 11. http://www.cs.unc.edu/~tracker/media/pdf/SIGGRAPH2001_CoursePack_11.pdf. Accessed 1 August 2013
  3. Bouzit M, Coiffet P, Burdea G (1993) The lrp dextrous hand master. Proceedings of the Virtual Reality Systems Fall’93, New YorkGoogle Scholar
  4. Bowman DA, Kruijff E, LaViola JJ, Poupyrev I (2004) 3d-user interfaces: theory and practice. Addison Wesley Longman Publishing Co., Inc., Redwood CityGoogle Scholar
  5. DeFanti IA und Sandin DJ (1977) Final report to the national endowment of the arts. US NEA R60-34-163, University of Illinois at Chicago Circle, Chicago, Ill.Google Scholar
  6. Duchowski A (2007) Eye tracking methodology: theory and practice. Springer, LondonGoogle Scholar
  7. Fernandes KJ, Raja V, Eyre J (2003) Cybersphere: the fully immersive spherical projection system. Communications of the ACM Volume 46 Issue 9. 141–146. ACM New YorkGoogle Scholar
  8. Gehrtsen C, Kneser H, Vodel H (1992) Physik – ein Lehrbuch zum Gebrauch neben Vorlesungen, Springer Verlag, Berlin, Heidelberg, New YorkGoogle Scholar
  9. Ginsberg CM und Maxwell D (1983) Graphical marionette. Proc. SIGGRAPH Comput. Graph. 18, 1, 26-27Google Scholar
  10. Goldstein H (1985) Klassische Mechanik. aus dem engl. übersetzt von Günter Gliemann. Aula Verlag, WiesbadenGoogle Scholar
  11. Hackenberg G, McCall R, Broll W (2011) Lightweight palm and finger tracking for real-time 3d gesture control. In Proc. of IEEE Virtual Reality Symposium 2011 (IEEE VR 2011). 19-26. ISBN 978-1-4577-0039-2Google Scholar
  12. Hartley R und Zisserman A (2000) Multiple view geometry in computer vision, Cambridge University Press, CambridgeGoogle Scholar
  13. Hillebrand G, Bauer M, Achatz K, Klinker G (2006) Inverse kinematic infrared optical finger tracking. 9th International Conference on Humans and Computers (HC 2006). Key 1045432Google Scholar
  14. Hummel J, Wolff R, Dodiya J, Gerndt A, Kuhlen T (2012) Towards interacting with force-sensitive thin deformable virtual objects. Joint Virtual Reality Conference of ICAT – EGVE – EuroVR, 2012 Eurographics Association, 17-20, doi: 10.2312/EGVE/JVRC12/017-020Google Scholar
  15. Kramer J und Leifer L (1989) The talking glove: an expressive and receptive ‚verbal‘ commu-nication aid for the deaf, deaf-blind, and non-vocal. Proc. of the 3rd Annual Conf. on Computer Technology, Special Education, Rehabilitation. California State University Press, NorthridgeGoogle Scholar
  16. Lee JC (2008) Hacking the nintendo wii remote. Pervasive Computing (Volume: 7, Issue: 3). IEEE Computer Society, 39-45, 10.1109/MPRV.2008.53Google Scholar
  17. Lin J, Wu Y, Huang TS (2000) Modeling the constraints of human hand motion. In Proceedings of the Workshop on Human Motion (HUMO’00), IEEE Computer Society, Washington, DC, USAGoogle Scholar
  18. Möhring M, Fröhlich B (2011) Effective manipulation of virtual objects within arm’s reach. Proc. Virtual Reality Conference (VR), 131,138, IEEE, doi: 10.1109/VR.2011.5759451Google Scholar
  19. Rickheit G, Herrmann T, Deutsch S (2003) Handbuch der Psycholinguistik. De Gruyter, BerlinGoogle Scholar
  20. Salisbury JK und Srinivasan MA (1997) Phantom-based haptic interaction with virtual objects. Computer Graphics and Applications. IEEE, doi 10.1109/MCG.1997.1626171Google Scholar
  21. Schmidt R, Thews G (1997) Physiologie des Menschen. Springer, HeidelbergGoogle Scholar
  22. Souman JL, Robuffo Giordano P, Schwaiger M, Frissen I, Thümmel T, Ulbrich H, Bülthoff HH, Erst MO (2008) Cyberwalk: enabling unconstrained omnidirectional walking through virtual environments. ACM Transactions on Applied Perception. doi 10.1145/2043603.2043607Google Scholar
  23. Zimmerman TG, Lanier J, Blanchard C, Bryson S, Harvill Y (1986) A hand gesture interface device. Proc. SIGCHI Bull. 17, SI (May 1987), 189–192Google Scholar

Copyright information

© Springer-Verlag Berlin Heidelberg 2013

Authors and Affiliations

  • Paul Grimm
    • 1
    Email author
  • Rigo Herold
    • 2
  • Johannes Hummel
    • 3
  • Wolfgang Broll
    • 4
  1. 1.Fachbereich Angewandte InformatikHochschule FuldaFuldaDeutschland
  2. 2.Fakultät ElektrotechnikWestsächsische Hochschule ZwickauZwickauDeutschland
  3. 3.Simulations- und SoftwaretechnikDeutsches Zentrum für Luft- und Raumfahrt e.V. (DLR)BraunschweigDeutschland
  4. 4.Fakultät für Informatik und Automatisierung / Fakultät für Wirtschaftswissenschaften und MedienTechnische Universität IllmenauIllmenauDeutschland

Personalised recommendations