Die Universität von Pennsylvania hat ein Virtual-Reality-System entwickelt, das dem Benutzer Ganzkörper-Interaktion mit virtuellen Umgebungen ermöglicht, ohne sich mit unpraktischen 3D-Brillen herumärgern zu müssen.
Die Installation, genannt "LiveActor", basiert auf dem Zusammenwirken eines so genannten optischen Motion-Capture-Systems, das die Bewegungen des Körpers erfasst, und einem Stereo-Projektions-Systems, das den Benutzer in eine virtuelle Umgebung eintauchen lässt. Diese Kombination ermöglicht es dem Benutzer, mit virtuellen Charakteren zu interagieren.
Benutzer von LiveActor tragen einen speziellen Anzug. Er ist mit 30 Sensoren ausgestattet, die auf die verschiedenen Körperteile verteilt sind. Während sich nun beispielweise ein Schauspieler auf der ca. drei mal sechs Meter großen Plattform bewegt, erfasst ein System die Bewegungen der Sensoren und ermöglicht es so, einer virtuellen Person diese Bewegungen mit großer Genauigkeit und ohne spürbaren Zeitverlust nachzuvollziehen. Außerdem kann das System Bilder auf eine Reihe von Bildschirmen projizieren, von denen LiveActor umgeben ist.
Während bisherige Stereoprojektionssysteme auf verhältnismäßig statische Beobachtung begrenzt waren - wie etwa architektonische Kamerafahrten, Spiele und medizinische Visualisierungen - kann mit LiveActor fast jede erdenkliche Umgebung oder Situation simuliert werden. Dies macht es möglich, Benutzerreaktion auszuwerten und neue Trainingmethoden anzuwenden. Anders als echte Menschen können virtuelle Charaktere natürlich so programmiert werden, dass sie sich immer auf eine gleiche, bestimmte Weise verhalten. >aus *New Virtual Reality Array Allows Immersive Experience Without the Disorienting 3-D Goggles*. 12. Mai 2003.
Verwandte Themen
> tele-immersion demonstration: Meilenstein des Grid-Computing. 27. November 2002.
> first transatlantic touch: virtual reality touch. 4. November 2002.
> Erste groß-technische Virtual-Reality-Umgebungen für Business-Anwendungen. 8. März 1999.
| permaLink