Momentan können wir uns in der Virtuellen Realität, wer eine 3D Brille hat, nur durch das Bewegen des Kopfes umschauen. Normalerweise nutzen wir dafür aber die Augenbewegung + die Kopfbewegung um uns umzuschauen.
Die Technik für Eyetracking gibt es schon, allerdings muss man relativ gerade durch zwei Linsen mit verschiedenen Bildern blicken, um ein dreidimensionales Bild zu erhalten.
Wie könnte man es in Zukunft machen, sodass man durch Linsen blickt, die Augenbewegungen berücksichtigen können? Oder wird das für immer unmöglich bleiben?
Ich bin nämlich überzeugt, dass es einer der Faktoren ist, der ebenfalls Übelkeit auslöst und es ist unangenehm sich ein "falsches Verhalten" anzugewöhnen. Es ist natürlich sich tendenziell mehr mit den Augen als mit dem Kopf umzusehen.
Bleibt die Frage, ob dies technisch unmöglich ist?