Die Psychologie invertierter Y-Achsen in Gaming

Ich spiele mit invertierter Y-Achse und zwar nicht nur, weil sie der Pilotensteuerung eines Flugzeugs entspricht (also nach hinten ziehen für „nach Oben blicken“ und nach oben drücken für „nach Unten sehen“), sondern auch, weil das der Kopfbewegung im echten Leben entspricht: Schauen wir nach oben, ziehen wir den Kopf zurück und schauen wir nach unten, neigen wir den Kopf nach vorne. Weshalb mich die angebliche „Invertierung“ immer wieder irritiert: tatsächlich spielen Leute mit „nicht-invertierter“ Blickneigung mit einer Bewegung, die im echten Leben invertiert wäre.

Dieses Phänomen wurde bislang wissenschaftlich kaum untersucht, spielt allerdings auch eine Rolle in Bestandteilen von non-gaming User Interfaces wie Scroll-Medien, die auch systemweitig „invertiert“ werden können, also wer nach unten scrollen möchte, bewegt seine Maus oder seine Finger auf dem Touchpad nach oben. Dies ist bei mir nicht der Fall, ich invertiere die Neigungsrichtung meiner digitalen Wahrnehmung praktisch ausschließlich in First-Person- und Third-Person-Umgebungen, also Ego-Shootern oder Action-RPGs oder ähnlichem. Auf dem Desktop bewege ich den UX-Zeiger „in Richtung des anvisierten Objekts“, also nach unten wenn ich nach unten möchte.

Im Artikel gehen sie davon aus, dass diese Diskrepanz aufgrund unterschiedlichen Prioritäten bei der Handlung im digitalen Raum auftritt: am Desktop arbeite ich „zielorientiert“ und visiere das gesuchte Objekt an (also eine Textstelle im scrollenden Text, eine Datei im File-Manager oder ähnliches). In einem Game in First/Third-Person-Perspektive dagegen schlüpfe ich in die Rolle des Avatars, simuliere dessen Wahrnehmung und handle, als ob dieser Avatar meinen Körper direkt abbildet: Kopf nach hinten für den Blick nach oben, Kopf nach vorne für den Blick nach oben.

Der Unterschied zwischen invertierter und nicht-invertierter Blickrichtung in digitalen Räumen ist also anscheinend liegt also zwischen dem Fokus auf „manipulierbares Objekt“ (Datei, Text, whatevs) und „interner Simulation der Wahrnehmung des digitalen Avatars“.

Both experts also suggest that a preference for inverted or non-inverted controls may go beyond our relationship with screens altogether and burrow much more deeply into how we perceive the world. “Maybe there are some neurocognitive differences in the extent to which people rely on ‘what is it?’ vision for perception and ‘where is it/how do I manipulate it?’ vision for action,” says Corbett.

“Although information gets passed back and forth through vast brain networks with lots of crosstalk, there’s a well-known dissociation between these two visual streams – the ‘where’ pathway runs along the top/dorsal part of cortex and the ‘what’ pathway diverts more ventrally along the bottom. Maybe Y axis inverters are more ‘vision for action’ people, and maybe the preference depends on factors like gaming history and/or biology.”

Goutcher agrees that there may be more to this than how we relate to screens. “When we perceive the world, we do so in multiple different frames of reference,’” he says. “Sometimes, we use an egocentric frame of reference, defining the world relative to our own location. Sometimes we use an object-centred frame of reference, where we define objects in the world relative to each other. This might be a particular issue if we think of inversion: if we learn the mapping of our controller use in an object-centred frame of reference we might invert as if rotating the scene relative to a stationary camera – or perhaps rotating the imagined camera relative to the stationary world. Using an egocentric frame of reference, you might expect the more direct, non-inverted mapping.”

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.