Wie werden Bilder in VR eigentlich gerendert? Stichwort: Viewport / binocular overlap

Dieses Thema im Forum "VR Technologie" wurde erstellt von Odyssey_Plus_Man, 19. Juli 2020.

  1. Schon seit ich mich mit VR beschäftige stelle ich mir diese Frage. Für den nicht-VR-Bereich, also normale 2-D-Bilder, ist das ziemlich klar. Aber in VR wird das natürlich komplexer. Habe auch im Forum gesucht aber nix entsprechendes gefunden. Dieses Thema klingt zwar passend, aber wurde nicht weiter fortgeführt.
    Ich möchte das Ganze mal so angehen: stellt euch eine beliebige 3D Szene vor, gefüllt mit die durch 3-dimensionalen geometrischen Modellen. Jetzt legt man zwei Viewports fest (also definierte Kamerapunkte mit bestimmten Sichtfeld). Wie werden diese nun eigentlich angeordnet, damit das "richtige" Renderbild für beide Augen entsteht? Für mich ergeben sich dazu die folgenden 3 Fälle. Zur Vereinfachung ist das Ganze als Draufsicht zu verstehen:
    [​IMG]
    Fall 1: beide Viewports sind symmetrisch (im Beispiel je 110°) und erzeugen schematisch immer das gleiche Renderbild, egal in welcher Tiefenebene. Der binocular overlap nimmt immer einen konstanten Teil des FOV ein. Aus dem Bauch heraus denke ich, so wird das in der Praxis gemacht.

    Fall 2: Viewports haben kleineren Winkel. Für die dargestellte Tiefenebene, also nahe Objekte, ergäbe sich überhaupt kein binocular overlap, die würden sogar in einem "toten Winkel" verschwinden wenn sie noch näher sind. Verlängert man allerdings die Sichtlinien entsteht ein Überlappungsbereich, der allerdings immer klein im Verhältnis zum kompletten FOV bleibt. Dieser Fall würde allerdings viel Rechenleistung sparen und vermutlich ein nutzbares Bild ergeben.

    Fall 3: Verbreiterte Viewports. Die Sichtlinien überschneiden sich bereits für nahe Objekte; in der dargestellten Tiefenebene ergibt sich ein 100%iger Überlappungsbereich. Über diese Tiefenebene hinaus würde allerdings der rechte Viewport am linken Rand sehen mehr, als der linke Viewport und umgekehrt. Ich glaube, das würde ein "kaputtes" Renderbild ergeben.

    Fragen, die sich für mich erstmal stellen:
    • wer legt eigentlich den Viewport fest? Spieleengine / Grafiktreiber / die VR-Brillen-Plattform ...? Irgendwie muss das ja genormt sein, sonst gäbe das doch ein Kompatibilitäts-Chaos...
    • welche der obigen Fälle sind theoretisch möglich, welcher trifft tatsächlich zu? (vlt. ist es auch ganz anders als ich denke...)
    Kennt sich jemand hier gut aus und kann mal etwas Licht ins Dunkel bringen? Vlt. ist ja sogar ein VR-Ingenieur unter uns ;)
    Die Sache interessiert mich wirklich sehr und es wäre toll wenn jemand Lust hätte mit zu diskututieren. Ich glaube nämlich, dass sich einige Dinge damit erklären ließen...
     

Diese Seite empfehlen