Intel forscht an einer Methode zur Reduzierung des Aufwands beim Rendering von VR Szenen. Gezeigt wird das ganze erstmals Ende März. Quelle: http://uploadvr.com/intel-researchers-point-to-new-method-of-smart-rendering-for-virtual-reality-that-will-make-games-run-faster/ Ein sehr interessanter Ansatz. Nach meinem Verständnis muss dank der Vorsatzlinsen dann nur noch ein kleinerer runder Bildbereich gerendert werden, wodurch in Summe ca. 30 Prozent weniger Pixel "geschubst" werden müssen. Ausserdem dürften es auch zu einem geringen Aufzoomen der Pixel kommen. Interessant, dass sich auch die Branchengrößen zunehmend mit der Technologie beschäftigen. Übrigens... uploadvr.com kannte ich vorher noch nicht - eine sehr gute VR-Newsseite, so auf den ersten Blick.
Macht ja Sinn. Die Idee ist ja nicht neu und im Prinzip die Grundlage für effizientes Eyetracking. Wobei es hier im ersten Schritt nicht um Tracking geht, sondern darum unnötiges Rendering zu vermeiden, weniger Performance zu fordern und durch die eingesparte Leistung in mehr Auflösung / Frames zu stecken, um so ein besseres visuelles Ergebnis mit gleicher Leistung zu erreichen. Bisher gab es nur kaum einen Markt, damit sich die Entwicklung und ggf. Standardisierung lohnen würde. Doch anscheinend glauben immer mehr entwickelnde Unternehmen an VR.
Ich bin mir ziemlich sicher, dass OculusVR selbst nach Lösungen sucht um den Renderaufwand zu verringern. Die wissen zu genau das wenn ihre CV1 nur mit absoluter Highend Hardware läuft, sie sich zu wenig verkauft.
Ja, denke ich auch. Ist ja erst mal "nur" ein Stück Software, welches man im Treiber platziert und über eine Schnittstelle anspricht. Schön wäre halt ein Standard. Wir werden sehen
Ich habe das so verstanden, dass die pixeldichte im mittelpunkt einfach höher ist und zu den rändern hin abnimmt. dadurch wird die optische sehstärke erhöht und an den rändern, dort wo sowieso die linse blurry wird werden weniger pixel berechnet. macht auf jeden fall sinn! noch interessanter wird es wenn die Linsen optimiert werden würden und ein eyetracker die Pixeldichte des Mittelpunkts auch verschieben kann.
Ein Eyetracker wird auch genau deshalb noch entscheidend, nicht nur wegen dem korrekten Fokusieren der Tiefe, so dass das Auge eben nicht wie jetzt noch beim DK2 auf einen Abstand fixiert ist. Allerdings wird es für beides wohl min. 4K Auflösung brauchen, damit die Pixel klein genug und damit das Bild scharf genug ist.
also nur um es etwas zu verdeutlichen. Die Pixeldichte des Displays ist natürlich überall gleich, ob im unsichtbaren, sichtbaren oder fokussierten Bereich. Der Randbereich wird einfach in einer niedrigeren Auflösung oder mit weniger Details gerendert, was enorm Rechenleistung einspart, was bei schwächeren Systemen und GPUs, VR zugänglicher macht, bzw. für HighEnd-System noch mehr Details oder Weitsicht oder FPS zulässt. Aber wie gesagt. Die Pixeldichte bleibt gleich. Davon profitieren auch Displays mit geringen Auflösungen mit 1080, aber vor allem höher auflösende 4K-Displays oder höher. Je höher die Auflösung, desto lohnenswerter wird solch eine Entwicklung. Hier grad mal mein Forums-Testbild. Mitte volle Schärfe, Übergang etwas weniger und zum Rand noch weniger. Wenn das ein GPU-gerendertes 3D-Bild wäre, wäre die Einsparung bestimmt über 50% (geschätzt). Kommt halt drauf an wie groß man den Sweetspot machen möchte. Ggf. kann dieser sich dann auch je nach Pupillenausrichtung anpassen, was die Optimierung noch mal vervielfachen würde. Soweit ist man dann aber im Konsumerbereich noch nicht. Bei Tracking, Latenz und Anpassung der Grafiktreiber gibt es wohl noch viel Arbeit die Kosten verursacht. Davor muss VR erst mal richtig durchstarten
Das Bild ist eindeutig noch zu groß. Ja, zeigt aber den Effekt gut. Wobei das natürlich hier nur Unschärfe ist, das entscheidende ist eher hinter der Unschärfe. Im Prinzip müsste man nur das LOD der Objekte und Texturen anders verwenden, nicht nur auf die Entfernung, sondern auch abseits des Blickes des Spielers. Dann einen leichten Unschärfefilter drüber, passt. Aber vermutlich stelle ich mir das einfacher vor als es ist. Mit der DK2 kann man das aber halt nicht mache, bzw. können schon, aber es wäre Mist, weil man ja hingucken kann.