1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

Foveated Rendering

Dieses Thema im Forum "VR Technologie" wurde erstellt von MrVR, 3. Januar 2016.

  1. So sieht es aus, deswegen hab ich auch geschrieben, das die vive pro mit eyetracking extrem wichtig für den Fortschritt der Branche ist. Wichtiger als ein weites fov, auch wenn zunächst für uns als Endkunden uninteressant.
     
    SolKutTeR und ShyCoconut-VR gefällt das.
  2. Falls mit dem ProEye Release nvidia spieleunabhängig, softwareseitig FR in verschiedenen Variationen unterstützt kann FR schon in einigen Wochen im 2. Quartal verfügbar sein. Die Einsparung von Rechenleistung durch weniger aufgelösten Außenbereich ist anscheinend beeindruckend, ebenso die hohe Auflösung der Texturen im Fokus.
     
    #32 ShyCoconut-VR, 23. Januar 2019
    Zuletzt bearbeitet: 23. Januar 2019
    Cyber733 gefällt das.
  3. Na, wenn sie das alles hinbekämen, dann wäre das natürlich grandios. Dann wäre so eine Vive Pro Eye mit Wireless Adapter natürlich schon eine Option. Es wäre so schön, wenn FR endlich starten würde, auch weil man ja bei NVidia sehen kann dass die Sprünge nicht so wahnsinnig groß sind und das würde dann quasi den Performancegewinn von 2 GPU Generationen bedeuten.

    Aber Sehen ist Glauben, oder so ähnlich. Erstmal abwarten ob wirklich all die relevanten Spiele damit dann tatsächlich den FR Performance Boost realisieren werden.
     
    stoeppel, ShyCoconut-VR und Cyber733 gefällt das.
  4. Interessante Diskussionsrunde von Tobii, im Bezug darauf was man mit der HTC Vive Pro Eye an Erfahrungen sammeln konnte.
     
    ToM und Oimann gefällt das.
  5. Seit geraumer Zeit steht die Vive eigene Foveated Rendering API für die Unity-Engine und Vive Pro Eye HMD, auf Github und im Unity Store kostenlos zur Verfügung. (y) (Supported Unity v2017.2.0 or higher)

    [​IMG]
     
  6. Interessanter Blogbeitrag von tobii.

    [​IMG]
    Realistic virtual vision with Dynamic Foveated Rendering

    Over the last 18 years, Tobii has become known as the world’s leading eye tracking company, offering a set of eye tracking and user sensing technologies for a huge array of devices and use cases. Today, Tobii’s eye tracking technology can be found in laptop computers, VR Headsets, AR glasses, Innovative healthcare solutions, assistive devices, and many more diverse applications and products. Recently, Tobii has been working carefully on a set of technologies and capabilities related to foveation that we call Tobii Spotlight Technology™. This blog seeks to explore the current benefits made possible via foveation, with an emphasis on recent benchmarks Tobii conducted. Weiterlesen →
     
  7. Recht interessanter Blog-Beitrag von nVidia im Bezug auf VRworks.


    NVIDIA Variable Rate Shading Demonstrated in Autodesk VRED
    We introduced Variable Rate Shading (VRS) last year with the Turing architecture. This new, easy to implement rendering technique allows developers to vary the amount of processing power spent across the image, to spend time and increase quality in the areas where they are most needed. Since virtual reality demands both a high performance and a high image quality, VRS is the perfect fit for VR experiences, especially when used in conjunction with eye tracking. Weiterlesen→
     
    ToM und Zork23 gefällt das.
  8. Gibt es denn schon Demos was da an Rechenleistung gespart werden kann oder wieviel Frames mehr gerendert werden, wenn Foveated rendering genutzt wird? Interessant ist auch ob Kompression dann noch möglich ist weil sie vielleicht zu lang dauert.
    Mit dem anstehenden Mainstream Sprung auf 2x4K würde ich mir keine Brille mehr ohne Eyetracking kaufen. Die Technologie scheint zu funktionieren und ist einfach das pure Einsparen von Datenmüll den wir eh nicht scharf sehen und nach OpenXR kann es nun auch OpenVR.

    Auf Youtube habe ich einige FR videos der PSVR2 angesehen und das unscharfstellen der Peripherie ist nicht wirklich stark. Schaut man auf Areale auf die der User sicher gerade nicht blickt ist es nicht wirklich unscharf, viertel Dioptrie vielleicht. Kann aber sein dass man dafür through the lens videos finden muss.
     
    #38 roads, 22. April 2024 um 07:25 Uhr
    Zuletzt bearbeitet: 22. April 2024 um 07:35 Uhr
  9. VRFlightsimguy den ich ab und zu mal gucke, meinte dass richtiges FR bei ihm im FS2020 ungefähr 5-6 FPS ausmachen. Fixed FR bringt bei mir 2-3 FPS.

    Wäre mal echt interessant, wie groß der Unterschied tatsächlich ist in unterschiedlichen Spielen.
     
  10. Das wäre dann ja gar nicht mal so viel.

    Aber das wird dann natürlich bei einem HFoV der Crystal von ca. 105° gewesen sein. Bei der Super mit 130° wäre das schon etwas mehr, und bei einer 12K mit >200°, so sie denn jemals kommt, deutlich mehr.

    Aber ich gebe zu, wenn die Super kommt und ansich gut funktioniert, muss man sich natürlich schon mal selber tief in die Augen schauen, wie sehr man denn die Settings runterschrauben müßte, um sie zu befeuern, und ob es am Ende wirklich Sinn macht.

    In jedem Fall würde sich dort schon ein Fixed FR lohnen, weil man dann ggf. ja immer noch eine ziemlich ordentliche Auflösung außerhalb der Mitte behielte, z.B. auf Light oder G2 Niveau. Für die paar Mal, die ich in die peripheren Bereiche schaue, reicht mir das sicher. Einem DCS Piloten, der dort den gegnerischen Fighter im Blick behalten will, aber vielleicht eher nicht, wenn er sich gerade dafür die Super holt, um diese noch besser erkennen zu können (z.B. um ein Wendemanöver eines fernen Gegners im Augenwinkel erkennen zu können).
    Und dazu ist ja immer die Frage, ob man dort überhaupt noch im Sweetspot der Linse ist oder ob die einem schon diese zusätzlichen Details verschluckt, so dass es eh keinen Sinn machen würde, dort noch Computing Ressourcen in die superhohe Auflösung zu investieren.

    Wird schon spannend, wenn diese Auflösung kommt, wie man das am besten in gute FPS umsetzen kann.
     
    #40 axacuatl, 22. April 2024 um 10:24 Uhr
    Zuletzt bearbeitet: 22. April 2024 um 10:36 Uhr