Zum Thema Eyetracking - das scheint ja für einige hier sowas wie der heilige Gral zu sein. Ich hab aber mal ein Interview von John Carmack gesehen und da hat er gemeint, dass man sich davon nicht allzuviel an Performancegewinn erwarten kann, weil der Überbau dafür schon wieder soviel verbraucht, da wäre es weit besser bei anderen Dingen zu anzusetzen, wenn es um die Performance geht. Habs gefunden: noch eines:
Ich mach es mir einfach,.. Eyetracking unter Meta,.. No-Go. Eyetracking unter Valve/Pimax etc. gerne.
Im ersten Abschnitt ja, weil da gehts rein um paar Watt mehr Stromverbrauch für's Eyetracking, was man auch in die interne GPU investieren könnte, so Carmack. Das spielt im angebundenen VR Bereich natürlich keine Rolle. Und klar, wenn man den scharf gerenderten Bereich zu klein bzw. den Schärfeabfall nach außen zu aggressiv wählt, gibt's Qualitätseinbußen. Aber das kann man ja ausbalancieren (siehe PSVR2; meines Wissens nach ist das ein perfektes DFR) und dann bringts immer noch mind. 30% Ersparnis. Bei immer höher aufgelösten Brillen wird die Ersparnis übrigens immer größer.
DFR Eyetracking (mit Quadview) kostet CPU Leistung. Bei DCS scheinbar so um die 5-10%. Spart aber GPU Leistung so 20-30%, das ist für mich halt entscheidend als einer der gerne hohe Auflösungen hat. Ich bringe halt problemlos meine 4090 ans Limit, einfach Auflösung der G1 oder G2 auf >130% einstellen dann ist´s egal ob ich alleine oder mit KI bei iRacing fahre.
Genau so siehts aus. Ja, man braucht zwar zusätzliche 2 viewports und wie gesagt, für jeden viewport muss separat die Geometrie berechnet werden (CPU Aufgabe). Aber insgesamt 20...30% GPU Ersparnis ist schon richtig toll und ein schöner Fortschritt in Sachen VR Rendering. Merkst du dabei irgendwelche Einbußen, wenn du dich umschaust? Oder waren das Infos von anderen Usern?
John Carmack's Aussage stimmt aber nur für den Augenblick. Wenn die Auflösung deutlich höher wird, steigt der Aufwand der GPU, der eingespart wird, proportional an, während der Aufwand für's Eye-Tracking statisch bleibt. Wird das FoV erhöht, führt das direkt zu einem weiteren deutlichen Effizienzgewinn. Außerdem würde sich so, durch die Kombi von DFR & DF Transport, auch das Bandbreitenproblem bei der Signalübertragung auffangen lassen.
Nein keine Crystal. Habe die Crystal Super vorbestellt. Aktuell wieder meine G1 da die G2 vor ein paar Wochen kaputt gegangen ist. Ich lese aber viel im DCS Forum, da haben einige die Crystal und auch die G2 Omnicept. Scheint wirklich gut zu sein mit dem Eyetracking. Wenn ich mich richtig erinnere sind da einige dabei die nur noch 10 - 20% in voller Auflösung rendern, ist aber halt keine Racing Simulation. Da könnte ich mir vorstellen dass man da etwas mehr scharfen Bereich braucht. Ausserdem habe ich ein sehr scharf eingestelltes Motionsystem SFX100, da wackelt es halt ganz schön hart. Ob da Eytracking noch mitkommt?
ja sicher, seine Aussagen sind wohl hauptsächlich auf die Quest Pro bezogen, aber ich fands halt interessant weil er auch ein bisschen einen Einblick in den technischen hintergrund gibt und weil es halt nicht so einfach funktioniert wie manche hier glauben - einfach Eyetracking einbauen und 50% mehr Performance....
Keiner redet von 50%. wir reden von 30%, aber nur wenn du nicht im CPU Limit bist. Ausserdem muss das die Simulation einbauen mit dem Quadview, ich kenne da aktuell nur DCS.