https://www.macrumors.com/2025/08/21/vivo-vision-headset-chinese-apple-imitation/ https://www.uploadvr.com/vivo-vision-discovery-edition-launches-as-store-demo/ 8K pro Auge und 180° FOV, ist erster April?
Sehe das jetzt erst. 8K, 180° mit einem Snapdragon XR2+ Gen 2? Also in Sachen Standalone wird da nicht viel zu erwarten sein außer Mediaplayern und Simpel-Grafik Anwendungen. Wenn es aber wirklich gut via Virtual Desktop wireless PCVR unterstützen sollte, wäre es sicherlich einen ganz langen Blick wert. Sobald das aber nicht gut funktioniert, ist es für mich nicht weiter interessant. Schaun mer mal.
Sieht nach kompletten Bullshit aus. Wenn das mit DFR laufen soll und Wifi brauchts da etwas mehr als eine Snapdragon.
Kann schon sein, dass das Ding ein Blender wird. Auf dem freien Markt ist halt kein besserer Chip als dieser für solche Geräte verfügbar. Nur Apple kann das halt überbieten. Aber mal abwarten... Wo steht das denn? Hab ich noch nicht gelesen über das Teil.
Steht in den beiden verlinkten Artikeln, die roads netterweise verlinkt hatte: "To its credit, Vivo's clone has some competitive specifications. The dual 8K micro-LED displays provide 3,840 × 3,552 pixels per eye – slightly higher than the Vision Pro's resolution – and offers 180-degree panoramic field of view." (MacRumours Artikel) "The headset runs OriginOS Vision, Vivo's fork of Android, and is powered by Qualcomm's Snapdragon XR2+ Gen 2, the same chipset used in Play for Dream MR, Sony's enterprise headset, and Samsung's upcoming Android XR headset." (UploadVR Artikel)
Bauen kann man sowas schon aber das ding ist ja eindeutig Wifi. Wartet ich habe gerade ein Bild gefunden direkt vom Panel aufgenommen:
Bin auf einen recht neuen Artikel dazu gestossen: Vivo Vision vs. Meta Quest 3: Ein vollständiger Vergleich der MR-Headsets für 2025 – VR NEWS TODAY Es scheint einiges seltsam übersetzt zu sein (aus dem Chinesischen?)!
Das Problem liegt hier nach Nachfrage bei Chatgpt: Der Unterschied der Display-Auflösungen (Pixel pro Auge) zwischen Meta Quest 3 und Vivo Vision beträgt ≈ 86 %. Für das Entpacken komprimierter Daten dürfte man typischerweise einen Geschwindigkeitsgewinn sehen, wahrscheinlich im Bereich von etwa 15-25 % unter idealen Bedingungen. 20% mehr Entpackleistung bei 86% mehr zu berechnen. Ich würde den Chinesen raten sich sehr gut mit DFR zu beschäftigen um mit der Leistung der Snapdaragon mehr als nur ein unbrauchbares Gerät rauszubringen, wenn es keinen schnellen Kabelanschluss hat. Wifi 2x 4K ohne DFR - unmöglich, ausser man heisst Tim Cook. Über DFR Fortschritte lese ich gar nichts, nicht mal, dass es von besonderem Interesse ist. Selbst lokal auf dem Gerät selbst bezweifle ich, dass die Snapdragon zwei 4K mit mehr befeuern kann als ein par Frames pro Sekunde. Meine Meinung: Chinesische Nebelkerze.
Ja — es gibt aktuell ein paar vielversprechende Entwicklungen beim Dynamic Foveated Rendering (DFR) für VR, besonders wichtig für kabellose Headsets. Hier eine kompakte Übersicht: Aktuelle Fortschritte Pimax Crystal Super Pimax integriert Eye-Tracking und nutzt DFR zusammen mit Technologien wie Variable Rate Shading, damit nur der Bereich, auf den der Nutzer blickt, in hoher Auflösung gerendert wird. Ränder/Feld außerhalb werden weniger aufwändig dargestellt. (Pimax Store) Neues Eye-Tracking Verfahren (University of Arizona) Forscher haben eine Methode basierend auf Deflectometry entwickelt, die über 40.000 Oberflächenpunkte des Auges in einem einzigen Kamerabild erfassen kann. Damit wird eine deutlich höhere Genauigkeit beim Blicktracking möglich, was DFR effizienter machen könnte. (MIXED Reality News) Forschung & KI-Modelle GazeProphet: Ein Software-basiertes Modell zur Vorhersage, wohin der Blick als Nächstes gelenkt wird, ohne dass teures Eye-Tracking-Hardware nötig wäre. Liegt aktuell bei etwa 3,83° Blickabweichung. (arXiv) FovealNet: Ein weiteres Modell, das KI-gestütztes Blicktracking optimiert, insbesondere mit Fokus auf Effizienz und Visual Quality bei VR-Anwendungen. (arXiv) Komfortsteigerung & Adaptive Systeme Es gibt Arbeiten, die DFR nicht nur zur Performance-Steigerung sehen, sondern auch mit adaptive Field of View Änderungen kombinieren, um etwa Übelkeit und Augenbelastung zu reduzieren. (arXiv)