Wenn es nur um die Darstellung von 'stills' geht also 360 Grad Fotos ohne Echtzeit 3d-Berechnung, sollte die Prozessor-Leistung der Quest wirklich kein limitierender Faktor sein. Bei der Auflösung der Bilder würde ich mich an der Auflösung der Quest orientieren, Also: 1440x1600, 9:10 Seitenverhältnis, per Auge. Bedeutet bei einem FoV von ca: 100°: 1440 * 3,6 = 5184px breite 360° Fotos. Hier gibt es z.B. hochaufgelöste 360° Fotos: http://www.immersionvr.co.uk/mono-vs-stereo Ich bin auch gerade am experimentieren. Ich möchte auch eigenen Content auf die Quest bringen - dabei ist mir aber 6dof und Echtzeit 3D sehr wichtig. Leider ist mir der Deploy-Prozess nativer Render-Engines wie Unreal4 oder Unity zu aufwändig. Aus dem Grund experimentiere ich gerade mit WebVR. Das ist zwar nicht so performant - der Deploy-Prozess aber viel einfacher, da es sich 'nur' um Webseiten handelt.
Hallo @Zork23 , hört sich auch spannend an. Du willst also deinen Content via Web auf die Oculus bringen und nicht nativ etwas kompilieren? Ich bin gerade mit Unity am Werk und das klappt soweit auch ganz gut. Halt als vollwertige APK, die ich dann auf die Quest bringe. Dadurch kann ich aber halt die Auflösung nicht so hoch drehen. Daher meine Idee für den PC zu entwickeln und dies dann per Stream auf die Quest. EDIT: Ach, und nein, es geht mir nicht nur um Fotos. Fotos wollte ich nur verwenden, damit ich erst einmal den Prozessor bei der Qualitätsbestimmung vernachlässigen kann. Später, wie oben erwähnt, will ich es in "HighRes" vom PC aus streamen.
Ja, genau. Evtl. kann ich auch die Webseite lokal auf der Quest ablegen (ohne das ein Webserver läuft).
Ich befürchte, da wird die Performance aber noch mehr darunter leiden, weil berechnen muss es trotzdem die Quest und so hast du noch eine Schnittstelle mehr... Ich finde es mit Unity gar nicht so schlimm. Habe ein paar gute Videos dazu gefunden und hab die Einstellungen recht schnell hinbekommen. Hier z.B. der Channel von Frontend Fanatics, wohl ein Deutscher, der die Einrichtung der Quest jedoch auf Englisch (trotzdem leicht verständlich) zeigt: https://www.youtube.com/channel/UCAfpGYc3GWnatLM_6VW4XNA
Danke für die Info, ich schau mir die Videos mal an. Ich hatte vor einiger Zeit mit der Unreal-Engine rumexperimentiert und da wurde es schnell aufwändig. Da ich beruflich aus der Javascript-Ecke komme, ist frontend-developing kein Problem. Wenn der polygon-count und die Verwendung von shadern niedrig bleibt, sollte das machbar sein, hoffe ich . threejs und a-frame machen da schon einen guten Job.
@ZAG - meinst Du nicht die Vive Pro mit Wirless währe die Bessere Lösung für dich? Da hast du nicht so viele Barrieren die du überwinden musst. Klar ist hier die Reichweite begrenzet. Weis jetzt nicht welche Fläche du abdecken willst.
@Oimann da hast du sicher recht, vor allem da per WLAN Stream meine Questreichweite auch limitiert sein wird. Außerdem muss man einen fixen Raum für das Tracking einrichten... Ich hatte ne Vive (pro, nicht sicher) mit Wireless in einem VR Room auf. Bildqualität war recht Bescheiden bei dem Escaperoom Game. Daher war ich erstaunt, was wohl alles doch möglich ist in Sachen Bildqualität. Außerdem sind wir dann in einer anderen Preisklasse. Die Quest ist eh nur als Testobjekt gedacht (für den Bürobereich). Wir haben uns für die Hololens 2 bei Microsoft beworben. Damit werden wir dann natürlich etwas andere Anwendungen erstellen, aber das Grundprinzip bleibt gleich.
Die DEVs von Falcon Age (https://www.falconage.com/) fragen auf Twitter, für welches System sie das Spiel als nächstes entwickeln sollen. Die Switch führt, aber die Quest ist dicht dahinter. Go Vote! https://twitter.com/Ekanaut/status/1141086515965001728?ref_src=twsrc^tfw
Dann hattest du keine Vive Pro auf. Die Pro hat die in etwa die gleiche Auflösung wie die quest und auch Oled. Klar kostet die Pro dann in der Summe 1200 € mehr, aber wenn ich an die Arbeitszeit denke, die es kosten muss, das Streaming auf die Quest hinzubekommen, dürfte sich das schnell amortisiert haben.