1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

Valves Lighthouse Tracking Technologie

Dieses Thema im Forum "VR Technologie" wurde erstellt von Marcus, 29. März 2015.

  1. Die Frage war/ist ja, wie der Rechner, also der Empfänger dieses 60 Hz Outputs, seinerseits 90 FPS rechnet. Ich dachte, dass die Evolution damals mit 75 Hz beim DK1/DK2 anfing, und die ansich auch schon gut waren, aber 90 Hz für empfindlichere Gemüter eben noch besser wären. Sprich 90 mal pro Sekunde ein Update der exakten Position des HMD's in dem Augenblick, damit Gleichgewichtssinn und virtuelle Realität im Einklang bleiben. Und diese 90 statt 75 oder 60 FPS machen ja nur Sinn, wenn 1) entweder die vollen Trackingdaten für jedes einzelne Frame aktualisiert werden, 2) nur die der Gyrosensoren des HMD's 90 mal pro Sekunde frisch angeliefert werden, und man damit das Gap zwischen den 60 mal pro Sekunde angelieferten Daten der externen Sensoiren (LH/Constellation) annäherungsweise mit etwas geringerer Präzision füllen kann, oder 3) man komplett aufgrund von Wahrscheinlichkeitsberechnungen ohne echte Messungen die Gaps auffüllt.
    Jetzt dachte ich, dass die Rechner ohne ATW/ASW und Reprojection die 90 FPS liefern sollen und dabei eben eine der oben genannten Methoden benutzen. Und ATW/ASW udn Reprojection kommen nur ins Spiel, wenn der Rechner es ansich vergeigt und nicht rechtzeitig das nächste Frame liefert, sprich weniger als 90 FPS erreicht, dann wird im letzten Moment doch noch ein Bild berechnet, und zwar einfach in dem das letzte genommen wird und ohne große weitere Korrekturen so verschoben wird, wie die letzten (sehr wohl im Sinne von 90 Hz aktuellen) Daten des HMD und Sensoren die Bewegung seit dem letzten Frame angeben, z.B. Kopf hat sich um 0,2° nach links gedreht.
    Da kapiere ich nicht so genau, wie die Daten von den Sensoren mit 60 Hz ausreichen würden, es sei denn es funktioniert eh grundsätzlich so wie unter 2) oben genannt.

    Stehe ich da im Moment auf dem Schlauch ?
     
  2. gut.. die frage ist doch dann eher wieso mehrere LH Boxen? Bei optischen Systemen macht es ja noch sinn wegen der Verdeckung, der Auflösung der Kamera und einfach die schlichte entfernung, aber bei lighthouse? Da die Empfänger ja am trackbaren Controller oder hmd sind ist es doch immer sichtbar. Größere Reichweite? wurde doch auf den Dev Days erwähnt das die Reichweite nur durch die helligkeit und genauigkeit des Lasers limitiert ist.

    Die reinen Positionsdaten werden ja schneller erkannt als die 60hz von der Box. Das braucht ja nicht syncron sein.. es ist ja immer ein Laser da der erkannt werden kann, und die positionsbestimmung findet ja statt durch erkennen/änderungen im Sensor.
     
    #42 Hammerschaedel, 15. Dezember 2016
    Zuletzt bearbeitet: 15. Dezember 2016
  3. Zum einen, wegen der beschränkten Reichweite der BT Kommunikation der Boxen untereinander. Und vielleicht wegen des "FoV" der LH Boxen ? Wenn die Laserstrahlen auch auf 10 m oder mehr gleich gut gebündelt blieben, dann müßte man im Prinzip wie Du sagst einen größeren Raum einfach dadurch abdecken können, dass man die LH weiter weg vom zu trackenden Bereich aufstellt. Aber ich vermute, dass da dann auch irgendwann die Präzision aufhört.
     
  4. Ich brauch keine zusätzlichen. Zwei reichen mir, auch wenn man in einer Ecke mal das Tracking verliert, wenn man sich den Controller zu nahe an den Körper hält, kommt es recht selten vor. Aber anscheinend gib es Leute für die es interessant wäre, sonst würde nicht danach gefragt werden. Wird wohl meistens bauliche Gründe habe. Oder wenn ich mir solche Event-Szenarien im "The Void"-Style vorstelle, dann gäbe es dafür bestimmt Einsatzmöglichkeiten.
    Aber klar, mir als Otto-Normal-Noob reichen 2 ;)
     
  5. nee ernsthaft... die werfen doch codierte Laserstrahlen raus. Mehrere Boxen werfen doch auch nur die selben Strahlen raus selbst wenn es baulich nötig wäre wegen nischen oder so würde es doch schon aufgrund der Roomsetup-Software trotzdem nur ein Rechteck werden. Ich glaube da wird immer wieder nach gefragt, weil da einfach das Oculus Kamera wissen mit den Tracking der Vive zusammengewürfelt wird...
     
  6. hmm, ja, wird wohl so sein - hatte mich an die mind. FPS von Analog Monitoren erinnert.
    Um z.b. nVision3D benutzen zu können, braucht man einen Monitor, der mind. 120 Hz ausgeben kann. Hat vielleicht was damit zu tun, dass Spiele wie Tomb Raider mit 60Hz laufen und für 3D Vision dann das doppelte benötigt wird, weil halt zwei Bilder gleichzeitig dargestellt werden, wobei eines davon verdeckt wird, um den 3D Effekt zu erzeugen. Aber ich kenn´ mich da wirklich nicht besonders aus.
    Trotzdem sehr interessant mehr über die Technik zu erfahren.

    Denke mir aber, dass die Frequenz mit der die Brille und Controller getrackt werden doch eigentlich nichts mit der Frequenz zu tun hat, mit der das Bild auf den Displays ausgegeben wird, kann mich da aber auch irren.
     
  7. Stimmt schon was Du sagst. Es wird immer ein Bild verdeckt bei den alten Shutter-Brillen. Da reichen 60 Hz im Spiel aus weil immer gerade aus guckst und den Kopf nicht bewegst merkt man kein ruckeln. Aber wenn Kopfbewegungen dazu kommen wie mit der Vive braucht es dafür 90 Hz sonst kommt der Magen wieder hoch :D

    Stimmt die Tracking Frequenz mit 60 Hz hat nichts mit der Bildwiederholfrequenz im Display zu tun. Die geringere Tracking Frequenz denke ich wirkt sich als geringe nicht Wahrnehmbare Latenz bei Bewegungen aus. Dann wird z.B. das Bild des Controllers 2x genau an der gleichen Stelle angezeigt obwohl der Controller schon 0.1 Millimeter bewegt wurde aber es das Tracking System noch nicht mitbekommen hat.
     
  8. Mir ist immer noch nicht klar, warum mir dann 90 statt 60 FPS was bringen, wenn nur (max.) 60 mal eine neue Position verarbeitet würde - dann wäre doch jedes dritte Frame nur eine Wiederholung des zweiten ? Spätestens seit eh low persistance Displays verwendet werden, wäre das doch kein großer Vorteil mehr ?
    Naja, muß mich am Wochenende mal hinsetzen und mich im Internet schlau machen...
     
  9. ... weil die daten im HMD keine 60 mal verarbeitet werden sondern 1006 mal...

     
  10. Aber die Daten, die da mit dieser hohen Frequenz verarbeitet werden, wären demnach die HMD internen Sensor Daten. Die Daten der LH kommen ja auch laut dem Artikel anscheinend wirklich nur mit 60 Hz (bzw. halb mit 120 HZ) im Rechner an. Und im Rechner wird letztendlich ja das neue Frame berechnet, in dem eine neue Position verarbeiet ist. Also würde das bedeuten, dass jedes dritte Frame nur mit den Sensor-Daten des HMD, aber ohne neue Sensordaten von den LH berechnet wird. Was vermutlich auch völlig ausreicht. Nur blöd ist, wenn man dann zusätzliche LH verbinden wollte, weil es dann noch weniger wird.