Na ja nu, die Rechnungen sind ja wohl eher vom Milchmädchen, das Bild wird da wohl kaum unkomprimiert übertragen. Sonst hätte man auch bei 1080p schon ne Rate von 1920*1080*3*25 = 148MB/s, (für nen Film) und das wäre ja auch Quatsch. Dennoch ne Menge bei 4k, das ist klar.
Wie ich weiter vorne bereits gepostet habe, sind neue Übertragungstechniken ja bereits in Arbeit, mit denen Latenzen von unter 10 ms und übertragungsraten von 10 GBit/s möglich sind. Und dieser Link bezieht sich wohlgemerkt auf die Daten die aus dem Netz Handynetz kommen. Mit der neuen Technik sollen theoretisch 100 Gbit/s Übertragung bei einer Latenz von unter 1 ms möglich sein. Dieses Optimum wird sich im Mobilfunkbereich zwar nicht erreichen lassen, aber über ein W-Lan Netzwerk bestimmt. Eine Kabellose Übertragung von einem 4K Bild auf die VR Brille ohne wahrnehmbare Latenz ist nicht unrealistisch, im Gegenteil. Und in 15 Jahren wird das auch direkt aus dem Mobilfunknetz möglich sein, was zusätzliche Hardware neben der Brille überflüssig machen wird. Kabellose Übertragung von PC zur Brille, wird sicher schon in 5 Jahren möglich sein, denn da soll 5G ja bereits marktreif sein.
danke für die Info. die "20ms Latenz" schaft ein DK2 wohl nicht. ---------------------------------------------------------- eine Übertragung via Laser / Lighthouse kann ich mir sehr gut vorstellen.
Ja, genau, wir haben ja noch nicht genug Elektrosmog in unseren eigenen vier Wänden... Davon ab will ich nicht wissen wie zuverlässig das Ganze am Ende ist, WLAN hat auch gerne mal Aussetzer, generell sind kabellose Techniken deutlich störanfälliger.
Ich meine mich zu erinnern, dass Palmer in Interviews auch gerne mal darauf hinwies, dass er vermutet, dass zukünftige Versionen die Graphikhardware schon an Bord haben werden (wohl nicht unbedingt gleich die 2. oder auch 3. Generation). Wobei dann die Frage des Gewichts des Akku auch noch eine Rolle spielen wird, wenn der sowohl Bildschirme, Sensoren als auch Processing versorgen soll (und wenn's mit Induktion gehen soll: über ein paar Meter mit meiner Birne daneben, weiß nicht so recht...). Aber ich könnte mir vorstellen, dass es eine Art Hybridlösung wird. Es kommen fähige mobile Graphikchips in die HMDs, die dann durch Streaming von aufwändiger vorberechneten/vorbereiteten Daten unterstützt werden. Dabei müßte logischerweise das Ganze schon sich trennen lassen in Daten, die nur alle 50 ms oder so neugerechnet benötigt werden, und die Routinen, die mit diesen Daten dann mit OnBoard Grafik die Bilder im Rhythmus 120 FPS erzeugen. Da wird es wieder eine Menge an Tricksereien geben dürfen, um das zu optimalisieren. Was den Nachteil haben würde, dass für die Entwickler sich eine stärkere die Kluft bei den technischen Anforderungen für VR und 2D Versionen des gleichen Spiels ergeben würde. Aber die wird sich vermutlich mit Einführung der Touch Controller und der ganz anderen Anforderungen für eine gute User Experience in VR ohnehin über kurz oder lang ergeben, fürchte ich.