Varjos Bionic VR Brille -RiftKiller? VR3.0?

Kraeuterbutter

Vice Admiral
Registriert
Nov. 2007
Beiträge
7.024
man hört eigentlich relativ wenig in den Medien von dieser Firma..

mir scheint aber, dass die Technik und Möglichkeiten bezüglich Auflösung alles andere in den Schatten stellen könnte..

hier ein Beispielbild:
Blick in ein Flugzeugcockpit:

links Rift, rechts Varjo
varjo-1100x589.jpg


zum Vergleich:
Pixel-Dichte jeh Grad:
Rift und Vive: 9 Pixel / Grad
Oculus Go: 12 Pixel / Grad
Vive Pro / Odyssey: 13 Pixel / Grad
Pimax 5k: 13 Pixel / Grad
Pimax 8k: 19 Pixel / Grad


also der Unterschied zwischen der alten Vive und der Pimax 8k sind - Pixeldichte bezogen - 9 Pixel mehr jeh Grad bzw. ca. eine Verdoppelung horizontal

bei der Varjo kommen wir aber im - nennen wir es - Sweetspot dann auf über 60Pixel / Grad !!!

der REchenaufwand hält sich aber in Grenzen, weil ja nur ein recht kleines Bild - vergleichbar mit der alten Vive - gerendert werden muss

im folgenden Video lief die Demo auf einem Laptop

laut Aussage im Video:
wäre bei einer normalen Brille das komplette Display mit so einer Auflösung ausgerüstet, entspräche das 16k PRO AUGE !
(Pimax 8k hat 4K Auflösung pro Auge)

hier das Video:

hier noch ein Vergleich, durch die Linsen abfotografiert:
vive Pro vs. Varjo
Varjo.jpg



was haltet ihr davon?

ich denke: die nächsten 10 Jahre oder noch länger, werden wir keine Displays sehen, die an das hier rankommen könnten
dafür bräuchte es Displays mit ca. 30mal sovielen Pixel wie die Pimax 5k bietet

bin gespannt ob die nächsten Jahre sowas wie die Varjo tatsächlich auch für Consumerbereich bezahltbar wird
Ergänzung ()

ich meine nicht Riftkiller, sondern Pimax-Killer..
und klar: es wird kein Killer sein - da sie sich zeitlich und vom Preis her in anderen BEreichen bewegen
 
  • Gefällt mir
Reaktionen: branhalor
Es wird fünfstellig kosten - und erstmal nur in der Mitte scharf sein da es sich nicht mitbewegt.

Oculus hat übrigens ein fast identisches Patent, sogar früher eingereicht:

https://uploadvr.com/oculus-patent-human-eye-retinal/

Wenn man sich auf den einschlägigen VR Seiten umschaut hört man von solchen Themen übrigens regelmäßig was :p
 
Da Moores Law tot ist, zumindest laut NVIDIA,

„Das Mooresche Gesetz ist nicht umsetzbar“, hat Nvidia-Chef Jensen Huang auf der CES erklärt. „Das Mooresche Gesetz bedeutete eine Steigerung um das Zehnfache in jeweils fünf Jahren und das Hundertfache in zehn Jahren“, sagte der Mitgründer des Grafikspezialisten bei einem Podiumsgespräch mit Journalisten und Analysten auf der CES 2019. „Jetzt gibt es nur noch einen Zuwachs um ein paar Prozent im Jahr. Vielleicht noch eine Verdoppelung in jeweils zehn Jahren. Moore’s Law ist also am Ende.“

wird wohl gar nichts anderes übrig bleiben, als auf Eye-Tracking mit Fov.Rendering zu setzen.

Da das schon gut funktioniert, hoffe ich, dass wir mittelfristig davon alle profitieren.

Ich hab die letzten Tage soviel VR-News gelesen, dass ich nicht mehr weis, wer es berichtet hat, evtl. ein Bericht auf heise.de der Tester hat versucht durch möglichst wildes hin und her schauen die Bereiche zu entdecken, die nicht passend zur Blickrichtung gerechnet wurden und er hat es nicht geschafft...

Ich vermute mal, damit erhalten wir dann Brillen, die in direkten Fokus 8k pro Auge darstellen und in multiplen Zonen dann immer niedrigaufgelöster werden, so dass man es nicht wirklich mitbekommt.

Dann langt ggf. auch eine 2080 für alle kommenden Brillen die nächsten x-Jahre ;)
 
  • Gefällt mir
Reaktionen: branhalor und EvilsTwin
ja, eye-tracking und FOV-Rendering - der heilige Gral für schöne Grafiken

hab ebenfalls ein Video gesehen, wo man schön sehen konnte, wie der Proband auf der CES 2019 per "blickkontakt" kleine Maulwürfe platzen hat lassen..
und das derart schnell - hätte ich nicht gedacht

auch scheint die mögliche Genauigkeit so hoch zu sein, höher als es fürs FOV-Rendering benötigt wird...

jetzt kann man sich 2 Ansätze vorstellen:

einmal: wir haben MONSTER-heftige Displays mit 8k oder 16k Auflösung (Pro Auge - auch wenn bei der Pimax 8k draufstehen, sinds nur 4k jeh Auge -- bedeutet: 8k pro Auge wären 4mal soviele PIxel als die Pimax8k hat )

und per FOV-Rendering werden dann nur die relevanten bereich fein gerendert und rest mit Pixelblöcken befeuert

der andere Ansatz wäre: wir haben keine 16k Displays, sondern eben die Lösung die hier Varjo zeigt

schöner ist Variante 1
aber ob und wann wir jemals 16k displays sehen werden ?

und ja: Moores Law gilt in vielen Bereichen wohl nicht mehr
man versucht sich im MOment ja zb. auch bei den Prozessoren noch mit Steigerung der Kernzahl weiter zu retten..
aber Single-Core-Leistung - da tut sich nimma viel
 
Ich habe es eben schon gesagt, aber die Lösung die Varjo hier zeigt ist nicht vollständig. Geplant ist nämlich auch hier Eye-Tracking einzusetzen und den scharfen Bildbereich über Spiegel dahin zu lenken, wo du hin schaust. Also im Prinzip "Hardware Foveated Rendering" - was hochkompliziert ist und das ganze natürlich erheblich teurer macht.

Ich denke "normale" hochauflösende Displays in Kombination mit Eye-Tracking und Software Foveated Rendering stellen hier den wirtschaftlich besseren Weg dar.
 
Blaexe schrieb:
Ich habe es eben schon gesagt, aber die Lösung die Varjo hier zeigt ist nicht vollständig.
ich habs auch beim erstenmal verstanden.. ;)
drum schrieb ich auch "man könnte sich vorstellen"... also Zukunft

Also im Prinzip "Hardware Foveated Rendering" - was hochkompliziert ist und das ganze natürlich erheblich teurer macht.
man könnte allerdings vielleicht auch einfach nur den Bereich in der Mitte größer machen,
die dpi etwas zurückfahren

wenn ich mir heute meine Vive oder die Samsung Odyseey+ anschaue: denen ist es mit ihren Linsen gelungen, einen so kleinen Sweetspot zu verbauen, dass alles was nicht in der Mitte ist sowieso unscharf ist..

die Oculus Go macht das besser...
obwohl die - vereinzelt - ein fixes foveated rendering (was bis zu 21% Leistungszuwachs bringt)
benutzen kann, sind dank der anders konstruierten Linsen das Bild über alles schärfer

würde man bei der Vive/Odyseey+ andere Linsen verbauen mit großem großem Sweetspot, könnte man in der Mitte mit höherer Auflösung rendern, und am rand niedriger (und hätte am Rand dann den gleichen Pixelbrei wie jetzt ganz ohne foveated rendering aufgrund der Linsenoptik/Sweetspotproblematik)

in der Vive oder Odyssey stellt sich die Problematik "auf die Seite schauen" -> per foveated Rendering und eyetracking die Auflösung nachführen eben gar ned.. wegen der Linsen


Ich denke "normale" hochauflösende Displays in Kombination mit Eye-Tracking und Software Foveated Rendering stellen hier den wirtschaftlich besseren Weg dar.
ja.. ich schrieb ja auch: die schönere Lösung
die Frage ist, bis wann wir solche Displays wirklich haben...

die Varjos der Zukunft (also mit eyetracking und bewegbarem Spiegel) hat - bezogen aufs ganze Blickfeld - eine 100mal so hohe Pixelanzahl als derzeitige Headsets...
die Vive Pro hat gegenüber der alten Vive gerademal den PixelfAktor um 1,8 nach oben verschoben
 
Kraeuterbutter schrieb:
man könnte allerdings vielleicht auch einfach nur den Bereich in der Mitte größer machen,
die dpi etwas zurückfahren

Das würde ja allerdings das Konzept ad absurdum führen. Es geht ja genau darum nur den Bereich mit extrem hoher Auflösung abzubilden, den du mit deinem Auge scharf sehen kannst. Und da wir in Zukunft natürlich ein größeres FOV wollen würde es auch nicht wirklich etwas bringen den Bereich zu vergrößern - außer dass die Hardwareanforderungen wieder steigen.

Wir werden nicht ganz plötzlich das perfekte HMD haben. Das wird schrittweise gehen...aber in spätestens 10 Jahren sollten wir doch schon bei der "Retina Auflösung" sein.
 
@Blaexe
Das würde ja allerdings das Konzept ad absurdum führen.
finde ich nicht unbedingt

also die Variante mit den beweglichem Spiegel und wanderndem hoch aufgelöstem Spot mal außen vor (Zukunft)

ich meine jetzt die fixe Variante

Es geht ja genau darum nur den Bereich mit extrem hoher Auflösung abzubilden, den du mit deinem Auge scharf sehen kannst.
ja.. beim beweglichen scharfen Spot, weil das Auge immer nur den sieht, wegen dem eye-tracking

beim unbeweglichen sag ich mal so:
Beispiel bei der Vive sind die Ränder außerhalb des Sweetspots unscharf...
diese könnte man somit mit wenige Details rendern.. is eh wurscht
und dafür den Bereich in der Mitte (sweetspot) höher aufgelöst...

bei der Varjos wird der Bereich halt extrem scharf gerendert...

aber z.b. eine Vive 110° Blickfeld, mit Vive-Pro Auflösung, und der Bereich des Sweetsspots nochmal mit der Auflösung der Vive Pro

das wäre dann in Summe die Auflösung einer Pimax 8k native,
aber nochmal deutlich schärfer im mittenbereich

ohne jetzt gleich die 3000dpi des Varjos displays
Ergänzung ()

Blaexe schrieb:
und da wir in Zukunft natürlich ein größeres FOV wollen
Beispiel:

Pimax 5k: 2560 x 1440 == 3,6 Millionen x 2 = 7,2 Millionen
Pimax 8k: 3.840 x 2.160 == 8,3 Millionen x 2 = 16,6 Millionen PIxel

aber:
Brille mit Pimax FOV mit 4 Displays mit jeweils 2560x1440 Auflösung:
Hintergrund wäre dann PImax 5k Auflösung
und der "Mittenbereich" - aber auf 100° FOV aufgezogen - ebenfalls mit Pimax 5k-Auflsöung

in Summe wären das dann 14,4 Millionen PIxel, also weniger als Pimax 8k jetzt hat
ABER: in der "Mitte" (Sichtfeld ähnlich einer Vive heute) wäre man schärfer unterwegs als bei der Pimax 8k


aber stimmt schon: wenn es Displays gibt, die hoch genug auflösen.. spart man sich das mit dem eineinanderblenden von 2 Displays und
kann das über fixes foveated REndering lösen (so wie es die oculus go eben auch machen kann)
 
Zuletzt bearbeitet:
Zurück
Oben