Der ultimative HTC Vive Thread

nargorn schrieb:
Nun, es gibt wohl eine Schnittstelle bei bestimmten nvidia Karten, die direkt das Foveated Rendering nutzen kann, ohne dass dies extra in der Anwendung selbst eingearbeitet werden müsste. Also praktisch immer Foveated Rendering ab einer gewissen Generation, wenn eine kompatible Kamera genutzt wird. Klärchen?

Haste dazu mal n Link? Ich weiss das Lens Matched Shading ab der GTX 1060 unterstützt wird, aber dafür muss es AFAIK vom Spiel unterstützt werden.
 
Damit Nvidia es unterstützt muss Gameworks eingebunden sein bzw VRWorks.
 
Es wird aber sicherlich eine Einschränkung geben ab welcher Serie es unterstützt wird. Übertrieben gesagt wird das eine 10 Jahre alte GPU wohl nicht unterstützen.
 
Sicherlich. Meine irgendwoanders gelesen zu haben, ab 1060GTX. Finde es aber nicht. Auf jeden Fall 10er Reihe.
 
Ich bin wirklich gespannt wie der Eindruck von Eye-Tracking + Foveated Rendering sein wird. Ich dachte auch dass es rein vom Algorithmus her relativ einfach ist sobald Eye-Tracking gut genug funktioniert.

Anscheinend steckt da aber doch mehr dahinter:


Kann mir vorstellen dass es doch ziemlich nervt wenn man permanent auch nur geringste "Störungen" sieht, quasi bei jedem Blickverschieben.
 
Letzendlich helfen eh nur Reviews, aber immerhin wird schon mal was auf den Markt gebracht. Zumindest das lässt hoffen.
 
Simpler Gedanke: kommt nicht lowres input in der Blickperipherie noch auf die organische lowres ontop? In der Realität trifft nämlich ein highres input auf die lowres Rezeptorfläche des Auges. Und wenn der input dann noch lowres ist, könnte der Eindruck trotzdem eine gewisse Matschigkeit in der Peripherie sein. Muss man testen.
 
Wieso zum Geier hat das noch quasi niemand?

Kompatibel mit Vive und Vive Pro, funktionierendes foveated rendering out of the box und schon seit über einem Jahr zu kaufen. WTF?

Ich werd mich mal beherrschen, wird mit TPCAST sowieso nicht laufen, denk ich mal.
 
Eye Tracking bringt ein doch aktuell eh nix außer man ist nen Entwickler.

Games müssen es ja explizit unterstützen.

Solang noch kein großes Headset EyeTracking gleich ab werk dabei hat, wirst auch kein Game dafür sehen.
Aktuell hält man als dev doch eher den aufwand so gering wie möglich bei der VR Game entwicklung
 
Anscheinend ja eben nicht, das aGlass Dev Kit 2 bringt wohl ne proprietäre Softwareschnittstelle mit welche, solange ne Vive oder Vive Pro und ne NVIDIA GraKa im Spiel ist, foveated rendering Anwendungsunabhängig möglich macht. Das ganze zum Preis von 5ms höherer Latenz und dem Nachteil die IPD nicht mehr unterhalb von 65mm einstellen zu können.

Mich juckts gehörig in den Fingern, aber wie gesagt; Mit TPCAST kombinierbar wird es wohl eher nicht sein, ausserdem brauch ich für die Vive Classic kein foveated rendering, jedenfalls nicht mit ner 1080 TI im Rücken.

Mit 110° FOV ist Pimax Kompatibilität auch unmöglich, und gerade dort könnte man das ganze ja erst richtig gut gebrauchen. Das ganze macht aber auf jeden Fall Hoffnung.
Ergänzung ()

Falls sich ein Vive Pro User nicht beherrschen kann: https://www.immersive-display.com/de/p/383-aglass-dk-ii-vr-eye-tracking-module.html

Eventuell kann man es aber auch noch günstiger beziehen: http://www.aglass.com/

:D
 
Wenn es 200€ kosten würde und meine Lieblingsapp Performanceprobleme hätte, würde ich das erwägen. Aber im Moment läuft eher Beat Saber auf der Vive Pro. :)))
 
glaub ich persönlich nicht dran dass es out of the box nur weil man ne nvidia karte drin hat magischerweise ne game engine dynamisches rendern von bestimmten bildausschnitten beherrscht.

z.b. nur das einbinden von vr works in der unreal engine kann dein projekt lahmlegen und man muss teils etliches anpassen und fixen damit dein build wieder funktioniert.

kann es sein dass die NUR VR Funhouse presentiert haben? einer der ganz wenigen titel die überhaupt VR Works nutzen.
Also wieder China Marketing das ganze
 
Zuletzt bearbeitet:
Kann natürlich gelogen sein, wer weiß.


 
Gibts unabhängige Tests? Kann mir wie gesagt nicht vorstellen, daß man das lowres in der Peripherie NICHT als störend wahrnimmt
 
Also lowres hast Du auch beim natürlichen Sehen. Beim Bogenschiessen merkt man das deutlich. Man kann entweder das Target oder die Pfeilspitze „scharf stellen“. Beides geht nicht. Wir fokussieren immer, den Rest macht das Gehirn.
 
nargorn schrieb:
Man kann entweder das Target oder die Pfeilspitze „scharf stellen“. Beides geht nicht. Wir fokussieren immer, den Rest macht das Gehirn.

Wie du sagst hat das aber mit dem Fokus zu tun. (Stichwort : Varifocal Display) Zwei unterschiedliche Dinge.

In dem Zusammenhang ist eher "foveales Sehen" und "peripheres Sehen" wichtig.
 
What? Das was ich nicht fokussiere ist halt unscharf.
 
Du redest aber von Entfernung. Das Ziel ist weiter weg als die Pfeilspitze. Deswegen kannst du nicht beides scharf stellen. Darum geht es bei der Diskussion um Foveated Rendering aber nicht.
 
So wie ich das verstanden habe, ist immer ein erheblicher Teil unseres Blickfelds unscharf und das Gehirn setzt aus den Einzelbildern unseren Seheindruck zusammen. Also sehen wir nicht immer alles scharf, sondern nur das was direkt vor uns liegt. Daher muss nur das scharf gerendert werden was wir direkt und nicht peripher sehen. Beim Bogenschiessen sehe ich daher entweder die Spitze vom Pfeil scharf oder das Ziel, je nachdem wo ich hinschaue.
 
Zurück
Oben