Der ultimative HTC Vive Thread

Es gibt hier zwei Faktoren. Der erste ist der Fokuspunkt. Dein Auge kann nur auf eine "Ebene" (Enfernung) scharf stellen. Deswegen ist nur entweder der Pfeil oder das Ziel scharf. Weil sie zig Meter auseinander stehen (was die Tiefenunschärfe natürlich nicht ausgleichen kann). Der zweite ist der Fakt, dass wir nur in einem sehr kleinen Bereich, ca. 2°, wirklich scharf sehen. Also quasi auf dieser eben angesprochenen Ebene.

Das hat aber nichts mit dem Pfeil und Ziel Beispiel zu tun. Die Lösung dafür ist das Varifocal Display im Half Dome Prototypen. Schau dir das Beispiel mit der Platine an. Durch Eye-Tracking weiß die Rift, dass du auf die Platine im Vordergund schaust. Es geht ein Signal an die Stellmotoren (oder was auch immer genutzt wird) raus, die das Display bewegen. (6:14) Dadurch verändert sich der Abstand zu den Linsen und daraus folgend der Fokuspunkt - du fokusierst also in dem Fall auf den Pfeil (nahe) und der Hintergrund wird unscharf.

Die Diskussion hier im Thread dreht sich allerdings um den zweiten Fall. Fixiere deinen Blick auf einen bestimmten Punkt am Monitor. In dem Punkt siehst du alles scharf. Jetzt versuche dich auf einen weiter entfernten Punkt zu konzentieren ohne deinen Blick und deine Augen zu bewegen: Es ist unscharf. Und genau das will sich Foveated Rendering zunutze machen. Hier sieht man es sehr gut. Dank Eye-Tracking weiß die Software wohin du schaust. Und da du sowieso nur dort wirklich scharf siehst wird auch nur dort mit hoher Auflösung gerendert und alles drum herum mit niedriger Auflösung. Im Idealfall würdest du nicht einmal einen Unterschied bemerken.
 
  • Gefällt mir
Reaktionen: nargorn
Ja es geht um die Peripherieunschärfe auf der Fokusebene, nicht um die Unschärfe jenseits der Fokusebene (vor oder hinter dem Fokuspunkt bzw näher oder ferner). Die eine Unschärfeart (Fokusunschärfe) hat ihre Ursache in den Brechungseigenschaften eines optischen Linsensystems, die andere (Peripherieunschärfe) in einer Ungleichverteilung der Sinnesrezeptoren im Augenhintergrund, im Fokuspunkt hohe Dichte (=Auflösung), zur Peripherie hin abnehmende Dichte.

Mein Gedanke ist nun folgender: wenn man in der Peripherie jenseits des Fokuspunktes, aber halt auf Fokusebene rezeptorbedingt unscharf sieht (man halte sich ein beschriebenes Blatt Papier vor die Nase und versuche im Randbereich zu lesen, ohne die Augenachsen zu bewegen), dann sollte man diese Unschärfe nicht noch erhöhen durch lowres inputsignal, da es ontop zur Rezeptorunschärfe kommt.

Falls das stimmt, würde man mit foveated rendering die Peripherie MEHR verblurrt sehen, als es natürlicherweise der Fall ist. Und das fänd ich kacka..
 
Solange noch die PPD in der Periphere dargestellt werden dessen Äquivalent dein Auge auch sehen kann gibt es da kein Problem. Ja, natürlich gibt es ein "zu wenig" an Auflösung im peripheren Sichtfeld, das kann man sich durch Übertreibung leicht klar machen. Aber solange man darüber bleibt wird man es auch nicht merken.

Deswegen wird VR in der jetzigen Generation nichts bis nicht viel bringen. Die Grundauflösung ist schon zu niedrig. Das wird mit 4k x 4k natürlich ganz anders aussehen.
 
Zuletzt bearbeitet:
Es sollte da durchaus einen Spielraum bzw einen Schwellenwert geben, bis zu dem das noch nicht bemerkbar ist, aber trotzdem Performance spart. Letztenendes muss man gucken, wie es sich im tatsächlichen Erleben darstellt. Ich halte es allerdings für schwierig, solche Parameter aus der Technik auf Rezeptorphysiologie anzuwenden, ganz zu schweigen von den Ergänzungs- und Korrekturleistungen des Gehirns.
 
Naja, dafür gibt es ja schlaue Wissenschaftler die sich genau damit beschäftigen. Ich denke wir haben in der Menschheitsgeschichte schon viele Dinge geschafft dir vorher als schwierig - sogar unmöglich - galten.

Da halte ich effektives Foveated Rendering noch eines der (im Verhältnis) einfacheren Sachen. Aber ja, andererseits sicher schwieriger als es auf den ersten Blick aussieht. Abrash nannte es ja auch den "größten Unsicherheitsfaktor" für Gen2.
 
Zuletzt bearbeitet:
Versuch macht kluch. Ich richte mich erstmal auf Artefakte ein, also einen Kompromisss, man tauscht Vorteile gegen Nachteile, die aber u.U. nicht so schwer wiegen wie die Vorteile.

Ist jedenfalls vermutlich glatter umsetzbar als dieses multifocalding, da ja ein Servomechanismus nötig ist, der blitzartig plus präzise reagieren muss. Ich glaube auch nicht, daß es subjektiv einen großen Immersionsgewinn darstellt gemessen am Aufwand und der Servoproblematik. Ist sicher ein enormer Kostentreiber. Aber daß sie solche exotischen Sachen probieren, find ich grundsätzlich gut. Experimentierfreude halt.
 
Ich meine gelesen zu haben dass die Augenbewegung - oder zumindest die Zeit bis der dazugehörige Eindruck im Gehirn ankommt - langsamer ist als man so denkt.

Ich könnte mir gut vorstellen, dass das Varifocal Display mit Piezoelementen läuft, eventuell noch mit einer mechanischen Übersetzung um den Weg entsprechend zu vergrößern. Das würde dann so funktionieren, dass das Eye-Tracking die Information raus gibt, wie weit das Objekt entfernt ist, das man sich aktuell anschaut. Für die verschiedenen Entfernungen sind in der Software Spannungen hinterlegt, mit der das Piezoelement dann angesteuert wird. Das ist problemlos mehrere Millionen Male im Mikrosekundenbereich möglich.

Kann natürlich auch etwas ganz anderes sein. Aber wenn wir es hinkriegen einen PKW-Injektor millionenfach auf die Mikrosekunde genau einspritzen zu lassen sollte es hier auch was geben. Haltbarkeit wird auf jeden Fall das A und O dabei sein.

Ich halte Varifocal (oder gar Multifocal) auch für Dinge, die man erst einmal erlebt haben muss. Aber danach wahrscheinlich nicht mehr missen möchte.
 
Ich (und viele andere wenn man sich reddit so anschaut) finde das Touchpad für Locomotion einfach ungeeignet. Viel zu ungenau und kein Feedback. Außerdem wird es doch - sind wir mal ehrlich - zu 90% eh nur als Stick Ersatz oder für virtuelle Buttons benutzt.

Die bessere Alternative ist es eben richtige Buttons und einen richtigen Stick hin zu machen. Oculus hatte für Santa Cruz ja auch erst Touchpads angedacht und dann wieder durch Sticks ersetzt.
 
  • Gefällt mir
Reaktionen: #basTi
Blaexe schrieb:
Ich (und viele andere wenn man sich reddit so anschaut) finde das Touchpad für Locomotion einfach ungeeignet. Viel zu ungenau und kein Feedback. Außerdem wird es doch - sind wir mal ehrlich - zu 90% eh nur als Stick Ersatz oder für virtuelle Buttons benutzt.

Leider wahr. Ich finde dummerweise das Touchpad auch für Locomotion angenehmer. ;) Und weil die Dinger wegen Links- und Rechtshändern auf beiden Sticks vorhanden sind kriege ich direkt ne richtige Gänsehaut. "Dual-Stick Gamepads" sind der Grund weshalb ich aufgehört habe an Konsolen zu spielen.

Naja, zum Glück ist abgesehen von Locomotion der Zweck ja ein anderer. Und ein kleines Trackpad ist ja zum Glück auch noch übrig geblieben. :D
 
Nochmal zum Thema "aGlass" und Foveated Rendering.

Wie so oft bewahrheitet sich: Wenn etwas zu gut klingt um wahr zu sein ist es auch zu gut um wahr zu sein. Es wird versprochen dass foveated rendering out of the box mit jeder Software (nVidia GPU vorausgesetzt) funktioniert. Dem ist aber nicht so:

https://www.reddit.com/r/Vive/comments/93cn48/aglass_personal_experience_help_from_devs_needed/

They wrote "Foveated rendering is already up and running with the aGlass dev kit, and is presently said to work on any application with no modifications, so long as the computer is equipped with an NVIDIA GPU. " Unfortunately, that is not true at the moment. After talking to aGlass support, they told me that for the demo was used special version of Nvidia Funhouse game, and foveated rendering isn't simply plug-and-play.
 
Glaub das überrascht ja jetzt nicht wirklich dass der Treiber allein nicht magisch überall Foveated Rendering reinhämmern kann, die engine muss es ja auch unterstützen bzw die RenderPipeline.

Funhouse ist ja eigentlich auch ne reine Techdemo für Nvidia GameWorks welches Foveated Support ja drinne hat bzw Features welche es ermöglichen.

Ich gehe aber mal stark von aus dass zumindest Epic recht fix Foveated Support in die Unreal Engine Native einbauen wird und Unity ebenso.

Was aber auch heißt dass ältere Anwendungen wenig bis gar kein Foveated Rendering Support nachträglich erhalten werden.
 
Übrigens gibt es eine neue Steam VR Beta, die eine ganze Menge Neuerungen mitbringt.
https://steamcommunity.com/games/250820/announcements/detail/1707314220610148788

Unter anderem auch eine "verbesserte Reprojection"
  • Reprojection and timing update. We have improved the smoothness and reliability of the reprojection system. More improvements are planned.
  • Increased performance of the compositor distortion renderer by about 15%
Muss ich heute Abend gleich mal testen. Im Steam Forum gibt es überwiegenden positive Rückmeldungen, zb: "A big improvment IMO, getting closer to ASW smoothness"

Wie gesagt, heute mal selber testen. Bin gespannt.
 
  • Gefällt mir
Reaktionen: kellerbach und surtic
👍 Gute Nachrichten, danke!
 
Leute, holt euch diese Beta! Es ist schlicht der Hammer. Das Spielgefühl ist wirklich merklich flüssiger geworden, reproduzierbare kurze "Zuckler", die ich bei Skyrim, oder auch bei The Blu hatte sind restlos verschwunden. Das jetzt nur mal nach 15 min Testen. Klasse!
 
Mit solchen aussagen wäre ich vorsichtig, einige feiern auch Oculus ASW als heiligengraal ab und tun so als wäre es nicht sichtbar.
Aber dass sich dort endlich was tut freut mich doch sehr, die erste beta vor paar tagen lief ja teils sehr buggy
 
Na klar wären echte 90 fps immer besser. Das merklich flüssigere Spielgefühl, gerade wenn man die Einstellungen ein bisschen nach oben schraubt, ist aber Fakt. Das war ja immer DER Vorteil der Rift gegenüber der Vive. Dass hier Steam VR jetzt nachlegt ist eine gute Sache. Und es ist wirklich sofort merkbar. In quasi jedem Spiel.
 
Moin, ich überlege wieder mir eine Vive zu kaufen. Zu Release hatte ich schon eine Vive für ein halbes Jahr. Nach einer VR Pause hatte ich dann eine Oculus. Die Oculus ist definitiv schlechter für mich weil ich bei der Oculus eine Brille tragen musste und zusätzlich extremst Kopfschmerzen bekommen habe. Diese wurde dann ziemlich schnell verkauft.

Die Vive pro scheint mir jetzt ein wenig teurer für die etwas höhere Auflösung. Ich Stelle mir eher was in Richtung Vive + tpcast vor.

Irgendwelche Erfahrung? Läuft tpcast gut? Lieber warten auf neue Hardware (von der Vive 2 ist nichts zu lesen). Andere VR Brillen?

Ich fande die Vive von den Linsen perfekt weil ich keine Brille mehr tragen musste(Kurzsichtigkeit). Mit der Oculus ging das nicht weil sie auf unendlich (ferne) fokussiert.
 
Zurück
Oben