News Oculus: Asynchronous Spacewarp 2.0 senkt VR-Anforderungen

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.547
  • Gefällt mir
Reaktionen: Pulverdings und Mr. Rift
Was ist PWT? Die Abkürzung kommt aus dem nichts.
 
  • Gefällt mir
Reaktionen: Jan
Da haben Autor (@Wolfgang) und Lektor @Jan wohl gepennt: PWT -> PTW ;)
 
Iren sind menschlich, oder so ähnlich. Danke fürs korrigieren :) Das Thema find ich grundsätzlich gut, wenn die Anforderungen sinken, dann erweitert sich das Publikum für VR. Wenn mittelfristig auch noch der Preis fällt, könnte das sogar was für den Massenmarkt werden. Kurzfristig sind die Dinger in der Produktion und Entwicklung aber noch zu teuer für ernsthafte Preiskämpfe.
 
  • Gefällt mir
Reaktionen: ron89
Was lange währt, wird endlich gut - vor einem Jahr angekündigt ;)

"ASW 2.0 arbeitet also auch mit der Rotation des Headsets"

Sollte das nicht "Translation" heißen? Rotation wird ja schon seit Release über ATW abgedeckt.

Ansonsten sollten alle mit Unity und Unreal erstellten Apps seit Ende 2017 die Tiefeninformationen mitliefern.
 
Hmmm ... mal informieren wie das in Zusammenhang mit SteamVR funktioniert und ob überhaupt.

SteamVR hat den Vorteil der relativen Geräteunabhängigkeit.
Wenn das so nur per Oculus SDK möglich ist wäre das ... doof :D

Hab mich grade erst mit dem SteamVR 2.0 Input-System beschäftigt. Gewechselt wird nich ;)
 
Wäre eine Technik dieser Art nicht auch auf nem großen Monitor sinnvoll um das Spielgefühl bei moderaten Framerates zu verbessern?
 
Marcel55 schrieb:
Wäre eine Technik dieser Art nicht auch auf nem großen Monitor sinnvoll um das Spielgefühl bei moderaten Framerates zu verbessern?
Space Warp kann keine neuen Bildbereiche dazuerfinden bevor sie gerendert sind, der Inhalt in Richtung der Kamerabewegung bleibt im interpolierten Frame also schwarz, oder kann zumindest von benachbarten Bildteilen im Muster angenähert werden - in jedem Fall wird man zum Bildschirmrand hin Fehler bemerken wenn ein Objekt auftaucht, das man im letzten (interpolierten) Frame schon hätte sehen müssen.

Das Gegenstück Zwischenbildberechnung (Motion Interpolation) gibts im TV Bereich ja schon länger. Hier werden zwischen 2 vorhandenen Frames ein oder mehrere neue berechnet. Bewegungen im Bildinhalt selbst werden zwischenberechnet, nicht nur die Versetzung des Bilds als Ganzes. Dazu braucht es aber eben den nächsten Frame schon vor der Berechnung und das heißt größere Verzögerung. Außerdem können Bewegungsmuster aus der Bildquelle nur angenommen werden und damit kommt es oft zu sichtbaren Artefakten.

Beides kann kombiniert werden, und falls die Engine extra Pässe mitliefert (Tiefenmaske und Bewegungsvektormaske fallen mir ein) sind bessere Ergebnisse möglich. Ganz ohne sichtbare Nachteile bleibts halt net.
 
Marcel55 schrieb:
Wäre eine Technik dieser Art nicht auch auf nem großen Monitor sinnvoll um das Spielgefühl bei moderaten Framerates zu verbessern?
Das habe ich mich auch immer gefragt, warum das Verfahren auf vr beschränkt blieb. Macht eigentlich keinen Sinn. Wen die Artefakte stören, kanns ja abschalten. Ich denke es ist nicht gewollt wegen Grafikkartenverkäufen. Bei VR hat man es sozusagen ausnahmsweise erlaubt, weil die Anforderungen halt höher sind bzw damit ne Mindestmarktdurchdringung erreicht wird.

@Snudl
Da es bei VR auch zu Artefakten kommt, versteh ich den Einwand ehrlich gesagt nicht. Man nimmt solche Anomalien in VR sogar intensiver wahr als auf dem Monitor.
 
Digitalzombie schrieb:
Hmmm ... mal informieren wie das in Zusammenhang mit SteamVR funktioniert und ob überhaupt.
Das geht ausschließlich nur mit den Oculus SDK aber verpassen tust du eh nix wenn dein Rechner schnell genug ist.

ASW würde ich generell meiden und ist nur interressant wenn man unbedingt VR mit einen low budget PC betreiben möchte oder die Spielperformance so schlecht skalliert das man eh nicht auf stabile 90fps kommt.

Aktuell habe ich das problem mit The Forest VR oder man hört auch von Fallout4 VR das dort die Performance einfach nur grottenschlecht ist aber weil die beiden games eh kein Oculus SDK anbieten bringt einen ASW dort nicht weiter.

Und 45fps bedeuted auch unnötig hohen Input lag/latency und daher empfinde dieses feature nichts anderes als Marketing.

Mir fallen aktuell nur 2 Spiele die wirklich von ASW 2.0 Profitieren würden und das wären die Simulator DCS und ACC.
 
Gibts sowas ähnliches auch bei Windows Mixed Reality Headsets? Hab erstmal mich wieder eingelesen, besitze kein VR (früher 3D Vision 2 benutzt) und interessiere mich so langsam dafür. Projection irgendwas hab ich mal bei WMR gelesen, dass auch die Hardwareforderung senken soll. In der VR Welt gibts soviele neue Begriffe, die ich selbst nach Recherchen gar net verstehe.
 
@kellerbach War auch nicht als bloßer Einwand gedacht, ich wollt nur aufzeigen warum es keine perfekte Lösung ist. Es gibt halt Leute die empfindlicher darauf sein werden, ähnlich wie es für Screen Tearing ist.

Außerhalb von VR hat man schon diverse andere Ansätze, gerade in letzter Zeit sind einige neue dazugekommen - Foveated Rendering, Variable Rate Shading, Deep Learning Super-Sampling ... Alle versuchen einen möglichst unauffälligen Abtausch von Qualität zu Leistung, und trotzdem stören deren Nachteile viele.
 
firejohn schrieb:
Gibts sowas ähnliches auch bei Windows Mixed Reality Headsets? Hab erstmal mich wieder eingelesen, besitze kein VR (früher 3D Vision 2 benutzt) und interessiere mich so langsam dafür. Projection irgendwas hab ich mal bei WMR gelesen, dass auch die Hardwareforderung senken soll.

Oculus: Asynchronous Space Warp
SteamVR: Motion Smoothing
WMR: Motion Vectoring
Pimax: Smart Smoothing.

Grundsätzlich machen die alle das gleiche.

Die HMD-Frequenz in Hertz bleibt gleich. Aber anstatt das die GPU dazu angehalten wird FPS in Höhe der Frequenz zu berechnen, lässt man sie nur halb so viel arbeiten. Um trotzdem die gewünschten FPS zu erreichen werden nun Zwischenbilder berechnet. Die FPS sinkt also nicht! Um Tearing zu vermeiden werden die Bilder ja sowieso nicht so flott rausgeschickt wie die GPU es könnte, stattdessen werden sie kurz zurückgehalten und in regelmäßigen Abständen losgeschickt. Diese Zeit wird nun genutzt um sich zumindest die letzten beiden Bilder "anzuschauen" und ein passendes Bild zu generieren das die Lücke zwischen den beiden füllt. Dadurch bleiben die eigenen Bewegungen (HMD und Controller etc.) flüssig. Allerdings sind die Zwischenbilder nicht perfekt, die entstehenden und sichtbaren Makel nennt man "Artefakte". Ausserdem benötigt die Zwischenbildberechnung entsprechend Zeit, die Bilder werden also unter Umständen länger zurückgehalten also ohne diese Techniken. Das erhöht dann die Latenz, also die Zeit zwischen der Handlung und dem sichtbaren Ergebnis.

Im Laufe der Zeit werden diese Features immer weiter verfeinert und irgendwann wird man garnicht mehr bemerken dass es sie überhaupt gibt. Spätestens dann landet die Technik auch wieder am Monitor, wo sie ursprünglich sogar herkommt.

Oculus ist bei der Nummer n ganzes Stück weiter als die anderen, deren System funktioniert also bereits zuverlässiger, schneller und unauffälliger.

Der Kram wurde auf NVIDIA GPU entwickelt und lässt sich nicht 1:1 auf AMD übertragen. Bei WMR hatte ich mit AMD GPU z.B. deutlich mehr Artefakte als mit Nvidia GPU. Keine Ahnung ob ASW ähnliche Probleme hat oder ob es bei denen schon gelöst ist. Bei SteamVR funktioniert es mit AMD GPU offiziell noch garnicht, man kann es aber als Beta Funktion freischalten. Mit der Pimax Variante habe ich mich in der Praxis noch nicht beschäftigt, deshalb kein Kommentar.

Das "senken" der Hardwareanforderungen ist aber kein absoluter Wert. Die Hardwareanforderungen sinken nicht wirklich, es wird lediglich erträglicher wenn man diese nicht erfüllt. Die Anforderungen für ein optimales Spielgefühl bleiben genau gleich bestehen. Alles darunter ist eine subjektive Entscheidung des einzelnen und lässt sich nicht grundsätzlich beschreiben. Ist wie die alte Leier am Monitor mit Frequenzen und FPS. Der eine zockt fröhlich mit 30 FPS, der nächste kriegt die Krise weil er regelmäßig unter die "magischen" 137,5 FPS fällt. ;)
 
  • Gefällt mir
Reaktionen: FrAgmAn 144, maggel, firejohn und eine weitere Person
Blaexe schrieb:
@m.Kobold

ASW funktioniert auch mit SteamVR. Wie es bei ASW2.0 aussieht weiß man noch nicht.
Sicher das du das nicht mit ATW verwechselst? Da ich noch mit Win7 unterwegs bin, kann ich es aktuell eh nicht nutzen um es selbst zu testen, aber früher wurde das immer wieder von vielen auf Reddit behauptet.
 
ASW greift immer ein egal ob das über STeamVR läuft oder nicht. ICh nutze es täglich bei Nicht Oculus SDK Titeln.
Steam verwehrt Oculus Nutzern deshalb auch ihre Techniken, die sind bei einer Rift nicht aktivierbar, da die Oculus eigenen Techniken hinterher ebenso eingreifen würden was natürlich großer Käse wäre.

Ergänzung ()

Mracpad schrieb:
Oculus: Asynchronous Space Warp
SteamVR: Motion Smoothing
WMR: Motion Vectoring
Pimax: Smart Smoothing.

Grundsätzlich machen die alle das gleiche.

. Ausserdem benötigt die Zwischenbildberechnung entsprechend Zeit, die Bilder werden also unter Umständen länger zurückgehalten also ohne diese Techniken. Das erhöht dann die Latenz, also die Zeit zwischen der Handlung und dem sichtbaren Ergebnis.

ASW interpoliert keine Zwischenbilder sondern extrapoliert aus dem vorangegangenen Bild das folgende, wodurch die Latenz nicht in dem Maße ansteigt, als würden einzelne Frames zwischen einem vorangegangen und einem folgenden geschoben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Blaexe
Stimmt, da hab ich in der Vergangenheit gelebt. :D Es sind 2 vorhergehende Bilder, aus denen ein nachfolgendes berechnet wird. Zwischenbildberechnung war ja bloß das Vorbild aus der TV Landschaft.
 
Zurück
Oben