Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsVirtual Reality: Nvidia führt „VR Ready“-Siegel ein
Also ganz so dramatisch sehe ich das Problem irgendwie nicht. Ich habe jetzt schon auf meinem stink normalen 2D Monitor die Anforderung an meine Spiele dreistellige Frameraten in UHD Auflösung zu erreichen und das klappt sogar mit meiner "alten" GTX 780 in Spielen wie Battlefield wunderbar.
Wobei die PS4 keinen brauchbaren Datenbus für ne externe GPU hat. Die Box wird also maximal Zwischenbilder berechnen können um die FPS künstlich zu boosten (so wie es auch bei den ganzen x-Hundert Hz TVs gemacht wird). Mal abwarten wie das wird.
Laut Nvidia sei für VR bis zu sieben Mal mehr Rechenleistung als bei normalen Spielen notwendig. Dabei geht das Unternehmen davon aus, dass normalerweise in 1.920 × 1.080 Pixeln bei 30 Bildern pro Sekunde gespielt wird, auf einer VR-Brille hingegen bei 1.680 × 1.512 Bildpunkten pro Auge und 90 Bildern pro Sekunde.
Sowas nennt man Bauernfängerei. Einfach mal irgendwelche frei erfundenen Werte zugrunde legen und damit dann rumprotzen. Klar benötigt man Mehrleistung für VR. Wer aber mit 120+ FPS oder 4k unterwegs ist, braucht sich da nicht soviele Gedanken drum machen.
Fakt ist, dass min. 60 FPS in FHD gespielt, bzw. hier von den Testern auf CB gefordert werden und nicht 30 und die Brillen haben (bisher) 1200x1080 Bildpunkte, also insgesamt 2400x1080 Bildpunkte. Geht man von diesen Werten aus liegt der Faktor bei der Mehrleistung viel niedriger.
Dazu kommt, das es noch keine Erfahrung gibt was Spiele anbelangt. Die "Techdemos" die es für VR gibt kann man auch mit einer Low-End Karte locker flüssig wieder geben.
@Samurai
ist mir auch gerade aufgefallen, habs geändert
Hey, Schaby, du gehst von vier Displays aus? (2x1200x1080=|=2400x2160). Und richtig, gehst du von FullHd mit 60FpS aus, dann ist nur eine Mehrleistung mit Faktor von ca. 3,5 erforderlich.
@Schaby Du musst die Auflösung mit der Framerate multiplizieren. Bei Nvidias Beispiel sind das:
- PC: 1.920 x 1.080 x 30 = 62.208.000
- VR: 1.680 x (1.512 x 2) x 90 = 457.228.800
Der Faktor PC -> VR ist also in diesem Fall 7,35.
Bei der Rift sind es analog:
- Oculus VR: 1.200 x (1.080 x 2) x 90 = 233.280.000
Nimmt man nun an, dass man normalerweise bei 1080p und 60 FPS spielt, kommt man auf folgendes:
- PC: 1.920 x 1.080 x 60 = 62.208.000 x 2 = 124.416.000
Man benötigt also 1,875 mal mehr Rechenleistung, wenn man von 1080p bei 60 FPS auf Oculus Rift umsteigt und bei 90 FPS spielen möchte. Es gibt wohlgemerkt von Nvidia eine Technik, bei der die Randbereiche mit weniger Auflösung gerendert werden, wodurch der Rechenaufwand sinkt.
@Wa1lock
meine Reden, hab ja schon geschrieben das der Faktor unter 2 liegt...war nur zu faul das genau auszurechnen. Aber Danke (echt jetzt). Was hier noch fehlt, wieviel Leistung durch das seperate Berechnen für jedes Auge benötigt wird.
Ist dann schade, dass es keine höher aufgelöste RIft Version gibt. Dual 980 ti oc sollten locker 50% mehr Pixel schaffen. Und die neuen Grafikkarten die wohl auch in der 2ten Jahreshälfte kommen ebenfalls.