Test Nvidia GeForce Now RTX 3080 im Test: FPS, Bildqualität und Latenz im Vergleich zum Gaming-PC

Interessant wäre für mich als RTS Spieler, wie sich die Latenz beim Cursor darstellt. Eine verzögerte Maus ist in etwa so schlimm wie eine verzögerte Eingabe der Tastatur beim zehn-Finger-schreiben.

Wenn man nun 65ms statt 10ms Delay beim Cursor hat, könnte es (bin mir nicht sicher) unangenehm werden.
 
  • Gefällt mir
Reaktionen: Headyus
Hab da auch negative Erfahrungen mit Stadia und Xbox Gamepass gemacht. Ich muss sagen ich bin da etwas empfindlich - aber hab bei beiden vermutlich aufgrund vom Input Lag Motion Sickness bekommen
 
Aktuell bevorzuge ich Stadia vor Xbox Cloud und GeForce Now bildet das Schlusslicht. Warum? Beo GeForce Now muss man sich permanent immer wieder bei Steam oder dem EPIC Store anmelden und die Spiele laufen gefühlt bei geForce Now ruckeliger. Und ich habe das sogar mit einem teuren Nvidia Shield getestet und hatte bei Stadia auch die original Chromecast Ultra Hardware mit Pad. Stadia hat mit Abstand die beste Technik. Sie haben auch kein Windows im Hintergrund sondern Stadia ist im Prinzip eine Konsole.

Siehe dazu auch The Verge https://www.theverge.com/2020/10/11...review-xbox-game-pass-ultimate-lag-load-times
Microsoft’s cloud gaming service can’t compete with Stadia right now, but it’s getting there
Oder hier Erfahrungsbericht mit GeForce Now auf dem nVidia Shield und Stadia mit dem CCU.
 
Ich hätte bei der letzten Frage ein "Ja, für bestimmte Situationen" gerne gehabt. Die Ironie - für mich - ist, dass gerade Zuhause, wo ich entsprechend schnelles Internet habe, ich lieber mit lokaler Hardware dabei sein möchte. Und unterwegs (Besuch, etc.) eher selten vorkommt, ich dann aber den Komfort nicht den eigenen Rechenknecht mitnehmen zu müssen, nutzen würde. Bspw. bei einer abendlichen Feier in der Firma. Für den seltenen Zweck wäre es dann aber zu teuer.

Zudem zeigen mir die kleinen Ruckler, dass es keine actionlastige Games sein dürfen. Mein Enthuasiastenherz würde darunter leiden, auch wenn es gleichzeitig "Jammern auf hohen Niveau" ist. (Besonders, da ich UHD gewohnt bin.)

Andersrum wäre es eine schöne Sache bspw. Civ 6 am hochauflösenden Tablet zu benutzen. Geforce Now wirkt mir da ausgereifter als Server, als der eigene Rechner im LAN (oder per USB-C), zumal dieser dann auch nicht blockiert wäre - also vom Komfort her.

Das Potenzial ist da, aber es ersetzt m.E. nicht die lokale Hardware in jeder Hinsicht. Bspw. VR wird hier aufgrund der Latenzen nie eine Option werden. Ist auch nicht das Ziel, aber daran wird klar, dass es eben nicht 1 zu 1 vergleichbar ist, sondern von der Situation abhängt. Ich kann mir aber gut vorstellen, dass es nicht wenige gibt, die diese Details nicht wichtig sind und den mitgebrachten Komfort vorziehen.
 
Flaimbot schrieb:
die vergleichsvideos find ich ehrlich gesagt dank des hosters nicht besonders sinnvoll. youtubes h264 transcoding fügt kompressionsartefakte hinzu, wo es keine gibt und im fall des gestreamten games werden lediglich mehr artefakte dargestellt. dadurch ist der unterschied wesentlich geringer als in natura, auch wenn er immernoch erkennbar ist.

Ja, finde ich auch problematisch.

YouTube ist selbst in 4K meilenweit von dem entfernt was am Bildschirm wirklich dargestellt wird.

Man braucht ja nur mal pausieren und sieht im "Nativen" Bild vom Gaming PC sehr viel Matsch, vor allem bei Vegetation.

Die Streaming Anbieter schaffen halt mit ihrem nahezu latenzfreien echtzeitencoding trotz höherer Bitrate gerade mal die Qualität die YouTube auch anbietet.

Rein technisch ist das auch gar nicht besser machbar. Aber so einen Vergleich hier erschwert es dennoch sehr.

Am Ende sind wir bei Monitoren irgendwo bei Datenraten zwischen 20 und 40 Gbit/s.
So ein YouTube Video ist auf 15-25 Mbit/s herunterkomprimiert.
Das macht Faktor 1600

Bei HEIF vs BMP Bildern liegt der Kompressionsfaktor vielleicht bei ~50x (bei geringeren Auflösungen sogar weniger)
Gerade bei so hochdetaillierten und hochfrequenten Details wie in Spielen versagt da eigentlich jeder Codec mit den aktuell üblichen Bitraten ziemlich schnell.


Bei richtigem Filmmaterial ist das mit den Codecs alles deutlich weniger problematisch. Die Codecs sind von grund auf dafür entwickelt und pixelfeine Details in Bewegung gibt es extrem selten, da sehr viel mit Tiefenunschärfe und Bewegungsunschärfe gearbeitet wird und das Bild allgemein sehr wenig in Bewegung ist. Statt die Kamera zu bewegen wird halt der nächste Cut gemacht. Das alles kommt den Codecs extrem entgegen, ist aber in Spielen nicht möglich.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Coeckchen, Moerf, Flaimbot und eine weitere Person
Raptik schrieb:
Naja komplizierter als autonomes Fahren oder Sonden auf den Mars schießen wird es schon nicht sein. Bin mir daher sicher, dass es daran nicht scheitern wird.
Es ging nicht darum, ob Codexentwicklung oder Entwicklungen im Kontext autonomes Fahren anspruchsvoller sind; sondern, wie sich die weitere Entwicklung von Codizes müssen mehr leisten vs. Codizes werden besser auswirken wird.
 
Shoryuken94 schrieb:
das stimmt und dabei ist es eine der sinnlosesten Karten, wären die Preise normal. Ich bekomme um Umkreis auch nur noch mit, dass sich viele 6900XT gekauft werden, weil man die zu halbwegs "vernünftigen" Preisen bekommt. Aber TSMC 7nm dürften gut laufen, ich denke die meisten Navi 21 GPUs dürften mittlerweile in 6900XTs wandern.
genauso sieht es aus, wäre der Preis nicht der 6800XT nicht schon beim Release so dermaßen kacke gewesen hätte ich defentiv die 6800XT Ref genommen.
Aber so macht das keinen Sinn.
Sollte Geforce Now eig in die Karten spielen die ganze Situation.
 
Nein, Cloud Gaming ist ganz klar keine Option für mich, weil
1. Ich keine gute Leitung habe
2. Mir knackige Latenzen meist wichtiger als maximale Details sind und
3. mir monatliche Ausgaben nicht so gefallen. Habe die Hardware als Nerd sowieso lieber bei mir unter dem Tisch stehen
 
  • Gefällt mir
Reaktionen: Slayn
kann man damit auch minen? frage für einen freund
 
Nicht anschauen, wenn ihr den Vergleich noch selbst machen wollt:
Video 1. Sieht man recht klar welches besser ist und da deckt sich meine Meinung mit den meisten anderen.
Video 2. Sieht beides komplett mies aus. Ich habe B genommen weil es an einigen Stellen eine Ecke schärfer ist, vermutlich haben die meisten A genommen weil dort weniger flimmert.
Video 3. Habe ich mich enthalten, da ist so viel Blur drauf da kann ich nicht sagen was besser ist. Die Meinung sind auch zwiegespalten.
Video 4. WQHD sieht auch gestreamt besser als FullHD aus.

Bin eigentlich nur auf das Ergebnis von Video 1 gespannt. 2 und 3 sind einfach von der Qulität zu schlecht für einen sinnvollen Vergleich, keine Ahnung ab da die Youtube Kompression zu stark greift. (Habe 4K auf einem WQHD Monitor anschaut.)
 
Für mich persönlich eher als Nebensache vorstellbar: Wenn man nur mit dem Laptop unterwegs ist, hätte man quasi immer noch eine Art Spiele-PC dabei. Die Alternativen mit externen GPUs kommen ja leider auch nicht auf die Hufe. "Grün" ist die Sache sicherlich nicht. Da mache ich mir wenig Hoffnung. Dürfte eher wie Video-Streaming sein - also Umweltverschmutzung. Andererseits: Wir betreiben massiv Umweltverschmutzung aufgrund Energiemangels und kommen jetzt darauf Krypo-Mining zu erfinden. Da ist doch alles gesagt.

Warum ich nicht an den großen Durchbruch glaube: Ja, jeder kann das nutzen, aber nicht alle. Ich bezweifle, dass unsere Netze dem standhalten würden. Nicht nur von den Durchsatzraten, sondern auch von der Stabilität. Ein Datenpaket, welches zu spät geliefert wird, ist nutzlos, denn dann ist (salopp ausgedrückt) das Pixel veraltet. Des Weiteren ist für mich unklar, wie es sich mit Mods verhält. So wie ich das sehe, kann ich das Spiel nicht modifizieren. Das wäre für mich störender, als der Input-Lag.
In einem Punkt könnte aber der Gesetzgeber nVidia entgegen kommen: Wer nachweisen kann, dass er eine Lizenz für das Spiel hat (so geschehen z.B. mit dem Verlinken der Steam-Bibliothek) sollte es auch spielen können. nVidia sollte hier nicht noch zusätzlich auf Lizenzen der Anbieter angewiesen sein.

Insgesamt eine interessante Technik. Ich bin ehrlich gesagt überrascht, wie gut das schon funktioniert. An das "next big thing" mag ich dann allerdings nicht so recht glauben. Aber wäre auch nicht das erste Mal, dass ich falsch liege...
 
@Xes Also ich hab bei allen Abstimmungen die Mehrheitsmeinung gehabt.
Ich finde, in allen Fällen sieht eines der beiden Videos ruckeliger aus als das andere, insofern recht leicht zu unterscheiden.
 
  • Gefällt mir
Reaktionen: Xes
Ich kann mich auch überhaupt nicht mit Cloud-Gaming anfreunden. Ich habe dabei immer das Gefühl, dass wir uns damit noch abhängiger vom Anbieter machen, als wir Spieler eh schon sind.

Und auch wenn im Artikel beschrieben steht, dass die Latenz für den normalen Spieler so gut wie nicht wahrnehmbar seien, so habe ich für mich festgestellt, dass die in meinen Augen doch viel zu hoch ist. Selbst bei langsamen Spielen empfinde ich es als störend und ich bin nun absolut kein MP-Hardcore-Gamer, bei dem es auf jede Millisekunde ankommt.
 
Finde die Idee sehr gut und habe selbst überlegt anstatt einen neuen PC letzte Woche zu kaufen einfach GeForce now zu benutzen.
Die Latenz killt es aber für mich. Ich reagiere sehr extrem auf lags. Ich merke in lol z.b w mm mein Ping von 19ms auf 35geht. WLAN kann ich überhaupt nicht mit spielen, deutlich ruckliger obwohl es eig nur 5ms sind
 
Gut, in der letzten großen Bastion von dedizierten High End Gaming PCs zu fragen, ob
für Sie Cloud Streaming eine Option ist, ist als würde man im Porsche Forum fragen, ob
die auch mit den öffentlichen fahren würden. Aber immerhin 30%, mehr als ich dachte :)

Die alten Ryzens gehn eher nicht in Ordnung für etwas, das wie High End vermarktet wird.
 
  • Gefällt mir
Reaktionen: Kettensäge CH
AvenDexx schrieb:
Und auch wenn im Artikel beschrieben steht, dass die Latenz für den normalen Spieler so gut wie nicht wahrnehmbar seien, so habe ich für mich festgestellt, dass die in meinen Augen doch viel zu hoch ist.
Ja. Viele merken ja auch den besseren Input Lag beim Wechsel vom 60 Hz Monitor auf 'nen 144 Hz Monitor.
100 ms Lag merke ich sogar in World of Tanks und das ist ein relativ gemütliches Panzerspiel.
Wie sieht es da wohl bei 'nem schnellen Shooter aus?
 
Grundsätzlich ist das Angobot von Nvidia eine Option. Wobei ich mich für das normale Paket entscheiden würde. Die Kosten mit 100€ im Jahr sind im Anbetracht aktueller Grafikkartenpreise mehr als fair. Momentan ist dies auch die einzigste Möglichkeit für Nuter aktueller M1 Macs, Windows Spiele zu spielen, wenn man kein zweites System mit Windows haben will.

Leider muss man auch bedenken, dass nicht alle Spiele von den Publishern für GeForce Now freigegeben werden.
 
Zuletzt bearbeitet:
An sich eine spannende Sache, aber mit der Bambusleitung hier bei mir war im Selbstversuch nur Pixelunwetter. Entfernte Regionen und Spieler außerhalb der Internet Hotspots haben schlicht keine Chance.
Der Trend zum Streaming ist mir ohnehin ungeheuer - Hardware einzig und allein beim Hersteller mit Vollmacht über Preis, Leistung und Verfügbarkeit wär noch ein weiterer Schritt zu meiner persönlichen Spieledystopie.
 
  • Gefällt mir
Reaktionen: Nefcairon und Beitrag
Zurück
Oben