Test Nvidia GeForce Now RTX 3080 im Test: FPS, Bildqualität und Latenz im Vergleich zum Gaming-PC

gibt es irgendwo ein testabo für die große 3080 version?

mal was anderes, kann ich mittels pc zu hause und einer shield pro irgendwo unterwegs meine spiele von zu hause aus streamen, oder geht das nur innerhalb eines netzwerks ?
 
nix für mich, sicher interessant, wenn man einmal im jahr ein game zocken will und nur einen Office PC hat. dann lohnt sich das.
 
Deswegen sind die Grafikkarten so teuer. Nvidia sucht Abo Willige.;)
 
  • Gefällt mir
Reaktionen: pitu und Drakrochma
Don Sanchez schrieb:
Auf einem großen Bildschirm gucken, auf YouTube unabhängig von der eigenen Bildschirmauflösung manuell 4K Auflösung auswählen und an ausgewählten Stellen das Video pausieren, dann ist der Unterschied sehr offensichtlich.
Wenn ich eine Standbildanalyse benötige, um zwei Lösungen voneinander zu unterscheiden, dann ist der Unterschied alles andere als offensichtlich und würde mir beim Spielen genauso wenig auffallen. Dann hat ja Nvidia alles richtig gemacht.
Ergänzung ()

Don Sanchez schrieb:
Das bezweifle ich stark. Bei z.B. 60 FPS wird durchschnittlich alle 16,6... ms ein Bild erzeugt, bei 30 FPS durchschnittlich alle 33,3... ms (wenig überraschend zusätzlich +16,6... ms pro Frame), und den Unterschied zwischen 30 und 60 FPS wird wohl jeder sehen.
Man siehst solche Unterschiede zum Beispiel bei Kameraschwenks, das Auge kann es dann durchaus erkennen. Die 50ms Reaktionsunterschied zu bemerken, ist hingegen eine ganz andere Kiste. Wie war nochmal die durchschnittliche Reaktionsgeschwindigkeit bei Menschen? Irgendwo bei 200ms und abhängig vom Alter.
The typical reaction time for a human is about 250 milliseconds—meaning it takes you about a quarter of a second after you see something to physically react to it. But the researchers explain that "our conscious awareness of intention takes a moment to arise, around 200 ms." In other words, it takes you about 200 milliseconds for your brain to turn sensory input into a decision to do something like move a muscle, and then another 50 or so milliseconds for that muscle to actually start moving.
https://spectrum.ieee.org/enabling-superhuman-reflexes-without-feeling-like-a-robot
 
Zuletzt bearbeitet:
Guten Morgen

jemand von den glücklichen Besitzern schon testen können ob nun endlich 21:9 unterstützt wird?

Danke :)
 
Zuletzt bearbeitet:
xexex schrieb:
Wie war nochmal die durchschnittliche Reaktionsgeschwindigkeit bei Menschen? Irgendwo bei 200ms und abhängig vom Alter.
Hast du mal auf einem Monitor/TV mit 200ms Lag gespielt?! Das macht wenig Spaß.
Deine eigene Reaktionszeit kannst du dann noch dazurechnen. Somit kommst du auf über 400ms was bei 60Hz 6 Frames sind 😂
 
xexex schrieb:
Wenn ich eine Standbildanalyse benötige, um zwei Lösungen voneinander zu unterscheiden, dann ist der Unterschied alles andere als offensichtlich und würde mir beim Spielen genauso wenig auffallen. Dann hat ja Nvidia alles richtig gemacht.
Ich habe nicht gesagt, dass es nötig ist, du kannst die Unterschiede auch so sehen.

Es ging darum, dass die YouTube Kompression die Unterschiede zwischen den Videos deutlich verringert. Das lokal gerenderte Spiel ist normalerweise unkomprimiert und gestochen scharf, dass ist aber nicht mehr der Fall, wenn du es auf YouTube hochlädst. Besonders in 1080p produziert YouTube bei Szenen mit zu viel Bewegung/Action im Bild nur noch Matsch, da kannst du schlecht beurteilen, ob "Nvidia alles richtig gemacht" hat.
 
Don Sanchez schrieb:
Ich habe nicht gesagt, dass es nötig ist, du kannst die Unterschiede auch so sehen.
Anscheinend nicht, wenn 40% der Befragten das andere Bild besser finden.
Ergänzung ()

Don Sanchez schrieb:
Es ging darum, dass die YouTube Kompression die Unterschiede zwischen den Videos deutlich verringert
Ob das "deutlich" der Fall ist, lassen wir einfach mal so im Raum stehen. Umgekehrt gilt, dass ein Video was man sich in Ruhe anschaut, die Unterschiede "deutlich" hervorhebt. Im Spiel wäre man mit anderen Sachen beschäftigt, als mit Pixelvergleichen.
 
hab mal aus interesse geforce now in der kostenlosen version installiert... anmelden ging mit den nvidia account problemlos, auch das verbinden von steam und epic war selbsterklärend.

ABER von 353 steam spielen und eigentlich allen kostenloses spielen auf epic (plus 2 gekauften) sind gerade mal 57 spiele spielbar ??? magere ausbeute... ca 10% nur... mh

das ich origin und uplay nicht direkt verknüpfen kann ist auch mh ni so cool so muss ich die spiele selber suchen. und dann mich anmelden mit meinen account. vll ändern sie das ja nochmal.

€: noch kann ich relativ gut alles spielen, aber als übergang definitiv ne alternative. und wenn man dann statt ne stromfressende maschine was hübsches kleines hinstellen könnte? why not. mal sehen was die am5 G-Ryzens so leisten können.
 
Zuletzt bearbeitet:
Das muss doch eine absurde Eingabeverzögerung geben. Der Eingabevefehl wird von meinem PC zu Nvidia geschickt, dort die Bilder neu berechnet und das dann wieder zurückgeschickt. Zu ISDN-Zeiten war alles über 70 ms offline wie online unspielbar.
 
Mache bei Geforce Now seit der Beta mit. Zwar nicht durchgehend aber immer wieder mal für 1-2 Monate und es hat sich immer nur verbessert. ich hab mir jetzt auch das 3080er Abo bestellt. für mich ist das auf jedenfall die Zukunft.
Der Komfort Spiele sofort starten zu können ohne das runterladen und installieren, und auf jedem gerät spielen zu können ist einfach nur geil. Keine Lüfter Geräusche, kein spulen fiepen, zocken direkt auf dem Fernseher, Laptop, Tablet, keine Speicher Probleme.
Input lag ist mehr als akzeptabel. Den meisten wird das wahrscheinlich gar nicht auffallen, dass sie über die Cloud spielen. Das einzige was einem vielleicht auffällt, sind die etwas blasseren Farben aber auch nur wenn man das Spiel auf einem lokalen Rechner mal gesehen hat.
Ich kaufe auch nur noch Spiele die auf Geforce Now verfügbar sind obwohl ich einen Gaming Rechner mit 3070 habe, kann ich mich als Familien Vater nicht immer in mein Zimmer zurückziehen. So kann ich auch mal im Wohnzimmer auf einem Laptop ohne dedizierte Grafikkarte zocken das sogar im 5gHz WLan.
 
  • Gefällt mir
Reaktionen: Jan
KDKSenior schrieb:
Da hast du aber einen Denkfehler 😂😂

Das 3080er Rig in der Zentrale wird ja nicht nur von dir benutzt, sondern von zig anderen Spielern. Der eine spielt abends, der nächste morgens und du am Nachmittag. Du spielst vielleicht nicht sieben Tage die Woche und die restlichen Tage spielt jemand anderes.
Richtig - aber trotzdem muss hier Nvidia gewisse Kapazitäten die ggf. Leer laufen vorhalten. Dann gibt es das Problem das sie Regional "Eingeschränkt" sind ... eben wegen den Latenzen müssen die ihr RZ in DE haben ... das heißt eine 24h-Auslastung wird es nicht geben ... denke mal 2-3 Uhr bis 8-9 Uhr ist da fast totenstille. In der Woche hat Tagsüber auch Auslastungslücken. Da wäre man besser aufgestellt wenn das RZ Weltweit genutzt werden könnte (macht wegen Latenzen ja keinen Sinn!). In der Primetime von 20 Uhr wollen alle Spielen - wenn du jetzt sagst - ein Rig für 5-6 Leute kann es ganz schnell Probleme geben wenn die 5-6 Leute plötzlich gleichzeitig spielen wollen (bei dem kurzem Timeslot nicht unwahrscheinlich). Und das macht das ganze für Nvidia wieder zu einem schwer zu kalkulierenden Thema. Im moment werden die vermutlich mehr als genug Kapazitäten haben ... aber wenn das Teil jetzt richtig gut laufen würde ....
 
Wulfman_SG schrieb:
Da wäre man besser aufgestellt wenn das RZ Weltweit genutzt werden könnte
Man kann es ja weltweit nutzen, nur halt nicht für Gamestreaming. Jetzt wird Nvidia vermutlich nicht selbst unter die Miner gehen, aber denkbar wäre es durchaus die GPUs auch anderweitig verwenden und zur Verfügung stellen zu können.

Verbaut werden ja sowieso "A10G" Karten, die kann man dann zum Beispiel für AI Berechnungen nutzen.
1638643265390.png
 
Tetsuka schrieb:
Es sind RTX 6000 verbaut.
Nö!
Technische Grundlage für das neue Angebot sind auch neue Server, die auf einen Ryzen Threadripper Pro der 3000er-Generation, zwei „Ampere-GPUs der Server-Klasse“ – die eine „vergleichbare Gaming-Experience wie eine RTX 3080 auf dem Desktop“ bieten sollen (melden sich als Nvidia A10G) – und 64 GB RAM setzen. Jeweils zwei Spieler teilen sich ein System, bekommen vom Ryzen Threadripper Pro 3955WX also jeweils 8 Kerne (ein CCD), 28 GB RAM und eine GPU zur Verfügung gestellt.
Die RTX6000 Karten sind gar nicht vernünftig für Server geeignet.
1638661661073.png


Nvidia hatte schon immer richtige Server- und keine Workstationkarten verwendet.
1638661721622.png

https://www.golem.de/news/spielestr...tzt-einzigartige-cpu-und-gpu-2002-146524.html
 
Die Quadro gibt es auch passiv für Racks. Shadow baut die doch auch nicht anders. Die Quadros sind praktisch vollwertige Geforce Karten mit weniger Takt und mehr RAM. Es wäre doch sinnlos Karten mit mehr RT oder Compute Cores zu verbauen, die am Ende nicht genutzt werden. So kommt man auch auf den kleinen Leistungsverlust. Bei mir meldet sich die ganze Zeit leider nur eine 3080h. Was genau sich dahinter verbirgt weiß nur Nvidia
 
Tetsuka schrieb:
Shadow baut die doch auch nicht anders.
Shadow baut um einiges anders, oder um es einfacher zu sagen viel "billiger" und an PC Hardware angelehnt. Die A10 ist hingegen genau die richtige Serverkarte für diesen Zweck.
Der NVIDIA A10-Grafikprozessor bietet die Leistung, die Designer, Ingenieure, Künstler und Wissenschaftler für die heutigen Herausforderungen benötigen. In Kombination mit der NVIDIA vGPU-Software kann der kompakte Single-Slot-Grafikprozessor in einer einfach verwaltbaren, sicheren und flexiblen Infrastruktur mehrere Rechenzentrums-Workloads beschleunigen – von der grafikintensiven virtuellen Desktop-Infrastruktur (VDI) bis hin zur KI – und diese für jeden Bedarf skalieren.
https://www.nvidia.com/de-de/data-center/products/a10-gpu/
Ergänzung ()

Tetsuka schrieb:
Die Quadro gibt es auch passiv für Racks.
Nö!
https://www.nvidia.com/de-de/design-visualization/desktop-graphics/

Vereinfacht ausgedrückt:
Geforce - Gaming-PC
Quadro - Workstation
Tesla - Server (nur das sie nicht mehr Tesla heißen)

Die Nvidia Geschichte ist komplett virtualisiert, dafür hat man ja schon seit Jahren eine komplette Palette an Softwareprodukten.
NVIDIA GRID® Virtual PC (GRID vPC) und Virtual Apps (GRID vApps) sind Virtualisierungslösungen, die eine Benutzererfahrung bieten, die von einem nativen PC kaum zu unterscheiden ist. Mit serverseitiger Grafik und umfangreichen Verwaltungs- und Überwachungsfunktionen bietet GRID eine zukunftssichere VDI-Umgebung. Stellen Sie die Leistung der GPU-Beschleunigung für jede virtuelle Maschine (VM) in Ihrem Unternehmen zur Verfügung und schaffen Sie so eine unvergleichliche Benutzererfahrung, sodass Ihrem IT-Team die erforderliche Zeit bleibt, um sich Unternehmenszielen und -strategien widmen zu können.
https://www.nvidia.com/de-de/data-center/virtual-pc-apps/

Was sich Shadow selbst zusammengeschustert hat, ist mir nicht bekannt, ist aber an dieser Stelle auch absolut irrelevant. Nvidia kann jedenfalls beliebig die Ressourcen auch anderweitig zuweisen und bietet ja bereits auch professionelle Lösungen an. Nutzlos rumstehen wird die Hardware also nicht, zumindest nicht langfristig.
 
Zuletzt bearbeitet:
Alphanerd schrieb:
Für den Energiebedarf, den eine einzige GraKa für Ressourcen Abbau, Produktion, Lieferung und Betrieb verbraucht kann man viele man vieeele Stunden streamen.
Kann sein, kann aber auch nicht sein. Nvidia gibt keine Daten heraus, was den Life Cycle Carbon Footprint einer 3080 angeht. Zumindest ich finde auch keine Schätzungen von dritten, die auch nur halbwegs belastbar oder zugänglich wären. Entsprechend bleibt nur der Griff zu privaten Schätzungen, die leider unfassbar grob ausfallen. Das allein wäre aber kein größeres Problem, solange sich immer nur ausschließlich nach unten bzw. ausschließlich nach oben verschätzt werden würde. In der Praxis ist es aber ein zu harter, zu verzerrter Mischmasch.
Alphanerd schrieb:
Da die durchschnittliche GraKa (abgesehen vom ideln) garantiert keine 60h im Monat betrieben wird, ist es (Ressourcentechnisch) Unsinn, wenn jeder eine eigene hat.
Bis dahin ist ein solches Fazit hingegen einfach noch nicht möglich.

Noch ein direktes Feedback:
Alphanerd schrieb:
und Betrieb verbraucht kann man viele man vieeele Stunden streamen.
Der Betrieb ist beim Streaming auch dabei.
 
CDLABSRadonP... schrieb:
Der Betrieb ist beim Streaming auch dabei.
Dafür braucht man aber nur einen 5w soc anstatt einer xx Watt CPU + xxx Watt GPU.

Und auch wenn man den genauen CO2 Abdruck nicht genau benennen kann, so bin ich mir ziemlich sicher, dass es ökologischer ist, Hardware zu teilen.

Eine Graka "steht" wie der PKW nur rum. Viel Energieeinsatz bei der Produktion, bis die Sachen altersbedingt nicht mehr "nutzbar" sind. Dabei haben sie kaum was geleistet in der Lebenszeit.
 
Ein Interessantes Beitrag.

Trotzdem habe ich das ganze nicht ganz optimal gefunden.
Der Vergleich war nicht ganz Fair:

1. Man vergleich ein neue CPU nicht mit eine, sondern zwei Generationen alte CPU. Was nicht wirklich Fair ist.

2. Ausserdem muss man beachten, dass ein User pro PC etwas mehr Leistung hat, als zwei Users pro PC, auch wenn doppelt so viele CPUs und GPUs hat. Denn die Managementleistung und Aufwand wird unterschätzt. Klar nicht viel, aber alles macht etwas aus.

3. Nicht zu vergessen, dass beim Streaming, jedes Bild komprimiert werden muss, was wieder viel Leistung beansprucht, und somit die fps nach unter druckt.

4. Und auch nicht zu vernachlässigen, die streaming verschluckt auch fps, denn es braucht wieder Leistung und Zeit, um die Bilder an Enduser zu schicken.

Wie gesagt, ein sehr schönes Artikel.

Meine Meinung nach, man hätte ein ählichem PC bauen müssen. Aber auf jedem Fall, hätte dem PC auch über Streaming nutzen müssen. Nvidia bietet die Möglichkeit dazu. Klar ist Wlan stabiler und schneller als Internet, aber dann wäre vergleichbarer, auch mit einer Intel CPU.

Und bin überzeugt, die Unterschiede wäre praktisch 0.
 
Zurück
Oben