• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Outer Worlds 2: Benchmarks zeigen Hardware-Hunger und gute Frame Gen

Wird wie der erste Teil im Sale gekauft da hatte ich auch nach knapp 27 Stunden keinen Bock mehr...alles gut aber irgendwie nicht überragend...und bis dahin habe ich eine neue GPU...
 
Wolfgang schrieb:
Glaub mir, 10 ms wirst du vom Input bis zum Output quasi nie haben, sondern meistens deutlich mehr. 5 sind völlig unrealistisch. Wie schnell die Pixel in einem Monitor schalten können ist ja schön und gut, da hängt aber noch eine ganze Menge mehr dran. 20 ms für die gesamte Kette ist schon ein sehr guter Wert, den gibt es aber nur mit High-End-Hardware und dann in einem auf Latenz optimierten Spiel inklusive System. 40 ms in einem normalen Gaming-Szenario ist schon gar nicht so übel.

ja richtig, ich meinte wohl den renderdelay, dass 5 ms in der totalen zeitkette unrealistisch sind ist wohl klar...

die gesamtlatenz L_total kann man vereinfacht so darstellen:

L_total = L_input + L_usb + L_cpu/gpu + L_frame_queue + L_scanout + L_pixel

grobe werte für ein optimiertes setup:
  • L_input (maus/tastatur polling, z. b. 1000 hz) ≈ 1 ms
  • L_usb (treiber + usb-puffer) ≈ 1–2 ms
  • L_cpu/gpu (engine + render queue) ≈ 2–5 ms bei supergeopt. settings
  • L_frame_queue (vsync, frame pacing) ≈ 0–5 ms je nach mode
  • L_scanout (monitor refresh pipeline) ≈ 5–8 ms bei 240 hz panels
  • L_pixel (pixel response time) ≈ 1–3 ms bei schnellen gaming-panels

summiert man das, landet man bei ~10–25 ms end-to-end. softwaretools messen aber oft nur L_cpu/gpu oder einen teil davon. deswegen sieht man manchmal „2–3 ms“ in games – das ist nur der render-delay, nicht der komplette input→output-weg.

also: softwaretools sind gut für relative vergleiche („game a fühlt sich schneller an als game b“), aber nicht für absolute zahlen. um die echte end-to-end-latenz zu messen, braucht man externe hardware wie nvidia ldat, highspeed-kamera oder oscope, aber wer hat das schon am start?

mich würde echt interessieren, wie eure 40 ms bzw. die 120 ms zustande kamen – wurde da wirklich die komplette kette gemessen oder nur software-intern? und wenn nur software, welche genau? 🤔
 
lWllMl schrieb:
mich würde echt interessieren, wie eure 40 ms bzw. die 120 ms zustande kamen – wurde da wirklich die komplette kette gemessen oder nur software-intern? und wenn nur software, welche genau? 🤔

Wo sind sie denn nun, die 120 ms??

1761239124232.png


Ich sehe hier 40, 49, 55 und 83 ms. Nirgendwo 120 ms. Hilf mir auf die Sprünge.
 
coxon schrieb:
Das sind offen gesagt deine "Probleme". Für alle anderen ist es Realität und so ziemlich jeder hat sich bisher damit abgefunden.

Auf der anderen Seite: Grafikkarten sind zu schwach ...
Hast du überhaupt eine Ahnung wovon du hier sprichst? 600 Watt für eine high-end GPU sind für dich noch normal? Kennst du dich überhaupt mit der Physik und den Grenzen bei Silizium-Chips aus? Wie kommst du eigentlich dazu, sowas zu bemängeln, wenn du selbst nicht in der Lage bist etwas dagegen beizusteuern? Hallo?

UE5 ist Kacke? Seh ich ganz anders. Mehr als eine persönliche Meinung deinerseits ist das nicht.

Studios optimieren nicht mehr ist auch wieder nur ne große Klappe geschwungen, von jemandem der bei keinem dieser Studios arbeitet und nicht weiß was das eigentlich für ein Aufwand ist und wie viel die da eigentlich machen. Das sind nicht umsonst Produktionen im Wert von Millionen bis Milliarden!

Wenn man keine Ahnung hat, einfach mal die Klappe halten. ;)
Wenn die Ansprüche gering sind, kann man „sich damit abfinden“.

Ja, 600 Watt sind viel. Die nuckelt auch gerne darüber hinaus. Das ist aber nicht direkt ein Indiz für „stark genug“.

Und mir ist bewusst das die aktuelle Fertigung am Limit ist. Da muss die Kombination mit anderen Materialen voran gebracht werden.

Sich zu erlauben, vorauszusetzen, dass man in der Branche tätig sein muss, um etwas kritisch zu betrachten ist ein starkes Stück. Als nächstes darf der Metzger ein verbranntes Brot nicht mehr bemängeln.

Ich glaube die UE5 sehen einige kritisch.
Wie viele UE5 spiele laufen den aktuell einwandfrei? Wenn weder die Engine noch das Studio schuld sind, wer dann?
Nur mal aktuell am Beispiel Borderlands 4?
 
  • Gefällt mir
Reaktionen: EntelodonX, KeinNutzerName, FLCL und 3 andere
Otsy schrieb:
Dazu müsstest du erst einmal verstehen, was der Wert überhaupt bedeutet. Und dann sähest du, dass er nur sehr rudimentär mit der Performance in Spielen zu tun hat.
Wie auch immer. Was klar ist, ist das AMD im GPU Bereich gegen nvidia kein Land mehr sieht. Die werden auch nur noch Mittel klasse bringen. In Zukunft.
 
Mimir schrieb:
Kann man schlecht pauschalisieren. Hier das ist auch UE5

Anhang anzeigen 1668584

Das deckt sich grob mit non-UE5 spielen.

Und natürlich läuft die UE5 in niedrigen Auflösungen auf den High End GeForces schlecht, weil sie halt ins CPU limit kommen. Die CPU Performance der UE5 wird erst ab der UE5.6 deutlich besser.
Ist hier doch quasi die gleiche Skalierung -25%.
 
Freue mich dann darauf nächste Woche im Gamepass loszulegen.

Danke für euren Test, denke also DLSS Quality und FG wird für mich mit "schwachem" 5900X und 4090 der beste "Kompromiss" sein.
 
Da warte ich erst einmal ab - Teil 1 hat mich jetzt nicht so abgeholt!

Aber Bachmann Turner Overdrive kann man gut mal wieder hören!!!🤟
 
Das Ihr mit unterschiedlicher Optik und Ausgangsauslösungen testet finde ich nach wie vor fragwürdig, dann kónnt Ihr euch die alten AMD und alle Intel Karten auch schenken, denn neu Karten mit 50% alte oder Intel mit 67% renderauflósung sind nun mal unterschiedliche Hardware anforderungen, dann lieber wie bei PCGH das die Qualität nicht vergleichbar ist oder eben nativ.
Eure Vram Empfàhlung ist aber unschlûssig die 5060 mit Ihren 8GB ist in den 1% nur 5% hinter der Ti in den Max jedoch 11%
wieso dann nicht zumindest FHD oder WUHD Nativ wieder dazu testen das alle Karten vergleichbare Optik und Leistungsanforderungen haben ? dann könnt Ihr euch die Tests alle Karten die Kein DLSS oder FSR4 kónnen schenken.
Auch wäre wúnschenswert die 3060ti gegen die 3080FE-10GB zu tauschen sowie die 5060ti&9060xt beide nur in 8GB zu testen und das úber alle auflósungen das man sehen kann wie weit die 8GB Karten abfallen
 
  • Gefällt mir
Reaktionen: EntelodonX, MiroPoch und SweetOhm
Mimir schrieb:
Nur mal zum Vergleich. Die 5070ti schafft hier im FG Test ohne FG ne Latenz von 83 ms. Das wäre grob das Niveau wo auch eine 9070XT landen würde.
Mit aktivem MFG und Reflex sind es dann 55 ms bei der dreifachen Framerate.
Jap aber MFG ist ja unspielbar wird immer gesagt. Also ist dieses Spiel auf radeons sowas von unspielbar :D
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Mimir
Dedenne1987 schrieb:
Sich zu erlauben, vorauszusetzen, dass man in der Branche tätig sein muss, um etwas kritisch zu betrachten ist ein starkes Stück. Als nächstes darf der Metzger ein verbranntes Brot nicht mehr bemängeln.
Also, denk noch mal drüber nach, aber die Analogie passt hier überhaupt nicht. Jeder würde ein verbranntes Brot bemängeln. Fällt dir nix mehr ein?

Na wenn du weißt, dass die Fertigung am Limit ist, ist es auch ein starkes Stück mehr von der Indstrie zu verlangen als sie gerade bieten kann. Oder etwa nicht? ;)
Dedenne1987 schrieb:
Ich glaube die UE5 sehen einige kritisch.
Ich auch. Aber sie sieht verdammt gut aus wenn der User weiss was er da macht.

Und mit was ich mich zufrieden gebe, steht auf nem ganz anderen Blatt, denn ich bin genauso ne Grafikhure* wie du, also komm mir bitte nicht so. Nur weil ich ne 7800XT habe, heißt das nicht, dass ich nicht das beste aus meiner Hardware hole. ;)

*keine Beleidigung, aber scheinst offensichtlich eine zu sein. Für mich ist das ein Kompliment ...
 
mit games von obsidian werde ich nicht warm. zuletzt avowed durchgespielt und keine ahnung warum ich es gemacht habe. das elend viele gelaber ging mir so auf den sack, dass ich nur noch weggedrückt habe. gameplay war nicht schlecht. insgesamt aber nix was in erinnerung bleibt. dazu noch die sterile welt....
outer worlds 2 werde ich im gamepass nicht mal mehr testen.
bin fertig mit dem entwickler.

grüße
 
  • Gefällt mir
Reaktionen: Celinna
Noch knapp 1 Woche warten.
 
coxon schrieb:
Also, denk noch mal drüber nach, aber die Analogie passt hier überhaupt nicht. Jeder würde ein verbranntes Brot bemängeln. Fällt dir nix mehr ein?

Na wenn du weißt, dass die Fertigung am Limit ist, ist es auch ein starkes Stück mehr von der Indstrie zu verlangen als sie gerade bieten kann. Oder etwa nicht? ;)

Ich auch. Aber sie sieht verdammt gut aus wenn der User weiss was er da macht.

Und mit was ich mich zufrieden gebe, steht auf nem ganz anderen Blatt, denn ich bin genauso ne Grafikhure* wie du, also komm mir bitte nicht so. Nur weil ich ne 7800XT habe, heißt das nicht, dass ich nicht das beste aus meiner Hardware hole. ;)

*keine Beleidigung, aber scheinst offensichtlich eine zu sein. Für mich ist das ein Kompliment ...
Gibt sicherlich passendere Vergleich, da hast du recht. Aber ich denke du weisst worauf es ich hinaus wollte.

Das starke stück nehme ich mir raus 😏

Das die UE5 geil aussehen kann, streite ich nicht ab. Die performance, an wen auch immer es liegen mag sind aber bei gefühlt 80% der spiele murks.
Und dieses hier sieht für mich einfach nicht so geil aus. Glaube irgend jemand hatte den Vergleich zu Bioshock gezogen. Hatte zuletzt mal Bioshock 1 Remaster gespielt, liegen zwar schon Welten zwischen, aber ich fühlte mich trotzdem direkt daran erinnert. Liegt wohl am stil.

Den Schuh „grafikhure“ muss ich mir schon irgendwie anziehen. Ist aber nur einer der Faktoren die passen muss.
 
Dedenne1987 schrieb:
Das die UE5 geil aussehen kann, streite ich nicht ab. Die performance, an wen auch immer es liegen mag sind aber bei gefühlt 80% der spiele murks.
Nö die sind nur dort überall "Murks" wo Nanite + Lumen aktiv sind, die anderen UE5 Games die gute laufen haben diese Features nicht aktiviert. Sehen deswegen aber auch gleich schlechter aus.

Wie schon gesagt, die ganzen UE5 Games haben die gleiche Performancecharakteristik mit Schwankung von +/-25%. Deswegen Ehre dem der noch seine eigene Engine pflegt
 
Ich habe mir den Benchmark FPS der 5070 TI WQHD -20 % für DLSS Quality angeschaut. Ist ne Punktlandung bei 60 FPS, aber die CPU-Last ist ja mal echt übel, hoffentlich kommen da noch Patches. Gestartet wird eh erst frühstens Weihnachten, es kamen so viele gute Spiele seit Sommer raus, die ich noch gerne spielen möchte. Ich hab da einfach nicht genug Zeit, für mich bräuchte es die nächsten 1,5 Jahre überhaupt nichts neues :D
 
@ChuChuRocket Du hast den Vorteil mit Geforce Reflex + FG aktivieren zu können, steht eh im Artikel, das federt schon viel ab
 
Dedenne1987 schrieb:
Man täuscht darüber hinweg, dass wir 3 potenziell große probleme haben.
1. Aktuelle Grafikkarten sind zu schwach
2. UE5 ist kacke
3. Studios optimieren nicht mehr
Welches davon zutrifft, oder eventuell mehrere, keine Ahnung. Aber probleme bestehen definitiv.
Ich würde 1. ausschließen. Wenn Du Dir ein zehn Jahre altes "The Division" heute installierst, alle Grafikdetails auf 11 stellst, easy auf 140fps limitierst, maximal 8 GB VRAM brauchst und der Frametime-Graph eine straffe, gerade Linie ist, dann könntest Du Dich Fragen, was ZUR HÖLLE die letzten Jahre passiert ist.

Es degeneriert regelrecht. Zweitens und Drittens sehe ich in Tateinheit. Studios die die UE nutzen, haben keinen Dunst wie man darin irgendwas optimiert. Das ist in meinen Augen ja alles nur in Nuancen von "schlecht" unterscheidbar.

Und das ist jetzt auch keine "neues" UE-Problem. Mechwarrior Mercenaries (UE4), Mechwarrior Clans (UE5), Robocop (UE4), Robocop Rogue City (UE5). Borderlangs 3 oder 4. Das letzte Stalker... Jedes davon kannst Du im Blindtest als UE erkennen, allein wegen diese ewigen FULLSTOP-Ruckler alle paar Sekunden. Ich habe keine Ahnung, wie das auf Konsolen noch läuft...

Dafür kauft sich keiner ne 2k GPU und ein 80,-€-Spiel, dass macht einfach keinen Spaß mehr.

Machste Dying Light The Beast oder BF6 an: Oh, geht doch! Müsste ich nur leider nur noch Lust drauf haben zu spielen. :)
 
  • Gefällt mir
Reaktionen: EntelodonX, KeinNutzerName, SweetOhm und 4 andere
@Cat Toaster True

Liegt vielleicht auch ein bisschen daran, dass die Spiele im Gegensatz zu früher am Fließband rausgeworfen werden. Klar, gibt auch Ausnahmen, aber wenn ich überlege 2x Silent Hill in 2 Jahren oder sonst was. Das gabs früher nicht, da hattest du 2 Knaller im Jahr, worauf Du dich seit dem Vorjahr schon drauf gefreut hast. Überspitzt gesagt
 
  • Gefällt mir
Reaktionen: SweetOhm
PES_God schrieb:
Wieder gerade so an der Kotzgrenze mit 60.2 FPS, aber immerhin mal besser als 5060TI und 7800XT :smokin:

Ich frage mich, wie alle vor gerade mal ner Dekade noch den Zwitscher, Dräggn Äidsch Inkwisischn oder Watch Dogs überlebt haben.

PC-Gamer hörens nicht gern, aber sie zahlen drauf. Denn auf "erschwinglichen" Konsolen sind stabile 60fps noch immer nicht das totale Existenzminimum. Sondern oft das Optimum -- das nicht immer gehalten wird, trotz dynamischem Upscaling. Selbst 30 und 40fps werden weiter beliefert. Kein Wunder: Noch immer sind dies Bilder, gerendert in jeder einzelnen Sekunde. Und noch immer werden diese Bilder stabil komplexer. Das hat seit Voodoo-Zeiten nie aufgehört. Vorsicht jedenfalls: Nvidia pusht bereits die 1.000Hz-Bildschirme als nächste PC-Eskalationsstufe. The more you fps, the more you buy. :daumen:
 
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben