• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Outer Worlds 2: Benchmarks zeigen Hardware-Hunger und gute Frame Gen

Zwischen Doom Eternal und Doom Dark Ages sind die allerdings in der Tat auch falsch abgegoben. Pathracing lasse ich mir nur Cyberpunkt und Indy seinem großen Kreis gefallen. Und selbst die Traversal Stuttern dann nicht aus der Hölle.
 
Nachdem Teil eins nicht so recht geklickt hat bei mir, werde ich mit Teil zwei auf alle Faelle warten.

Die "Satire" war in Teil eins schon von Anfang an viel zu ueberzeichnet. Das war nur noch unfreiwillig lustig, aber eigendlich nur albern. Vorallem aber waren die Questmoeglichkeiten enttaeuschend. Jemand anders hats schon geschrieben: Es war zu oft nur die Entscheidung zwischen Pest und Cholera moeglich.
Ich hoffe dass Teil zwei in dem Aspekt besser ist, und es einen Weg gibt sich von beiden Seiten unabhaengig zu machen.

Schaue ich mir die Screenshots so an, ist eins fuer mich auffaellig, vorallem beim Preset Vergleich:
Bei der Umgebung, insbesondere bei den Umgebungstexturen, sehe ich erstaunlich wenige Unterschiede. Dass die niedrigeren Presets dann "Fluff" wie Gras und sowas entfernen, finde ich nicht schlimm, eher sogar im Gegenteil. Wie auch schon Teil eins scheint das Spiel grafisch sehr "busy" zu sein, und bei sowas halte ich es lieber mit "weniger ist mehr". Aber letztendlich ist das auf Screenshots nie abschliessend bewertbar, das muss man in Bewegung sehen.
Ebenfalls gefaellt mir hier auf den Vergleichsscreenshots, wie so oft, die Stimmung der Raytracingbeleuchtung nicht.

duskstalker schrieb:
also mal ganz ehrlich - 18 jahre und 7000% mehr gpu performance (rtx 5090 vs gtx 8800).
Alleine bei diesem "Vaseline-Bloom Effekt" laufen mir Schauer den Ruecken runter.
 
duskstalker schrieb:
also mal ganz ehrlich - 18 jahre und 7000% mehr gpu performance (rtx 5090 vs gtx 8800)
->
duskstalker schrieb:
was erwartest du bei einem originalscreenshot aus 2007 in 4:3 1024x768 vs 4k?
786.432 Pixel vs 8.249.000 Pixel sind schon mal mehr als eine Verzehnfachung. Dass das Leistung kostet ist nicht logisch? Und wenn du dir beide Bilder mal in Fullscreen anschaust siehst du sehr viele Unterschiede. Texturen, Detailqualität, Kanten.

Ja, der Sprung ist natürlich nicht mehr so groß wie von 2d zu 3d, das war zu erwarten, aber zu sagen das sieht aus wie Bioshock ist halt Quatsch.
 
  • Gefällt mir
Reaktionen: Laphonso
ElliotAlderson schrieb:
RDNA4 ist in RT nicht (viel) langsamer als NV, nur in PT wischt NV mit AMD den Boden auf.
Gut, in Path Tracing hängt aktuell Nvidia quasi alle anderen Marktteilnehmer ab. Bin aber auch heilfroh, dass SER als auch Opacity Micro Maps ab Shadermodel 6.9 in DirectX Einzug hält. Für bestehende Path Tracer vermutlich zu spät. aber für zukünftig durchaus relevant.

Irgendwie frag ich mich, ob AMD endlich die Funktionalität auf Treiberebene implementiert hat, das es auch da mal weiter geht. Ohne den Support im Treiber, allgemein kein Support und das wäre doof
 
DevPandi schrieb:
Gut, in Path Tracing hängt aktuell Nvidia quasi alle anderen Marktteilnehmer ab. Bin aber auch heilfroh, dass SER als auch Opacity Micro Maps ab Shadermodel 6.9 in DirectX Einzug hält. Für bestehende Path Tracer vermutlich zu spät. aber für zukünftig durchaus relevant.
Wie viel machen Opacity Micro Maps aus? Bei SER sinds ungefähr 20%.
 
ElliotAlderson schrieb:
Bei SER sinds ungefähr 20%.
Also, die Werte von Ms sind bei Nvidia bis zu 40 % in einem dedizierten Benchmark, bei Intel sogar quasi 100 %.

https://devblogs.microsoft.com/directx/ser/

Was da am Ende im "realen" ankommt, kann allerdings stark schwanken.
ElliotAlderson schrieb:
Wie viel machen Opacity Micro Maps aus?
Keine Ahnung, bisher bekommt man ja primär Zahlen von Nvidia und MS. Um das dediziert sich anzusehen, müsste man mal auf Ada Lovelace als auch Blackwell entsprechende Benchmarks machen, die die Option einschalten und ausschalten.
 
DevPandi schrieb:
Also, die Werte von Ms sind bei Nvidia bis zu 40 % in einem dedizierten Benchmark, bei Intel sogar quasi 100 %.

https://devblogs.microsoft.com/directx/ser/

Was da am Ende im "realen" ankommt, kann allerdings stark schwanken.
Hier sinds laut NV bis zu 25%: https://www.reddit.com/r/nvidia/comments/y1n72u/todays_benchmarks_likely_dont_include_the_new/
Und hier laut reddit 8-20%: https://www.reddit.com/r/nvidia/comments/13cr4ye/nvidia_shader_execution_reordering_on_vs_off/
 
@ElliotAlderson Ja gut das MS Example ist ja quasi nur ein "HelloWorld" die den BestCase zeigt. Die Reddit Links sind wohl eher RealWorld wenn auch noch alles mögliche nebenbei läuft. Zudem SER bei Nvidia direkt in Hardware läuft und bei AMD über Software (Treiber)
 
ElliotAlderson schrieb:
Wie viel machen Opacity Micro Maps aus? Bei SER sinds ungefähr 20%.

Kann man nicht pauschalisieren. Wenn man viel animierte Vegetation hat, gegen die gepathtraced wird, dann können OMM und SER die performance auch mal locker verdoppeln, weil sonst riesige "blasen" in der Pipeline entstehen und die GPU nicht ausgelastet werden kann.

Für Pathtracing, besonders auf Vegetation sind die Features essenziell und die hat RDNA4 nicht...
Ist auch einer der Gründe, warum z.B. Indiana Jones (sehr viel animierte Vegetation mit pathtracing) auf AMD Karten extremst langsam läuft. Viel langsamer als z.B. ein Cyberpunk, wo man mit RDNA4 gegenüber Nvidia eigentlich wieder etwas aufgeholt hat. Aber das fehlende OMM und SER killt die performance bei AMD eben wieder komplett, wenns gebraucht wird. Wenn du mit ner AMD Karte in Indiana Jones z.B. ein Jungel Level mit pathtracing und Vegetationsanimationsqualität auf High betrittst, dann sackt die performance komplett in den Keller gegenüber Nvidia.

Ist halt auch der Grund, warum Nvidia erst mit den RTX40er Karten Pathtracing eingeführt hat. Theoretisch läuft es auch auf älteren GPUs, da es ja praktisch nur "mehr" raytracing ist. Aber sinnvoll nutzbar ist es eben nur ab RTX40, weil dieses "mehr" an Raytracing ohne entsprechende Features wie eben OMM und SER je nach zu renderndem Inhalt ein sehr großes Problem für die Performance sein kann. Bei AMD ist man dann wahrscheinlich erst mit RDNA5 bzw. UDNA so weit.

Abgesehen davon ist Pathtracing ohne DLSS Ray Reconstruction aktuell eh sinnfrei. Das RayReconstruction ist nicht nur ein hervorragend gutes Denoising, auch der Detailgrad des Pathtracing steigt damit nochmal deutlich an, da z.B. viel mehr kleine Objekte nen Schatten bekommen. Schatten, die der Standard Denoiser des Spiels komplett ausradieren würde. Gleiches gilt für feine Highlights auf Materialien. Solange AMD nichts vergleichbares bietet ist das ganze vorhaben, Pathtracing auf AMD Karten nutzen zu wollen sowieso völlig sinnfrei. Es gibt Szenarien da wertet alleine RayReconstruction die optik nochmal so stark auf, wie das aktivieren von Pathtracing selbst. Ohne RR bekommt man also nur ca 50% der möglichen grafischen Aufwertung. Das rechtfertigt den eh schon so starken Performanceverlust auf AMD GPUs noch weniger.
 
Zuletzt bearbeitet:
habla2k schrieb:
Und wenn du dir beide Bilder mal in Fullscreen anschaust siehst du sehr viele Unterschiede. Texturen, Detailqualität, Kanten.

Meshqualität und Texturauflösung sind nicht der Grund, wieso das Ding läuft wie ein Sack Nüsse.

Aktuelle Grafikkarten kommen mit einer riesigen Geometrielast klar, bevor das wirklich ein Problem wird. zum Problem wird das erst, wenn die GPU mit tessellation + nanite workflow mit subpixel polygonen zugespamt wird, die kein Mensch überhaupt mehr sehen kann.

und Texturauflösung ist auch kein Problem, solange das in den vram passt und die shadermaps nicht völlig übertrieben oder falsch komprimiert sind - wenn die shader selbst massiv Leistung fressen, hat natürlich eine shadermap (Textur) schon einen Einfluss auf die Leistung, aber dann hat man eher ein Problem mit dem Shader als mit der Textur an sich.

mir geht es bei dem Vergleich nur darum zu zeigen, dass eine ähnliche Optik vor 18 Jahren mit einem Krümel der Rechenleistung auch schon möglich war.

und auch du bringst jetzt Texturen und Modelle ins Spiel - einfach weil die Spiele von der Beleuchtung und Atmosphäre sowie Ästhetik extrem ähnlich sind, dass das die hauptunterschiede sind, die am ehesten noch in den Screenshots auffallen, aber vergleichsweise wenig Leistung kosten.

das ist der Originale test von Bioshock aus 2007

https://www.computerbase.de/news/gaming/benchmarks-und-bilder-von-bioshock.19899/

eine 8800 GTS ist noch ein gutes Stück langsamer als die ursprünglich zitierte 8800 gtx - Faktor 100.

jetzt ist halt die Frage - trotz "4k" Auflösung, die auch nur in 1080p gerendert wird - sieht man den spielen im Vergleich an, dass da die 100 fache GPU Performance dahinter steckt? offensichtlich ja nicht.

überleg mal du machst ne Zeitreise nach 2007 und bringst denen eine GPU mit, die faktor 70-100 schneller ist als die Grafikkarten damals und dann zeigst du denen was man in der Zukunft mit dieser absurden Mehrleistung alles machen kann, und dann zeigst du denen Outer worlds 2 und der Konsens ist, dass die Texturen und Modelle besser aussehen. was ist denn das?
 
  • Gefällt mir
Reaktionen: Kuristina
duskstalker schrieb:
überleg mal du machst ne Zeitreise nach 2007 und bringst denen eine GPU mit, die faktor 70-100 schneller ist als die Grafikkarten damals und dann zeigst du denen was man in der Zukunft mit dieser absurden Mehrleistung alles machen kann

Ich will jetzt nicht schwarzmalen: Aber das wird in nochmal 18 Jahren eher noch krasser sein. Denn jeder Schritt zu mehr Pixelperfektionismus wird nicht nur immer kleiner. Sondern kostet auch immer mehr Leistung. Es ist ein Unterschied, ob der letze Stand der Dinge 8bit, Piepssound und Monochromgrafik war -- oder Crysis. Oder Red Dead Redemption 2. Oder Alan Wake 2.

Wo wir dabei sind: Ein Teil der Krise dieser Industrie ist, dass sie sich seit Jahrzehnten drauf verlassen konnte: Bessere Technik verkauft von ganz alleine mehr Spiele. Police Academy 17, äh, Assassins Creed 15? Werden die Leute uns trotzdem aus den Händen reißen. Weil: so viel fett realistischer!

No more. In einigen Generationen spätestens werden wir am Punkt sein, an dem das letzte Technikupgrade nur noch die Technik-Enthusiasten brennend interessiert. Klar, bis zum Fotorealismus ists noch weit. Aber es setzt längst nicht jedes Spiel auf maximalen Pixel-Realismus. Und muss das auch gar nicht, um absolut fantastisch auszusehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: habla2k
Was ist Outer Worlds 2 denn überhaupt für eine Art von Spiel. Noch nie gehört den Namen.
 
@Svennc
es geht nicht um grafik, es geht um die spielerfahrung. und dieser ruckelige pixelmatsch von heute mit flachen spielmechaniken holt einfach keinen mehr ab (soll jetzt keine wertung für outer worlds sein, mag sein, dass da spielerisch mehr drin steckt, aber die technik ist halt nix - und das deckt sich mit fast allen ue5 releases) - ob das licht jetzt etwas realistischer ist oder nicht juckt nach 50 spielstunden keinen mensch mehr. aber die 50+ spielstunden bringt man nur zusammen, wenn das spiel spaß macht und die technik keine angezogene handbremse ist. ein gutes flüssiges spielerlebnis ist mindestens genau so wichtig wie eine gute optik - ich würde sogar sagen: wichtiger. eine stimmige optik mit guter performance >>> ruckelige "high end" grafik. flüssige saubere darstellung ist auch eine qualität.

weißt du was die leute 2007 vom hocker gehauen hätte? half-life alyx. und dafür brauchts nicht mal ne 5090.
 
Ich mag Teil 1 und bin auch DLSS & Co. überhaupt nicht abgeneigt.
Aber spätestens damit sollten 60+ auch gehalten werden.
Ja, auch ich habe früher PC Spiele mit 15 fps gespielt, aber die persönlichen Ansprüche sind gestiegen.

Für die performance sind mir die aufgerufenen Preise deutlich zu hoch.
Die UE5 mag ich in ihrer aktuellen Form auch nicht, bislang hatte ich noch nicht ein Spiel vor mir, das anständige Reflektionen gehabt hätte.

Irgendwann ist es günstiger und läuft evtl. auch besser, dann schlage ich zu.

cyberpirate schrieb:
Ist das Spiel wieder nur First Person? Gerade bei einem RPG möchte ich schon die Ansichten auch auf Third Person ändern können. Am besten noch stufenlos wie zb bei Fallout.

Es soll dieses mal eine 3rd person und eine near 3rd person geben.

zeedy schrieb:
Ich habe noch vor kurzem Bioshock Remaster gespielt... ich sag mal so, Spiele bleiben grafisch viel besser in Erinnerung als sie heute tatsächlich sind :D

Ich spiele es gerade wieder.
Ein wenig gemoddet und mit RTGI sieht es ganz nett aus.

Aber der Vergleich muss auch realistisch betrachtet werden:
BS hat keine hohen Sichtweiten, keine umfangreiche Vegetation, keinen hoher Polycount, schlechtere Beleuchtung usw.
 

Anhänge

  • Bench 9070XT vs 4090 5080 WQHD.jpg
    Bench 9070XT vs 4090 5080 WQHD.jpg
    221,2 KB · Aufrufe: 44
  • BO 6.jpg
    BO 6.jpg
    214 KB · Aufrufe: 46
  • BF6 Bench.jpg
    BF6 Bench.jpg
    241 KB · Aufrufe: 42
  • Bench TOW 2 UWQHD.jpg
    Bench TOW 2 UWQHD.jpg
    212,1 KB · Aufrufe: 42
Zuletzt bearbeitet:
Kindergarten Amd hier, haben sie 1 Spiel gefunden welchens die Nv dominiert. Ist ne Top Karte für 650€ doch felhlt auch viel gute Software. Und wir wissen ja Amd braucht unendlich lang. Am Ende des Tages läuft es auch vielen Karten füssig. Mit Mfg was hier oft genug erwähnt wurde dann nochmal deutlich besser. Aber ja, Konkurenz ist gut und muss sein!
 
  • Gefällt mir
Reaktionen: Portal501
Portal501 schrieb:
Verstehe nicht das AMD die Leistung niemals auf die Straße bekommt. Die 7900XTX hat 130 Teraflops,und kommt nicht mal gegen eine 5080 an mit 60 Teraflops. Die 9070XT hat auch gute 90 Teraflops und ist mit der 5070ti mit 45 Teraflops gleich auf.
FLOPS sind am Ende des Tages nur eine theoretische Messgröße, die am Ende wenig zählt.
Abgesehen davon weiß ich aber auch nicht so genau, woher du diese Zahlen hast. Ich finde in einer schnellen Google-Suche unterschiedliche Angaben.
Letztlich sind sie aber sogar noch weniger wert, wenn man nicht zwischen FP32-, FP16- und FP8-Operationen unterscheidet. Eventuell findet sich dort auch die Ursache für die Diskrepanzen.
joel schrieb:
Ich glaube, ich habe es hier schon einmal so gesagt, als klar war, dass AMD FSR4 nicht für RDNA2/3 bringen wird, habe ich meine 7800XT ohne viel Verlust verkauft und habe mir die RDNA4 Karte geleistet.
Das war vermutlich die beste Idee. Ich war leider so naiv anzunehmen, dass sich da schon noch etwas tun werde und wohl auch einfach zu bequem, um diese Initiative zu ergreifen.
joel schrieb:
Aus deinen Worten spricht ganz klar der Frust gegenüber AMD, so ging es mir auch, aber NV hat genug Kundschaft.
Bis heute habe ich es keinen Tag bereut mir die RX9070XT geleistet zu haben, sie ist effizient, leise, hat genug Leistung für die meisten Games und kostet 1/5 der 5090.
Klar, theoretisch hat Nvidia genug Kundschaft. Das allein ist aber leider kein Argument dafür, beim Konkurrenten zu kaufen. Würde ich jetzt eine Kaufentscheidung treffen, käme ganz sicher Blackwell in den Rechner, weil ich kein "Sidegrade" in Sachen Leistung mit einem Downgrade in Sachen Speicher verbinden werde, selbst wenn es mich nichts kosten würde. Dann nehme ich lieber die ca. 60% Mehrleistung mit, die eine RTX 5090 mir brächte, selbst wenn ich ordentlich draufzuzahlen hätte, und hätte dann auch noch 33% mehr Speicher. Oder es müsste später eben eine RTX 5080 Super mit 24 GB werden. Der Preis ist für mich so oder so ein nachrangiges Kriterium.

In der kommenden Generation wird man neu sehen müssen. Sollte AMD jedoch gleichauf oder knapp hinter Nvidia landen, werden Vorerfahrungen bei weiteren Erwägungen definitiv auch eine Rolle spielen. Ist eben so. Deswegen ist Produktpolitik in jeder Hinsicht so wichtig. Wer sich veräppelt fühlt, kommt vielleicht nicht so schnell wieder.

Ich will damit nicht sagen, dass ich das große Ganze nicht sehe. Aber ich habe es mir abgewöhnt, den Unternehmensversteher zu spielen. In der Analyse? Gerne. Aber als Kunde schaue ich eher auf meinen eigenen Vorteil und meine eigenen Erfahrungen, zumal wenn sich die Produkte ähnlich genug sind.
 
Mimir schrieb:
Die UE5 kann die GPUs trotz der schlechten performance einfach nicht gut auslasten. Das ist einfach dem Code oder der Architektur der Engine geschuldet, die da nicht ordentlich skaliert und die GPUs vermutlich an irgend ner anderen Stelle ins Bottleneck bringt.

TheInvisible schrieb:
Da gibts keinen Wundertreiber da die UE5 Geforces einfach nicht ordentlich auslastet, sieht man auch immer an den niedrigen Verbräuchen. Erst ab 4k normalisiert sich so das Performancebild

Hab das schon in einigen Spielen beobachtet, die maximal möglichen Watt werden von manchen Spielen nicht annähernd genutzt. Da wurden nur 273, 300, 330 von 450 Watt genutzt. Mit aktivem RT waren es dann teilweise 100 Watt mehr. Und das trotzdem immer im 99% GPU Limit.

Seit ich mit dem 360 Watt PowerLimit spiele, beobachte ich das natürlich viel seltener.

Wolfgang schrieb:
Wir benchen so, wie wir es für am sinnvollsten halten, auf einem schnellen PC die Spiele zu spielen. Und da halte ich in den meisten Fällen maximale Grafikdetails mit aggressiven Upsampling (bei DLSS 4 und FSR 4) für am sinnvollsten. Das bringt oft weit mehr als die Grafikdetails um eine Stufe (oder auch mehrere) zu reduzieren, greift aber deutlich weniger bei der Grafikqualität ein.

Natürlich wären native Auflösung mit DLSS/FSR Algorithmus, also DLAA oder FSR Native, besser. Aber das ist mit maximalen Grafikdetails aktuell eben nicht kombinierbar (und wird es denke ich auch nie mehr werden).

Gut so, man kann es eh nie allen Recht machen und die unterschiedliche Hardware macht es nicht einfacher

Mein Ziel ist erstmal DLAA und ich teste ein Spiel erst auf dem 4k Monitor.
Wenn ich da keine anständige Perzentile hinbekomme, wechsle ich auf den QHD Monitor (beide 27")

(z.B. fühlt sich für mich Borderlands 4 in 4k Quality nicht so gut an wie QHD DLAA
in 4k+Quality brechen die Lows deutlich mehr auf 24 ein
in QHD+DLAA gehen die Lows nur auf 43 runter
ist aber beim nächsten Spiel wieder anders)

ansonsten finde ich erstaunlich, wie optimierte Settings nicht unerheblich FPS bringen, ohne das Bild sichtbar zu verschlechtern. der BenchmarkKing4386 auf YT vergleicht die optischen Auswirkungen jedes Schalters in den Settings und gibt dann seine Empfehlung

Euren Ansatz ultra settings und mehr upcaling geht natürlich auch.
DLSS Quality funktioniert in einigen Spielen mittlerweile richtig gut (bis auf Haare)
 
Zurück
Oben