• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Outer Worlds 2: Benchmarks zeigen Hardware-Hunger und gute Frame Gen

Die Unreal Engine 5 ist einfach crap. Hohe Anforderungen bei nicht gerade überragender Optik. Dazu werden die Nvidia Karten einfach nicht optimal ausgelastet.
 
  • Gefällt mir
Reaktionen: Clark79, Celinna, Hamudy und 2 andere
The Outer Worlds 2 ist ein Spiel, dass ohne latenzreduzierende Maßnahmen wie Nvidia Reflex einen sehr hohen Input-Lag hat.
Wie kommt denn sowas? Gibt es da technische Gründe für? Jetzt braucht man also schon besondere Features um Input Lag zu minimieren?
 
heroesgaming schrieb:
Eigentlich kann man die Aussage "ohne Upsampling kaum bis nicht spielbar" mittlerweile von Artikel zu Artikel kopieren, oder? Wenigstens dann, wenn es um AA- und AAA-Titel geht. Ist ein Trauerspiel.

Meine 7900 XTX, so leistungsfähig sie eigentlich ist, werde ich vor diesem Hintergrund wohl bald wieder tauschen, entweder gegen eine RTX 5090 oder eine Karte der kommenden Generation. Ohne DLSS macht man derzeit einfach bei zu vielen Spielen Kompromisse bei Grafik und / oder Leistung.
Naja, was heißt Trauerspiel.
DLSS 4 und FSR 4 sehen immer besser bis vergleichbar gut wie Nativ aus, es macht da halt auch gar keinen Sinn mehr, Nativ zu spielen. In The Outer Worlds 2 eben auch nicht.
Das bringt dir als RX 7000 Nutzer zwar nichts, aber nicht Nativ zu spielen ist halt eine gute Sache mittlerweile^^

Diesbezüglich ist die RX 7000 Serie halt auch wirklich schlecht gealtert, das gab es so schon lange nicht mehr. Hier fliegt es AMD gerade richtig um die Ohren, dass sie Upsampling und die dazugehörige Hardware vor FSR 4 wirklich steifmütterlich behandelt haben. Wenn FSR 4 Light wirklich offiziell für RX 7000 kommt dann hat die Generation ein noch längeres Leben. Aber wenn nicht ist es sicherlich einer der aktuellen GPU-Generationen, die das kürzeste Leben haben. Old Wine diesmal.
habla2k schrieb:
Wie kommt denn sowas? Gibt es da technische Gründe für? Jetzt braucht man also schon besondere Features um Input Lag zu minimieren?
Warum das so ist...ich habe keine Ahnung. In einigen wenigen Spielen ist das so, da muss irgendwas komisches in der Render-Pipeline passieren. Aber was weiß ich nicht.
 
  • Gefällt mir
Reaktionen: _Cassini_, Mantasia, Harperrino und 3 andere
Wolfgang schrieb:
DLSS 4 und FSR 4 sehen immer besser bis vergleichbar gut wie Nativ aus,
...und sei es als reines Kantenglättungsverfahren (DLAA bspw.). Wenn man dann noch mal auf TAA oder MSAA zurückgreifen muss, weil die entsprechenden Upscaler nicht unterstützt werden, trauert man dem hinterher.
 
@Vigilant Als DLAA oder FSR Native sehen sie natürlich nochmal besser aus (wenn auch weniger als man aufgrund des Auflösungsunterschied vermuten könnte). Aber das ist in modernen Spielen halt auch mit den schnellsten Grafikkarten kaum möglich.
 
  • Gefällt mir
Reaktionen: BeowulfAgate
@Wolfgang
Absolut. Weswegen heute eine fehlende Unterstützung von DLSS oder FSR eigentlich immer irgendwie schmerzhaft ist.
 
1761226740604.png


Dass ich das noch erleben darf, eine 650€ teure AMD Karte ist so schnell wie eine 2500€ NV Karte :D

Optimierung hin oder her, ein herrlicher Anblick.

Aber zeichnet sich ja in sehr vielen UE5 Engine Games ab, dass RDNA4 sehr gut und teils besser ggü. ihren Blackwell Konkurrenten dasteht.
Ein UE5 Benchmark Parcour würde NV nicht gut stehen :D Nur leider werden sehr viele neue Spiele in UE5 entwickelt...NV hasst diesen Trick. :P

Aber das hier ist glaub bisher einzigartig. Schade, dass die 9070XT keine 0,3 FPS schneller ist und ganz oben steht :D

Ansonsten sieht die Optik natürlich absolut nicht nach der entsprechenden Leistung aus. Das können 10 Jahre alte Games besser....
 
  • Gefällt mir
Reaktionen: _Cassini_, Monarch2, SweetOhm und 3 andere
Wir schreiben das Jahr 2025 und eine 2000 € Grafikkarte rendert 1280x720 (Hey, 50% Render-Scale bei 2560x1440) mit gerade einmal 105 FPS und bläßt das Bild dann mit Skalierung auf. Ein Traum!
 
  • Gefällt mir
Reaktionen: ReinerReinhardt, Coronium, DeadlyStriker und 34 andere
Fand den ersten Teil + DLC super. Freu mich entsprechend drauf :)
 
  • Gefällt mir
Reaktionen: LeckerRK, Tiger_74, MiroPoch und eine weitere Person
danyundsahne schrieb:
Anhang anzeigen 1668569

Dass ich das noch erleben darf, eine 650€ teure AMD Karte ist so schnell wie eine 2500€ NV Karte :D

Optimierung hin oder her, ein herrlicher Anblick.

Aber zeichnet sich ja in sehr vielen UE5 Engine Games ab, dass RDNA4 sehr gut und teils besser ggü. ihren Blackwell Konkurrenten dasteht.
Ein UE5 Benchmark Parcour würde NV nicht gut stehen :D Nur leider werden sehr viele neue Spiele in UE5 entwickelt...NV hasst diesen Trick. :P

Aber das hier ist glaub bisher einzigartig. Schade, dass die 9070XT keine 0,3 FPS schneller ist und ganz oben steht :D

Ansonsten sieht die Optik natürlich absolut nicht nach der entsprechenden Leistung aus. Das können 10 Jahre alte Games besser....
Definitiv stark von der 9070XT. Aber die 79,6 der 5090 dürften wohl einen anderen Grund haben. Ich denke die CPU kommt da nicht mit.
 
  • Gefällt mir
Reaktionen: Icke-ffm und Hamudy
@Dedenne1987 Es ist eine Mischung aus der CPU geht die Puste aus und AMD kann eben genau dies besser abfangen als Nvidia.
 
  • Gefällt mir
Reaktionen: LeckerRK, Monarch2 und SweetOhm
Und jetzt noch nativ bitte :)
 
  • Gefällt mir
Reaktionen: LeckerRK, fubster, KeinNutzerName und 7 andere
30 bis knapp 40% Vorsprung der 9070XT gegenüber eine 7900XTX in 4K ist echt eine Ansage. Aber Die 7900XTX schneidet überraschend schlecht ab. Auch zur 4080 Super ist der Abstand recht groß.

Generell etwas verwunderlich. Die UE war dcoh mal die Vorzeige Engine für Nvidia. Warum hat sich das in der letzten Zeit so gedreht?
 
  • Gefällt mir
Reaktionen: SweetOhm, CMDCake und Hamudy
Wun Wun schrieb:
Und jetzt noch nativ bitte :)

Juckt keinen, weils auf den meisten GPUs unspielbar schlecht läuft und schlechter aussieht. Also wozu bitte?
 
  • Gefällt mir
Reaktionen: OnkelTito, Monarch2, Laphonso und 3 andere
Shoryuken94 schrieb:
30 bis knapp 40% Vorsprung der 9070XT gegenüber eine 7900XTX in 4K ist echt eine Ansage. Aber Die 7900XTX schneidet überraschend schlecht ab. Auch zur 4080 Super ist der Abstand recht groß.

Generell etwas verwunderlich. Die UE war dcoh mal die Vorzeige Engine für Nvidia. Warum hat sich das in der letzten Zeit so gedreht?
Thats because u didnt read the settings instead looking just at the bar , 7900XT runs at 67% scale when 9070XT just at 50% this whole benchmark is a meme
 
  • Gefällt mir
Reaktionen: eldübel, daknoll und MiroPoch
0xffffffff schrieb:
eine 2000 € Grafikkarte rendert 1280x720
Und? Hättest du vom bloßen anschauen der Bilder gewusst, dass es 720p ist? Nein? Na siehste :)
 
  • Gefällt mir
Reaktionen: akuji13 und Veitograf
Ich stelle mal die These auf, dass der aktuelle Trend zu aggressiverem Upscaling RDNA4 stark in die Karten spielt, sowohl im Vergleich mit RDNA3 als auch den großen NVidia GPUs
AMD hat eine relativ "schmale" GPU gebaut, die man auch in niedrigen Auflösungen noch vergleichweise einfach auslasten kann. Die 4090 und 5090 haben/hatten ja schon in nativen 4K oft Probleme, sich ordentlich von den anderen Karten abzusetzen, vom Abstand der theoretischen Rechenleistung ist man sowieso meist meilenweit entfernt.
Ein Benchmark in 720p (1440p mit Performance Upscaling) verschärft das Problem dann natürlich noch weiter
 
  • Gefällt mir
Reaktionen: KeinNutzerName
Die UE5 kann die GPUs trotz der schlechten performance einfach nicht gut auslasten. Und das ist ja nichtmal ein CPU Problem, denn in 1440p sind die FPS ja sehr viel höher als in 4K auf der 5090.
Das ist einfach dem Code oder der Architektur der Engine geschuldet, die da nicht ordentlich skaliert und die GPUs vermutlich an irgend ner anderen Stelle ins Bottleneck bringt. Ne GPU besteht ja auch nicht nur aus Cuda Cores. Da kann auch was anderes in der Architektur limitieren.
 
Portal501 schrieb:
Ninja Gaiden 4 test gibt's bei Gamestar hat 86% Wertung bekommen.

Ich rede von Benchmark Tests… dachte das wäre klar.
 
Zurück
Oben