• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Outer Worlds 2: Benchmarks zeigen Hardware-Hunger und gute Frame Gen

Quidproquo77 schrieb:
Am Ende ist es aber sowieso wieder egal, weil die Radeon mit einer sehr schlechten Latenz daherkommt.

Ist das der neueste Trend im Nvidia Propaganda Programm? Sehr schlechte Latenz :lol: >1000€ GPUs von Nvidia mit Game Ready Treiber werden hier von 630€ AMD GPUs ohne optimierten Treiber selbst mit HW RT geschlagen. Da muss man natürlich als Nvidia's Forenbeaftragter irgendwelchen Mist über AMD GPUs erzählen, um davon abzulenken ^^

Quidproquo77 schrieb:
Es gab x Untersuchungen und man hat keine gefunden außer cherrypicking von ein paar Directx12 Spielen als Ampere rausgekommen ist. Die ganzen Directx11 Titel liefen hingegen auf Nvidia GPUs deutlich besser im CPU Limit und heute gibt es davon keine aussagekräftigen Belege, außer dass eben Intel GPUs deutlich schlechter mit der CPU skalieren.

Ja genau, irrelevantes DX11 erwähnen als wäre es ein Argument, den generellen DX12 Treiber Overhead von Nvidia aber als Cherrypicking unter den Teppich kehren. Dein Cope wird ja immer schamloser.

Jo es gibt x Untersuchungen, die gezeigt haben, dass Nvidia GPUs einen signifikanten Treiber Overhead haben und mehr CPU Leistung brauchen:


Screenshot 2025-10-23 211251.png

Screenshot 2025-10-23 211328.png

Screenshot 2025-10-23 211358.png

Ergänzung ()

Quidproquo77 schrieb:
Besonders bei Chronos hat mich das auf der 9060XT gestört. Die Latenz war extrem.
Ach ja, deine ominöse 9060XT, obwohl Radeon für dich "gar nicht in Frage kommt" und du eine 5080 hast ^^

Quidproquo77 schrieb:
Bei PCGH ist zumindest die 5070TI mit der 9070XT in 4K etwa gleichauf.

Genau, lass uns nur auf 4K gucken, weil das ja 4K GPUs sind und 38 FPS selbst mit Hochskalierung so schön spielbar sind. Dass die deutlich teurere 5070TI in für sie relevanten Auflösungen eindeutig langsamer ist, ignorieren wir einfach ;) Dein Cope ist so lächerlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mahau, CMDCake, Monarch2 und 6 andere
Hat wirklich nicht lange gedauert, bis der Nvidia vs. AMD-Beitrags-Krampf wieder anfing. Respekt. 😅
 
  • Gefällt mir
Reaktionen: Celinna, KempA, Laphonso und 7 andere
zeedy schrieb:
Ist das der neueste Trend im Nvidia Propaganda Programm? Sehr schlechte Latenz :lol: >1000€ GPUs von Nvidia mit Game Ready Treiber werden hier von 630€ AMD GPUs ohne optimierten Treiber selbst mit HW RT geschlagen. Da muss man natürlich als Nvidia's Forenbeaftragter irgendwelchen Mist über AMD GPUs erzählen, um davon abzulenken ^^
Nö, die "schlechte Latenz" Reiter kommen normal immer vom roten Lager zwecks MFG. Das man hier jetzt trotz MFG eine niedrigere Latenz hat mit höherer Bewegtschärfe schmeckt halt einige nicht. fps ist nicht alles, Antilag 2 ist so gut wie nirgends implementiert.
Ergänzung ()

zeedy schrieb:
Ja genau, irrelevantes DX11 erwähnen als wäre es ein Argument, den generellen DX12 Treiber Overhead von Nvidia aber als Cherrypicking unter den Teppich kehren. Dein Cope wird ja immer schamloser.
Ja klar weil man eine 5080 auch mit einem Ryzen 5600 kombiniert. Schon komisch, als Nvidia noch die niedrigere CPU Last bei DX11 hatte wurde darauf nie so herumgeritten.
 
zeedy schrieb:
Sehr schlechte Latenz :lol: >1000€ GPUs von Nvidia mit Game Ready Treiber werden hier von 630€ AMD GPUs ohne optimierten Treiber selbst mit HW RT geschlagen.
Ja, du hast bei Nvidia auch wenn das Spiel auf Radeons etwa 10-15% Nativ besser als üblich läuft durch Reflex und MFG deutliche Leistungs und Latenz Vorteile.

Man kann im Treiber zwar Antilag aktivieren, braucht aber die ins Spiel integrierte Variante. So ist die Latenz bei Nvidia inkl. FG bei 49 MS und bei AMD irgendwo bei 70-80ms ohne FG.Da fällt der kleine Leistungsvorteil nicht ins Gewicht.
zeedy schrieb:
Ja genau, irrelevantes DX11 erwähnen als wäre es ein Argument, den generellen DX12 Treiber Overhead von Nvidia aber als Cherrypicking unter den Teppich kehren.
Ampere wurde 2020 gelauncht, das ist 5 Jahre her. Damals waren viele der getesteten Spiele noch Direct X11.
Bitte.
https://www.pcgameshardware.de/CPU-CPU-154106/Specials/Radeon-Geforce-CPU-Limit-Test-1368614/
Unterm Strich lief Nvidia minimal besser im CPU Limit und im Test 2 Jahre danach war's auch ausgeglichen. Ja unter Direct X 12 Spielen gab es hier und da leichte Nachteile, die in großen Tests aber untergehen.
https://www.pcgameshardware.de/Rapt...0K-13600K-Review-Release-Benchmark-1405415/4/
Screenshot_2025-10-23-22-22-06-90_40deb401b9ffe8e1df2f1cc5ba480b12.jpg

zeedy schrieb:
Jo es gibt x Untersuchungen, die gezeigt haben, dass Nvidia GPUs einen signifikanten Treiber Overhead haben und mehr CPU Leistung brauchen:
Nein, das ist Cherrypicking. Nur in Warhammer?!
Es gibt dazu aktuelle Tests auf PCGH, in der auch die 4060 minimal besser wegkommt als die RX 7600. Guckst du.
https://www.pcgameshardware.de/Arc-...ad-Grafiktreiber-Prozessor-Vergleich-1464392/
zeedy schrieb:
Genau, lass uns nur auf 4K gucken, weil das ja 4K GPUs sind und 38 FPS selbst mit Hochskalierung so schön spielbar sind.
Es ging mir um die grundsätzliche Leistung in der UE 5. Irgendetwas bremst die Nvidia Karten, aber nicht die CPU. Die 5090 ist nur doppelt so schnell wie die 4070. Normal sollte sie eher 2,5 bis 3x so schnell sein.
TheInvisible schrieb:
Das man hier jetzt trotz MFG eine niedrigere Latenz hat mit höherer Bewegtschärfe schmeckt halt einige nicht.
Ob ich 70-80 ms oder 40ms habe ist laut zeedy nur Propaganda. Das Spiel lässt sich in dem Patchstand selbst mit einer 5060 Ti inkl. FG wohl besser spielen als mit einer 9070 XT, bis AMD oder die Entwickler das nachreichen.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Bei der UE5 sind 9070XT und 5070Ti eher 1:1 gleich schnell,
da schau dir mal die ganzen UE5 Game Benchmarks der letzten 12 Monate hier an. Ich glaube da ist die 5070ti schon fast langsamer in der Summe. RDNA4 hat hier wirklich in sehr vielen Spielen besser abgeschnitten. Vorallem auch die min. FPS sind oft besser. Klar, nicht in allen Games.
Aber TOW2 ist sogar deutlich deutlich schneller auf RDNA4. Siehst ja selbst.
Quidproquo77 schrieb:
bei anderen Engines ist die 5070Ti meist etwas schneller.
das stimmt.
Quidproquo77 schrieb:
Hier dürfte aber eher ein Auslastungsproblem vorliegen und ein weiterer Treiber Linderung verschaffen.
Aber da hätten ja schon viele Treiber kommen müssen seitdem UE5 draußen ist. Der UE5 Nachteil bei NV wäre doch schon längst behoben worden. Wo ist der Wundertreiber denn vom Platzhirsch. Kann ich mir irgendwie nicht vorstellen, dass es nur am NV Treiber alleine liegen soll. Vll spielt da noch architektonisch was mit rein....Lovelace z.B. ist in vielen Spielen kaum bis gar nicht langsamer als Blackwell.
 
  • Gefällt mir
Reaktionen: SweetOhm
Eine 9070XT so schnell wie ne 5080, trotz HW-RT? Nice! Das fehlende FG kann man per Treiber zugeben. Von daher, well done AMD!
 
  • Gefällt mir
Reaktionen: MiroPoch und SweetOhm
danyundsahne schrieb:
Aber da hätten ja schon viele Treiber kommen müssen seitdem UE5 draußen ist.
Nicht in jedem, ich meinte dieses explizit.
Die UE 5 läuft auf den Radeons 5-10% besser, das ist nicht von der Hand zu weisen.
 
DoedelFIX schrieb:
Und wieder ein Team, was mit der UE5 Engine nicht umgehen kann. Einige Teams brauchen echt einen Grundkurs.
Nur weil eine 9070XT im Schnitt 5% (inkl. RT) vor einer 5080 liegt ?!? :freaky:
 
  • Gefällt mir
Reaktionen: Monarch2
Otsy schrieb:
Dazu müsstest du erst einmal verstehen, was der Wert überhaupt bedeutet
Wie gut, dass er seinen Post auch damit eingeleitet hat, dass er es nicht versteht 😂 glaube häufig wird das zu sehr als absolute Einheit für die Leistungsfähigkeit eines Chips betrachtet. Es ist eben nur in Indikator und eine Zahl von vielen.
 
  • Gefällt mir
Reaktionen: Otsy
habla2k schrieb:
Und? Hättest du vom bloßen anschauen der Bilder gewusst, dass es 720p ist? Nein? Na siehste :)
Hat was als würde dir im teuren Restaurant der Koch nach dem Essen sagen "und haste geschmeckt das gar kein echtes Vanille drin war sondern nur Geschmacksverstärker E123? Nein? Na also.
 
  • Gefällt mir
Reaktionen: EntelodonX, Balkoth, FLCL und 3 andere
Portal501 schrieb:
Was klar ist, ist das AMD im GPU Bereich gegen nvidia kein Land mehr sieht. Die werden auch nur noch Mittel klasse bringen.
Die 9070XT Midrange für ca. 650 € ist 5% schneller (inkl. RT) als eine über 50% (bis 100 %) teurere 5080 High End Karte für ca. 1050 € !
"Kein Land", ja ne, is klar wie Kloßbrühe ... :stock:
 

Anhänge

  • 9070XT für 610 €.jpg
    9070XT für 610 €.jpg
    240,1 KB · Aufrufe: 80
  • 5080 für 1230 €.jpg
    5080 für 1230 €.jpg
    308,9 KB · Aufrufe: 81
  • Bench TOW 2 RT.jpg
    Bench TOW 2 RT.jpg
    225,1 KB · Aufrufe: 83
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Monarch2
9t3ndo schrieb:
Hoffentlich bekommt Outerworlds 2 noch ein Engine Update spendiert. Anhand der Screenshots kann ich nämlich nicht erkennen, warum da so viel Leistung von Nöten ist.
Die Antwort ist wie bei Borderlands 4: Das Unreal Engine 5 Feature: Lumen

Das wird immer für alle Licht und Schatten sowie Spiegelungseffekte genutzt egal ob mit oder ohne Hardware Raytracing. Auf Standbildern ist der Unterschied von Lumen zur alten klassisch von Hand gebauten Beleuchtungsart nicht ersichtlich und auch die CB Vergleichsbilder helfen da nicht weil wenn die man die Hardware Unterstützung ausmacht dann werden die gleichen Effekte in Software von deiner GPU weiterhin berechnet nur nicht in der absolut gleichen Detail Qualität. Und das kostet so oder so reine 3D Leistung für die min/max FPS!




PS: Langsam glaube ich ich sollte den Text in einer Text Dateien speichern für einfaches Copy & Paste bei der Menge an Unreal Spielen die es gibt und vor allen in Zukunft alle mit Lumen geben wird... :rolleyes: ;)
Ergänzung ()

DoedelFIX schrieb:
Und wieder ein Team, was mit der UE5 Engine nicht umgehen kann. Einige Teams brauchen echt einen Grundkurs.
Das hat nichts mit können sondern damit zu tun das Lumen schlicht Rohe 3D Leistung für seine Funktion benötigt wenn es nicht eine (ausreichende je nach GPU Preis...oder überhaupt verbaute) Harware Raytracing Komponente in der Grafikkarte nutzen kann.

Lumen soll egal ob mit oder ohne Hardware Unterstützung die Arbeit für die Beleuchtung und Reflexionen den Programmierern abnehmen in dem er nur noch sagt wo eine Lichtquelle ist und den Rest erstellt Lumen und nicht das wie früher der Programmierer alles nun in Form von Lightmaps von Hand bauen muss. Das spart Zeit und Geld bei der Entwicklung kostet aber eben 3D Leistung der Grafikkarte wenn es nicht von der Hardware explizit eben mit Hardware Raytracing Einheiten (die auch in ausreichender Menge vorhanden sein müssen...) Unterstützt wird.
Das bedeutet schlicht das die Technische Entwicklung vorran schreitet und man dafür eben stärkere Hardware benötigt. Es wird nun wieder mehrere Generationen benötigen bis wir in JEDER Grafikkarte genug darauf spezialisierte Chips im Chip haben so das selbst die Einsteigerkarten ein Mindestmaß an Hardware Komponenten verbaut haben damit das nicht mehr ins Gewicht fällt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CMDCake
Wolfgang schrieb:
Naja, was heißt Trauerspiel.
DLSS 4 und FSR 4 sehen immer besser bis vergleichbar gut wie Nativ aus, es macht da halt auch gar keinen Sinn mehr, Nativ zu spielen. In The Outer Worlds 2 eben auch nicht.
Das bringt dir als RX 7000 Nutzer zwar nichts, aber nicht Nativ zu spielen ist halt eine gute Sache mittlerweile^^
DLSS und FSR4, also hochskaliertes 720p(?) sehen besser aus, als wenn man auf einem 1080p-Monitor in 1920x1080 spielt?
 
  • Gefällt mir
Reaktionen: SweetOhm und EntelodonX
Gamefaq schrieb:
........ Das spart Zeit und Geld....... Es wird nun wieder mehrere Generationen benötigen bis wir in JEDER Grafikkarte ........
Absolut!
Für uns Käufer spart eine günstige Entwicklung Geld, da es nicht gekauft wird und damit auch Zeit.

Der Fortschritt ist bei GPUs viel langsamer geworden, auch bietet die UE5 ab Version 5.6 eine bessere Performance!
Es wird einfach viel zu viel unnötiges berechnet.

BF6, kann man mögen oder nicht, zeigt wie es geht.
Ein passendes Produkt für eine breite Zielgruppe. Kein RT, kein Lumen, kein UE5.
 
  • Gefällt mir
Reaktionen: PrussianHeathen
Aduasen schrieb:
Mag ja alles sein.
Nur war für mich der erste Teil kein Triple A Spiel und dieser auch nicht.
Dafür ist mir dann der aufgerufene Preis deutlich zu hoch.
KEIN Titel ist in der Regel seinen Vollpreis wert. 😂

Als Spacer Choice Edition kam der erste Teil aber alle paar Monate für nen Zwanni in Aktion. Und das war er mehr als wert. Vollpreis zahlt man nur wenn man gierig ist und sonst gar keine Alternativen mehr in seiner Library hat. Selbst schuld dann.🤷‍♂️
 
  • Gefällt mir
Reaktionen: PrussianHeathen, Quidproquo77 und Aduasen
lol, 5090 mit 9800X3D @2160 und man braucht frame generation, um ordentlich zocken zu können :/
 
  • Gefällt mir
Reaktionen: jaleco, SweetOhm, KeinNutzerName und eine weitere Person
Kadett_Pirx schrieb:
DLSS und FSR4, also hochskaliertes 720p(?) sehen besser aus, als wenn man auf einem 1080p-Monitor in 1920x1080 spielt?
Auf einem 1080p Monitor brauchst du in der Regel gar kein Upscaling weil die Anforderungen so tief sind. Ausser du hast eine 1050 Ti im System. Das ist dann aber ein Anwender-Problem, kein technisches.
Ergänzung ()

Tobi& schrieb:
lol, 5090 mit 9800X3D @2160 und man braucht frame generation, um ordentlich zocken zu können :/
Man braucht auch FG mit einer 9070 XT. Hat mit einer 5090 nix zu tun sondern eher mit dem CPU Hunger der hier ja im Forum von allen möglichen Witzfiguren ständig verneint wird. Es gibt ja angeblich kein CPU Limit und nur dumme Leute kaufen moderne CPUs.:daumen:
 
  • Gefällt mir
Reaktionen: KeinNutzerName
Gamefaq schrieb:
Die Antwort ist wie bei Borderlands 4: Das Unreal Engine 5 Feature: Lumen
Das ist mir bewusst.
Deswegen ja ein Update auf UE 5.6.X oder später 5.7
In den Versionen wurde massiv an der Lumen Performance geschraubt und das Traversal Stutter soll fast weg sein.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna
Weiß nicht, aber irgendwie finde ich die Grafik für diese Anforderungen überhaupt nicht passend.
Sieht für mich eher so aus, als wäre das Spiel schon mindestens 10 Jahre oder älter.
Auch wenn es für viele nicht wichtig erscheint... für mich aber schon...die Sprachausgabe wieder nur eine Sprache. Unverständlich in der heutigen "KI-Zeit"!
 
  • Gefällt mir
Reaktionen: Celinna, CMDCake, Kuristina und 2 andere
Zurück
Oben