• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test The Outer Worlds 2: Benchmarks zeigen Hardware-Hunger und gute Frame Gen

Wolfgang schrieb:
Wann hast du zu Letzt Bioshock 1 gespielt?
Wieder mal ein mehr als nur komischer Vergleich...
omfydxcjt3u31-gigapixel-standard v2-2x.jpg


also mal ganz ehrlich - 18 jahre und 7000% mehr gpu performance (rtx 5090 vs gtx 8800).

jetzt alle aufstehen und applaudieren?
 
  • Gefällt mir
Reaktionen: metoer, Player49, EntelodonX und 13 andere
duskstalker schrieb:
also mal ganz ehrlich - 18 jahre und 7000% mehr gpu performance
Naja, die Jaggies fallen halt doch schon stark auf.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
was erwartest du bei einem originalscreenshot aus 2007 in 4:3 1024x768 vs 4k? also alleine schon, dass wir uns hier über die niedrigere auflösung unterhalten sagt schon alles.
 
  • Gefällt mir
Reaktionen: Celinna, akuji13, dersuperpro1337 und 3 andere
Ernüchternd.
Ich hole es mir, wenn es noch die Hälfte kostet. Bis dahin wird die Performance hoffentlich noch etwas besser.

Generell fände ich es toll, wenn manche Entwickler ihre eigene Engine bauen würden um dem UE5 Einheitsbrei etwas entgegenzusetzen. Ist aber unrealistisch, diese Zeiten sind wahrscheinlich endgültig vorbei.
 
  • Gefällt mir
Reaktionen: SweetOhm
Ich finde es jedesmal wieder erstaunlich, wie ungleichmäßig die Frametimes bei aktuellen Spielen sind. Grad mal wieder zum Vergleich einen alten SLI/Crossfire Test angesehen, damals waren die bösen "Mikroruckler" auch nicht wirklich schlimmer...
 
  • Gefällt mir
Reaktionen: Celinna
duskstalker schrieb:
was erwartest du bei einem originalscreenshot aus 2007 in 4:3 1024x768 vs 4k?
Das man sowas nich miteinander vergleicht. Es liegen fast zwei Dekaden zwischen den Bildern.
Auf der anderen Seite gebe ich dir vollkommen recht. Grafisch hat sich bis auf RT nicht wirklich viel getan. Es gab auch früher Spiele die verdammt gut aussahen. Aber das ist bei ToW noch mal was anderes weil das stilistisch zum Spiel gehört. Ich finde, das darf man ruhig etwas differenzierter betrachten.
 
  • Gefällt mir
Reaktionen: SweetOhm
Bobmarleyfaruk schrieb:
Fakt ist, das Spiel ist technisch ein Witz. Genau wie der Vorgänger
Das ist an der Stelle immer scher zu beurteilen, weil - mal wieder - viele vom Art-Style des Spieles auf die angeblich benötigte Leistung schließen, ohne zu verstehen, dass der Art-Style quasi keine Auswirkung auf die benötigte Leistung hat.

Man kann auch mit flachen Texturen und Low-Poly-Modellen ein Spiel entwickeln, das aufgrund von Beleuchtung, Reflexionen, Weitsicht und Objektvielfalt relativ viele Ressourcen benötigt.

The Outerworlds 2 - ebenso wie vorher Borderlands 4 - sind zwar vom Artstyle keine "realistischen" Spiele, es ist jedoch die Beleuchtung - hier auch die dynamischen Lichtquellen - und die allgemeine Objektdichte, die hier sehr viel Leistung kosten. Problematisch ist dabei die Flora in vielen Spielen.
 
  • Gefällt mir
Reaktionen: edenjung, TomH22, SweetOhm und 4 andere
Durch DLSS Performance rendert die GPU ja nicht einmal mit einer wesentlich anderen Auflösung als "damals" ^^
Das Problem ist doch einfach, dass die Optik nicht wirklich besser ist, die Anforderungen an die Hardware dafür absurd hoch sind. Das können andere Engines eben erheblich besser als die UE5.
 
  • Gefällt mir
Reaktionen: EntelodonX, E2K3, dersuperpro1337 und eine weitere Person
Dass man bei so einer Grafikgurke überhaupt solche Diskussionen führen muss, welche High End Grafikkarte nun mehr FPS liefert... das ist unglaublich. Das müsste auf 10+ Jahre alter HW flüssig laufen.
ich weiß ehrlich gesagt micht was mir dazu noch einfällt. Was die heutzutage abliefern ist bodenlos und grenzt an Frechheit.
 
  • Gefällt mir
Reaktionen: Dandy2k5, Pro_Bro, Celinna und 10 andere
DevPandi schrieb:
Problematisch ist dabei die Flora in vielen Spielen.
5.6 und Nanite sollten das in Zukunft regeln. Es ist eine stetige Entwicklung. Aber das verstehen manche leider nicht und wollen alles und noch viel mehr, und zwar am liebsten schon gestern.
 
Portal501 schrieb:
Verstehe nicht das AMD die Leistung niemals auf die Straße bekommt. Die 7900XTX hat 130 Teraflops,und kommt nicht mal gegen eine 5080 an mit 60 Teraflops. Die 9070XT hat auch gute 90 Teraflops und ist mit der 5070ti mit 45 Teraflops gleich auf.

Dazu müsstest du erst einmal verstehen, was der Wert überhaupt bedeutet. Und dann sähest du, dass er nur sehr rudimentär mit der Performance in Spielen zu tun hat.
 
  • Gefällt mir
Reaktionen: SweetOhm, Poati und coxon
ich bin empört was ich da lese. da fehlt doch ne 0 bei den benchmarks. das ist schon mehr scam als frechheit was da technisch abgeliefert wird.
Diese Ziele peilt die Konsole an:
  • Leistung: 60 fps, dynamische Auflösung
  • Ausgeglichen: 40 fps, 4K
  • Qualität: 30 fps, 4K

da müsste dann ja bei den konsolen ne 0 zu viel sein.
dazu noch bugs ohne ende (nicht übersetzte stellen, fehlende dialoge, kaputte haar/bart physik) inklusive kaputten quests selbst nach dayonepatch. (quelle: gamepro)
danke, nein danke! (und ich bin traurig, dass es so versaut wurde!)
 
  • Gefällt mir
Reaktionen: dersuperpro1337
Manegarm schrieb:
Dass man bei so einer Grafikgurke
Naja, stilistisch mag das sein (über Geschmack lässt sich streiten ;)), aber die UE5 sieht in Bewegung mit 120fps, egal ob nativ oder FG, teils schon wirklich beeindruckend aus.
 
Mimir schrieb:
Wo liest du da was von 120 ms? FPS mit Latenz verwechselt?

Und wenn du mit 3 ms spielst, dann ist dein Auslesetool schrott (auf sowas würde ich eh nicht vertrauen, latenzen muss man extern messen) oder deine Games laufen mit 1000 FPS. Selbst 20ms sind nur mit SEHR hohen Frameraten erreichbar.
ich? oder du 😀 viele verwechseln fps mit latenzen – aber das sind zwei ganz verschiedene dinge. fps (frames per second) gibt an, wie viele bilder pro sekunde dein system rendert. latenzen dagegen sind die zeit, die vergeht, bis dein tastendruck wirklich als aktion auf dem bildschirm sichtbar wird. das kann durch alles entstehen: maus, tastatur, usb-polling, treiber, grafikpipeline, display-processing und die reaktionszeit des panels selbst.


deswegen sind moderne gaming-monitore so auf niedrige ms-werte optimiert. 1 ms oder 3 ms bezieht sich auf die reaktionszeit der pixel – wie schnell sie ihre farbe ändern. input-lag (also die komplette kette von eingabe bis bild) liegt dann oft bei 5–20 ms bei guten setups. alles über 20 ms fühlt sich träge an, und bei 120 ms ist es, als würdest du über eine satellitenverbindung aus den 90ern zocken.


klar, viele tools messen das ungenau – deswegen machen pros externe messungen mit highspeed-kameras oder nvidia ldat. aber fakt ist: niedrige latenzen sind entscheidend, wenn du präzise zocken willst. bei 120 ms kannst du noch so viel skill haben – dein signal kommt einfach zu spät an. 😅 und das sind nicht die einzigen effekte die sich negativ auf das spielerlebnis auswirken
 
lWllMl schrieb:
deswegen sind moderne gaming-monitore so auf niedrige ms-werte optimiert. 1 ms oder 3 ms bezieht sich auf die reaktionszeit der pixel – wie schnell sie ihre farbe ändern. input-lag (also die komplette kette von eingabe bis bild) liegt dann oft bei 5–20 ms bei guten setups. alles über 20 ms fühlt sich träge an, und bei 120 ms ist es, als würdest du über eine satellitenverbindung aus den 90ern zocken.
Glaub mir, 10 ms wirst du vom Input bis zum Output quasi nie haben, sondern meistens deutlich mehr. 5 sind völlig unrealistisch. Wie schnell die Pixel in einem Monitor schalten können ist ja schön und gut, da hängt aber noch eine ganze Menge mehr dran. 20 ms für die gesamte Kette ist schon ein sehr guter Wert, den gibt es aber nur mit High-End-Hardware und dann in einem auf Latenz optimierten Spiel inklusive System. 40 ms in einem normalen Gaming-Szenario ist schon gar nicht so übel.
 
  • Gefällt mir
Reaktionen: Alphanerd, Monarch2, ElliotAlderson und eine weitere Person
lWllMl schrieb:

Du brauchst mir nicht erklären was Latenzen sind, deinen kompletten Text hättest du dir schenken können.

Zumal deine 3-20ms weiterhin völlig unrealistisch sind. Aber das hat dir Wolfgang ja gerade auch schon erklärt.

Trotzdem nochmal die Frage, weil du nicht drauf eingehst: Wo siehst du im Benchmark hier 120 ms Latenz?
 
danyundsahne schrieb:
Ist das nicht genau das Thema, dass AMD im allgmeinen im CPU Limit etwas besser als NV ist? ;)
Nein, weil du immer nur dann darauf anspringst wenn die Radeon in niedrigen Auflösungen schneller ist.
Wenn es umgekehrt ist, nimmst du davon keine Notiz.
danyundsahne schrieb:
Gabs schon genug Diskussionen hier im Forum, aber glaube noch nie eine richtige Untersuchung von euch dazu?
Es gab x Untersuchungen und man hat keine gefunden außer cherrypicking von ein paar Directx12 Spielen als Ampere rausgekommen ist. Die ganzen Directx11 Titel liefen hingegen auf Nvidia GPUs deutlich besser im CPU Limit und heute gibt es davon keine aussagekräftigen Belege, außer dass eben Intel GPUs deutlich schlechter mit der CPU skalieren.
TheInvisible schrieb:
Und ne, UE5 war nie Vorzeigeengine für NV, das galt noch für UE4. Bei UE5 scheint es so als hätte man voll auf AMD optimiert (Konsolen), sieht man auch immer an der geringen Watt Auslastung der Geforces
Bei der UE5 sind 9070XT und 5070Ti eher 1:1 gleich schnell, bei anderen Engines ist die 5070Ti meist etwas schneller. Hier dürfte aber eher ein Auslastungsproblem vorliegen und ein weiterer Treiber Linderung verschaffen.

Am Ende ist es aber sowieso wieder egal, weil die Radeon mit einer sehr schlechten Latenz daherkommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mimir
Wolfgang schrieb:
Wenn FSR 4 Light wirklich offiziell für RX 7000 kommt dann hat die Generation ein noch längeres Leben. Aber wenn nicht ist es sicherlich einer der aktuellen GPU-Generationen, die das kürzeste Leben haben. Old Wine diesmal.
Selbst wenn es jetzt noch kommt, hat RDNA 3 jetzt schon so lange unterdurchschnittliche Qualität bei vergleichbarer Performance geliefert, dass es AMD geschadet haben müsste. Klar, es gab sowieso schon verhältnismäßig wenige Käufer, aber diese Gruppe wird ihre nächste Kaufentscheidung möglicherweise beeinflusst sehen.

Zwar bin ich an sich durchaus zufrieden mit der Karte, die Erfahrung war bisher schon angemessen. Die Alterungskurve ist aber brutal. Eine RTX 4080 Super wäre der sehr viel bessere Kauf gewesen, das muss ich frei von Cope zugestehen :D
Ich würde für den nächsten Kauf gern bei "Team Rot" bleiben, weil Nvidias Marktdominanz dem Kunden nur schadet. Aber sie machen es einem wirklich gezielt schwer, das zu tun. Und daher werde ich das möglicherweise dann doch nicht tun können ... Ironie des Zielkonflikts Markt gegen Konsument :D
Jedenfalls ist es eine extrem schlechte Idee von AMD gewesen, seine sowieso schon kleinere Zielgruppe durch Feature-Verweigerung noch weiter zu dezimieren. Was Modder können, kann der Hersteller ganz sicher. Er müsste nur wollen :)

Was den Rest angeht, naja ... selbst wenn das beste Upsampling (denn bei FSR3.1 trifft das so definitiv selten nicht zu) besser aussieht als nativ oder bei vergleichbarer Optik mehr Leistung bringt, spricht das nicht grundsätzlich dagegen, die native Leistung besser zu optimieren. Dass nur Upsampling spielbar ist, ist meiner Meinung nach nichts positives, denn wenn man es abschalten möchte, hat man diese Wahl effektiv nicht mehr.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Wieder gerade so an der Kotzgrenze mit 60.2 FPS, aber immerhin mal besser als 5060TI und 7800XT :smokin:
 
  • Gefällt mir
Reaktionen: SweetOhm
Mimir schrieb:
Lol, und schon startet wieder der AMD Circeljerk wenn die Nvidia Karten mal ein paar Prozent langsamer sind als sonst. :daumen:
Bei Frontier, Battlefield, Silent Hill F, Jurassic World, Dying Light, Lost Soul Aside und Anno Pax Romana gabs den nicht.
Das ist halt der 33% Cope wie bei der 7900XTX auch und am Ende bringt es dann 2-3% in den Ratings gegenüber dem Launch Test.
Mimir schrieb:
Großes Kino. Und trotzdem kaufen die Leute Nvidia. MFG und Reflex sind halt dann doch features die viele gerne nutzen wollen, sonst könnte Nvidia nicht so viel mehr Geld dafür verlangen.
Ja, ist halt schon echt hart, wenn man entweder kein FSR4 nutzen kann, weil die Entwickler zu faul waren, oder Reflex/MFG rausfällt. Besonders bei Chronos hat mich das auf der 9060XT gestört. Die Latenz war extrem.
Mimir schrieb:
Also man kann ja davon halten was man will, aber vergleichbar ist das halt nicht mehr.
Das sind Pflichtfeatures die drin sein müssen. Ohne die ist die Radeon auch einfach viel weniger wert, auch wenn die FPS in dem Titel echt gut sind. Mal sehen ob Treiber da noch etwas richten.

Bei PCGH ist zumindest die 5070TI mit der 9070XT in 4K etwa gleichauf.

Unbenannt.PNG
 
Zurück
Oben