• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Senua's Saga: Hellblade II im Test: Neue GPU-Benchmarks mit dem Enhanced-Patch

DriveByFM schrieb:
Wow die 9070XT hat die 5080 rasiert. :D
passiert in letzter Zeit immer wieder mal, dass man hier sehr eng beieinander liegt ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alphanerd, zeedy und GrenSo
duskstalker schrieb:
die presse macht sich mit dem konfusen upscaling gebenche mit unterschiedlichen upscalingfaktoren zum marketing spielball der industrie
Ja, aber was willst du machen wenn Spiele das irgendwann vorraussetzen und die native Auflösung gar nicht mehr anwählbar ist. Dann gibt es eben eine neue Ära, in der wieder mehr über Bildqualität geredet wird.
War früher mit der unterschiedlichen Qualität der Anisotropen Filter und der ein oder anderen Glättungsmethode auch so.
 
  • Gefällt mir
Reaktionen: HageBen, Redundanz, Deinorius und eine weitere Person
FrozenPie schrieb:
Je mehr Benchmarks ich zur aktuellen GPU Generation sehe, desto mehr trauere ich einer um 50% aufskalierten RX 9080 (XT) als direkter Nachfolger der 7900 XT(X) hinterher, da die NVidias RTX 5080/5090 echt das Leben schwer gemacht hätte.
Ja, das wäre echt ne Nummer gewesen. Aber AMD hat wohl gedacht, mit einer 5080 aufwärts hätte man nicht bestehen können. Hätten sie mal gewusst wie überschaubar klein der Performancesprunghüpfer von Blackwell wird, hätte es AMD vielleicht sogar tatsächlich in Erwägung ziehen können.
FrozenPie schrieb:
GPUCUs (Shader)InterfaceMemoryTDP
RX 9080 XT96 (6144)384 Bit24 GB450 W
RX 908080 (5120)320 Bit20 GB375 W

Okay, ich höre auf zu träumen...
Ja solche Karten hätten tatsächlich in der Liga von 5080/5090 spielen können. Zumindest hätte man die alte 4090 sicher schlagen können. Wäre ein toller Achtungserfolg geworden.

Jetzt warten wir auf RDNA5/UDNA und dann hoffen auf einen ordentlichen High End Schlagabtausch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Michael vdMaas, Wanderwisser und Floppes
xexex schrieb:
Nicht falsch verstehen, aber solche Kombinationen mit mit Dritttools und völlig verschiedenen Skalierungssettings, geben nicht zwingend die Fakten wieder. Im Zweifel einfach die Rohleistung vergleichen, sich irgendwas mit Optiscaler zusammen zu fummeln, ist für mich eher ein Vergleich zwischen Apfel, Birne und Banane.
Wie ich schon geschrieben habe, die Abstände sind mit TSR absolut gleich. DLSS 4 und FSR 4 kosten gleich viel Performance, darum sind die GeForce-Karten hier nicht so langsam. Darum gibt es hier auch keine Zweifel. Die Ergebnisse sind so, wie sie in der Testsequenz einfach sind.
 
  • Gefällt mir
Reaktionen: bullit1, Maxysch, Redundanz und 4 andere
duskstalker schrieb:
nur benches in nativer auflösung zeigen die reale rohleistung. upscaling ist nur ein feature.

die presse macht sich mit dem konfusen upscaling gebenche mit unterschiedlichen upscalingfaktoren zum marketing spielball der industrie, weil für eine wirkliche vergleichbarkeit dann nicht mehr objektiv messbare performance sondern schwer quantifizierbare "bildqualität" als maßstab herangezogen wird, und was unter der haube passiert, kann niemand mehr nachvollziehen.
Die reine Rohleistung interessiert einen nur nicht mehr, wenn es nicht mehr sinnvoll ist, in entsprechenden Modi zu spielen. Und so weit sind wir eben spätestens mit DLSS 4 und FSR 4 gekommen. Jetzt kann man zwangsweise daran festhalten (weil man es ja immer so getan hat) oder man passt sich an. Letzteres ist schwierig und sicherlich manchmal holprig. Aber es ist nun einmal die Gegenwart und vor allem die Zukunft. "Rohleistung", also TAA, ist die Vergangenheit. Und Nativ ist es auch.

Eine 100 prozentige Vergleichbarkeit ist aktuell einfach nicht mehr möglich und imo auch nicht sinnvoll. Was hat man davon, wenn man dafür auf eine Art und Weise testen muss, die nicht nur die meisten nicht mehr nutzen, sondern die auch Qualitativ oft schlechter sind als die Alternativen (TAA Native vs. DLSS4/FSR4). 100 Prozentige Vergleichbarkeit ist daher in meinen Augen aktuell einfach nicht mehr sinnvoll. Stattdessen sollte eine vergleichbare Qualität gesucht werden und danach getestet werden. Das ist schlussendlich das, was der Spieler nutzt.
 
  • Gefällt mir
Reaktionen: bullit1, Pro_Bro, Maxysch und 15 andere
Ich hoffe, Nvidia bringt mit der nächsten Generation MFG 32-fach raus.(Edit: und überspringt damit gleich 8 und 16fach) ;)
 
  • Gefällt mir
Reaktionen: Redundanz und Alphanerd
DriveByFM schrieb:
Wow die 9070XT hat die 5080 rasiert. :D
Ich sag immer wieder kauft euch die 9070/xt. Aber nein die Leute kaufen NVIDIA 😂 kannst es einfach nicht gut meinen… zu blöd!
 
  • Gefällt mir
Reaktionen: Redundanz und danyundsahne
danyundsahne schrieb:
passiert in letzter immer wieder mal, dass man hier sehr eng beieinander liegt ;)
Häufiger als gedacht. Ich bin die letzten 10 getesteten Spiele durchgerechnet und im Mittel liegt die 9070XT exakt auf dem Niveau der 5070Ti und "nur" noch 14% hinter der 5080.
Eine 5070 Ti kostet momentan 779 Euro, die 9070XT ist tatsächlich ab 629 erhältlich.

Das sind satte 150 Euro Aufpreis. Das ist es kaum noch wert.
Bei dem Preisunterschied sollte der Absatz für die Radeons dann auch deutlicher nach oben gehen.
ChrisMK72 schrieb:
Ich hoffe, Nvidia bringt mit der nächsten Generation MFG 32-fach raus.(Edit: und überspringt damit gleich 8 und 16fach)
Tatsächlich erhoffe ich mir das. Reflex 2 in Kombination 8x MFG oder so.
kristwi schrieb:
Ich sag immer wieder kauft euch die 9070/xt. Aber nein die Leute kaufen NVIDIA 😂 kannst es einfach nicht gut meinen… zu blöd!
Und am Ende ist die 5070 Ti dann doch wieder langfristig schneller. Spekulation aber. Erinnert ein wenig an die 7900XTX, die war erst auf 4080 Niveau und dann je nach Test 5% oder auch bisschen mehr schneller. Nun hat sich das wieder eher umgekehrt, vor allem durch das Upsampling. Na mal schauen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
Naja, man sieht hier aber auch sobald "Hellblade 2 Enhanced, Frame Generation – 3.840 × 2.160" auf Seite 2/3.

Da Nvidia´s RTX 50er Karten den Multframegeneration Modus dazu schlaten sieht AMD keine Sonne mehr, genauso die RTX 4000er reihe.

Die Blackwell Karten Sind Multframenerations Karten, Punkt.

Ich nutze es bei meiner RTX 5000er Karte auch bei Cyberpunk 2077,
und ist so erheblich schneller als meine alte RTX 4000er Karte.

Sobald später das KI rendern dazu kommt,
womit die Blackwellkarten ja beworben wurde,.

Steht AMD sowieo wieder im hinten an :)

Ja es gibt "

Lossless Scaling​

" auf Steam für 7 Euro der Fast< das selbe kann wie Nvidia´s Multiframegeneration.
Das ist Top so muss man sich nicht unbedingt ne neue Karte kaufen, läuft auf AMD und sogar auf GTX karten wenn das korrekt ist.

https://store.steampowered.com/app/993090/Lossless_Scaling/



 
Zuletzt bearbeitet:
Warum ist keine 4070 Super mit dabei?

Hat hier Nvidia doch ihre Finger im Spiel und möchte nicht, dass man sieht, dass die 4070s schneller ist?

Immerhin wird bei der 4080 auch die Super genommen.
 
  • Gefällt mir
Reaktionen: fineline
Wolfgang schrieb:
Die Ergebnisse sind so, wie sie in der Testsequenz einfach sind.
Da darf man sich natürlich die Frage stellen wer hier die "falsche" Testsequenz verwendet hat, du oder PCGH oder alle beide.

Wolfgang schrieb:
Die reine Rohleistung interessiert einen nur nicht mehr, wenn es nicht mehr sinnvoll ist, in entsprechenden Modi zu spielen. Und so weit sind wir eben spätestens mit DLSS 4 und FSR 4 gekommen.
Auch wenn ich dir hier zustimmen mag, so macht es die ganzen Benchmarks zu einem subjektiven Ergebnis, denn alleine der Tester entscheidet, was am Ende von der Bildqualität gleichwertig ist und setzt die entsprechenden Settings.

Hat man vor Jahren angefangen einen Bogen um Testsuites zu machen und nutzt keine eingebauten Benchmarkfunktionen mehr in Spielen, damit die Hersteller ihre Treiber nicht dahingehend optimieren können, hat man mit den ganzen Softwarefeatures nun genau das, die Spielwiese für "Optimierungen".

Über Monate hinweg hast auch du, Tests mit DLSS gegen FSR in der gleichen "Qualitätsstufe" gemacht, im Nachhinein sind die praktische allesamt Makulatur, weil du selbst mittlerweile festgestellt hast, dass es große Unterschiede im Ergebnis gibt. Die gab es auch schon bevor DLSS4 auf den Markt kam, aber da bist du nur im Text drauf eigegangen, wenn sie dir überhaupt aufgefallen sind.

Dein geschultes Auge in allen Ehren, alleine aus dem Kameratest wissen wir recht gut, dass es bei 100 Leuten mindestens 20 unterschiedliche Meinungen gibt. Ohne deine Arbeit abwerten zu wollen, es ist mittlerweile eine Farce es den Herstellern zu überlassen, was sie als Qualität, Leistung oder Ausbalanciert deklarieren und welche Details sie unter der Haube weglassen, um ihr Produkt besser oder gleich, wie das der Konkurrenz zu platzieren.
 
  • Gefällt mir
Reaktionen: MalWiederIch, Copium, Uthleber und 4 andere
firesnake schrieb:
Da Nvidia´s RTX 50er Karten den Multframegeneration Modus dazu schlaten sieht AMD keine Sonne mehr, genauso die RTX 4000er reihe.

Die Blackwell Karten Sind Multframenerations Karten, Punkt.
Zum Glück gibt es dank MFG deutliche Leistungssteigerungen und viel mehr FPS. 👍 ;)
 
  • Gefällt mir
Reaktionen: Redundanz und firesnake
@ChrisMK72 Einen Test mit einer RTX 5070 TI mit MFG x3 Vs AMD RX 9070 XT mit "Lossless Scaling x3" den Test würde ich gerne mal sehen ;) oder?
 
  • Gefällt mir
Reaktionen: Quidproquo77
Hab grad keine Zeit mehr. Muss Kaffee kochen. ☕ :D
 
Zuletzt bearbeitet: (FippTehler/autokorrektur)
Wolfgang schrieb:
Die reine Rohleistung interessiert einen nur nicht mehr, wenn es nicht mehr sinnvoll ist, in entsprechenden Modi zu spielen.
Ich würde da durchaus differenzieren, welches Ziel der jeweilige Test hat. Bei einem Hardwaretest soll schlicht aufgezeigt werden, wie sich die einzelnen Karten objektiv zueinander positionieren und nicht, welche sich wie gut in "spielbaren" Settings schlägt. Entsprechend gehört da auch kein Upscaling mit rein, weil dessen Qualität von Jedem anders eingestuft wird und der Test dadurch keine rein objektive Aussage mehr trifft.

Das Upscaling kann man in Test-Artikeln mit reinnehmen, in dem es um Benchmarks zu einem bestimmten Spiel geht. Denn dort geht es im Gegensatz zum Hardwaretest ja dann darum, mit welcher Karte man dieses Spiel wie gut spielen kann bzw. ab welcher Upscaling-Stufe man bpsw. auf > 60 FPS kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll, MalWiederIch, HageBen und 2 andere
Oha, der dritte Test in wenigen Tagen, an denen eine 9060 XT eine 5060 Ti rasiert und der zweite in denen die 9070 auftrumpfen. Faszinierend, was sich da tut.
 
  • Gefällt mir
Reaktionen: kristwi, Redundanz und Alphanerd
xexex schrieb:
Da darf man sich natürlich die Frage stellen wer hier die "falsche" Testsequenz verwendet hat, du oder PCGH oder alle beide.


Über Monate hinweg hast auch du, Tests mit DLSS gegen FSR in der gleichen "Qualitätsstufe" gemacht, im Nachhinein sind die praktische allesamt Makulatur, weil du selbst mittlerweile festgestellt hast, dass es große Unterschiede im Ergebnis gibt. Die gab es auch schon bevor DLSS4 auf den Markt kam, aber da bist du nur im Text drauf eigegangen, wenn sie dir überhaupt aufgefallen sind.

Dein geschultes Auge in allen Ehren, alleine aus dem Kameratest wissen wir recht gut, dass es bei 100 Leuten mindestens 20 unterschiedliche Meinungen gibt. Ohne deine Arbeit abwerten zu wollen, es ist mittlerweile eine Farce es den Herstellern zu überlassen, was sie als Qualität, Leistung oder Ausbalanciert deklarieren und welche Details sie unter der Haube weglassen, um ihr Produkt besser oder gleich, wie das der Konkurrenz zu platzieren.
Naja, was heißt "falsche Testsequenz". Ich weiß was du meinst, aber falsch ist ja keine. Beide zeigen, wie schnell die Grafikkarten in eben genau jenen Szenen sind. Das heißt dann eben nicht, dass die Karten auch nur irgendwo anders nochmal so agieren, auch wenn dies optimalerweise so ist. Aber wie will man das rausfinden? Man kann nicht eine Radeon und eine GeForce durch das ganze Spiel jagen und da die Performance vergleichen. Die Limitierung haben eben sämtliche Benchmarks von Spielen. Nicht nur unsere und die der PCGH, sondern schlicht alle.

Zu deinen restlichen Punkten: Auch die verstehe ich, sehe die aber anders:
Eine Bewertung von Bildqualität in Spielen ist immer subjektiv, das ist richtig. Aber wenn eben alle Hersteller ihre eigene Software-Suite mitbringen und diese auf entscheidende Features wie DLSS und FSR setzen, die Vorteile gegenüber dem "einheitlichen Standard" bringen, dann ist die Bildqualität eben auch ein Teil der Benchmarks. Es kommt quasi eine weitere, wechselbare Variable hinzu.

Und natürlich, hier entscheidet dann der Tester, wie er testet. Das müssen eben alle erst einmal rausfinden und das ist genau ein Punkt, in dem aktuell alle Tester arbeiten. Und wenn sie es jetzt nicht tun, werden sie es in Zukunft tun. Das ist aktuell quasi "Pionierarbeit", die ich selbst aber als essentiell für korrekte Benchmarks halte. Denn ich war noch nie einer, der theoretische Benchmarks toll findet, sondern immer einer, der praxisorientierte Benchmarks will (in dem Fall mit dem praxisnahen DLSS/FSR). Dass das dann nicht immer identisch ist, liegt in der Natur der Sache. Darum ist es mein Ziel, es eben so sinnvoll vergleichbar wie möglich zu machen, ohne den realitätsnahen Ansatz zu verlieren.

Und diese Punkte (DLSS/FSR) halte ich auch nicht für "optimieren" im Sinne von Schummeln, so wie es früher gewesen ist oder so wie es bei integrierten Benchmarks sein kann. Es ist die neue Variable, mit der Hersteller arbeiten können, um sich abseits der Rechenleistung noch von der Konkurrenz absetzen zu können. Sie können die Bildqualität optimieren, sodass bei vergleichbarer Bildqualität mehr auf geringere Auflösungen gesetzt werden kann. Oder sie optimieren die Performance, sodass die Algorithmen schneller werden. Beides halte ich für gerechtfertigte, gute Optimierungen, nicht für eine schlechte Optimierung.

"Früher" haben wir mit den gleichen Performance-Modi getestet, weil zum Beispiel die qualitativen Unterschiede zwar schon gut sichtbar, mit FSR 3 vs. DLSS 3 aber kleiner waren als mit FSR 3 vs. DLSS 4, wo ich das dann einfach nicht mehr ignorieren konnte. Hinzu kommt, dass das hier eben wie gesagt quasi Pionierarbeit ist. Da muss man sich für Schritte erst einmal entscheiden und diese dann durchführen. Es ist gar nicht so einfach sich von etwas zu verabschieden, was man quasi das ganze Berufsleben gemacht hat. Weil es damals richtig gewesen ist, heute aus meiner Sicht aber eben nicht mehr. Das dauert einfach alles.

Und wenn ich verschiedene Modi setze (FSR 3 Perf vs. DLSS 4 Quality zum Beispiel) ist das natürlich eine subjektive Entscheidung, die ich vor dem Test treffe. Aber es ist ja kein Ziel, eine absolute Vergleichbarkeit zu schaffen, das geht eben nunmal nicht. Das Ziel ist es, faire Benchmarks zu erstellen (sodass man sich nicht durch einen schlechten Algorithmus bessere FPS-Werte bei schlechterer Qualität erkaufen kann), die möglichst vergleichbar sind. Da kann man mir nun trauen, dass das halbwegs sinnvoll ist oder eben nicht. Das muss jeder für sich entscheiden. Ich kann nur argumentieren, warum ich das tue was ich tue. Und warum es eben keine Lösung ist, so weiter zu machen wie man es Jahre lang gemacht hat. Das sind meiner Meinung nach einfach keine guten Benchmarks mehr, wenn man realitätsnahe Ergebnisse haben möchte.
 
  • Gefällt mir
Reaktionen: Pro_Bro, Maxysch, derfreak und 11 andere
Wolfgang schrieb:
Naja, was heißt "falsche Testsequenz". Ich weiß was du meinst, aber falsch ist ja keine. Beide zeigen, wie schnell die Grafikkarten in eben genau jenen Szenen sind.
Es wäre zur Einordnung aber extrem hilfreich, ob eure Testszene nur einen Worstcase abbildet oder ob es für die meisten Zeit des Spiels repräsentativ ist. Genauso die Szene bei PCGH, die die Karten eher in der gewohnten Reihenfolge zeigt.

Ich kann den Aufwand dafür jetzt nicht beziffern, aber grundsätzlich wäre diese Einordnung imho eben extrem hilfreich.
 
  • Gefällt mir
Reaktionen: xexex
ChrisMK72 schrieb:
Ich hoffe, Nvidia bringt mit der nächsten Generation MFG 32-fach raus.(Edit: und überspringt damit gleich 8 und 16fach) ;)
Mir würde echte Mehrleistung besser gefallen, denn von MFG profitieren nur Games und auch nur die, die es unterstützen. Abseits davon ist die Mehrleistung minimal. Zum Glück kommt mit den nächsten Modellen ein ordentlicher Shrink was wieder reale Mehrleistung in Aussicht stellt.
 
  • Gefällt mir
Reaktionen: Redundanz und ChrisMK72
Wo bleibt eigentlich die Aufregung, dass große Studios immer noch Spiele ohne FSR3.1 veröffentlichen? Man regt sich ja sonst gerne darüber auf, dass das FSR4 SDK noch nicht da ist. Das FidelityFX 1.1 SDK, das FSR3.1 enthält, wurde im Juli 2024 veröffentlicht, wie kann es also sein, dass ein Cyberpunk das Update ein ganzes Jahr später erhält, oder dass ein Enhanced Patch es nicht enthält obwohl DLSS4 samt MFG jetzt dabei sind? 🙄
 
  • Gefällt mir
Reaktionen: E2K3, Maxysch, Deinorius und 4 andere
Zurück
Oben