• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Senua's Saga: Hellblade II im Test: Neue GPU-Benchmarks mit dem Enhanced-Patch

Ripcord schrieb:
echte Mehrleistung besser gefallen
Mir auch. :D

Das mit der "Leistungssteigerung" durch MFG war ja auch nur ein Scherz.

Leistungssteigerung gleich SCHERZ.jpg

Es sind sowohl mit, als auch ohne MFG, Bild 1 und 2.
Nur bei MFG einige Bilder (je nach Faktor) dazwischen. Leistungssteigerung = Null. :)

Darauf hatte ich nur angespielt.
 
  • Gefällt mir
Reaktionen: Redundanz und Alphanerd
Kiss Of Death schrieb:
Bitte um - neutrale - Antwort: 5060ti 16GB oder RX 9060 XT 16GB?
Komischer Thread um danach zu fragen ^^ Wenn du einen 7800X3D oder besser hast, Cuda brauchst und Cuda dir den Aufpreis wert ist, dann 5060Tei, ansonsten hat eine 9060XT einfach das bessere Preis-Leistungsverhältnis.
 
  • Gefällt mir
Reaktionen: Alphanerd
Ich hab zwar was übrig für Grafik Blender, aber der Title lässt mich einfach völlig kalt. Teil 1 war eine coole Erfahrung, aber eine Fortsetzung mit noch weniger Gameplay, hätte es echt ned gebraucht. Ne danke!
 
Ostfriese schrieb:
Das Spiel ist mir unbekannt.
Lohnt es sich denn?
Sieht gut aus, ja.

Mit Mad Max damals vor ca. zehn Jahren war ich auch für so 30 bis 40 Stunden zufrieden, nur so zur Einordnung und weil es mich ein wenig daran erinnert.
Wenn du auf krass inszenierte und intensive Storys mit bedrückender Atmosphäre stehst, bei denen spielerisch jetzt aber nicht allzu viel außer ein paar Rätseln und Kämpfen geboten wird, dann ja. Du solltest aber auf jeden fall vorher Teil 1 spielen (der nachwievor richtig gut aussieht). Glaube beide Teile sind auch im Gamepass.

Mich haben die Games total beeindruckt und es ist selten, dass ich mich bei so kurzen Spielen an so viel erinnern kann. Echt besondere Spiele. Aber tatsächlich jeweils recht kurz.
 
  • Gefällt mir
Reaktionen: Ostfriese, Fyrex, Redundanz und 2 andere
@Wanderwisser
Sind die Kämpfe alle in Echtzeit? Und ist generell sehr actionlastig oder eher storylastig?
 
Zuletzt bearbeitet:
DriveByFM schrieb:
Wow die 9070XT hat die 5080 rasiert. :D
Und was ist mit den zehntausenden Spielen bei denen es umgekehrt ist? Manche Kommentare muss man nicht verstehen...
 
  • Gefällt mir
Reaktionen: MalWiederIch
Ich kann nur von Teil 1 sprechen, denke beim 2. ist es ähnlich.
Serandi.87 schrieb:
Sind die Kämpfe alle in Echtzeit?
Ja.
Serandi.87 schrieb:
Und ist generell sehr actionlastig oder eher storylastig?
Eher storylastig mit Fokus auf Umgebungsrätseln. Kämpfe werden hin und wieder eingestreut, diese gestalten sich dann aber äußerst intensiv. Gab auch eine Handvoll gut gemachte Bosskämpfe im ersten Teil.
 
  • Gefällt mir
Reaktionen: Serandi.87
Die Sehr Hohen Details kann man sich aber wirklich schenken. Selten so ein sinnfreies Upgrade gesehen.
 
  • Gefällt mir
Reaktionen: Serandi.87
Wolfgang schrieb:
Die reine Rohleistung interessiert einen nur nicht mehr, wenn es nicht mehr sinnvoll ist, in entsprechenden Modi zu spielen.

doch, die rohleistung interessiert, weil die letztendlich immer noch bestimmt, wie gut die basis-performance pre upscaling ist.

am ende des tages ist upscaling einfach nur eine reduzierte render-auflösung mit komplexerer interpolation fürs upscaling.

der knackpunkt an der geschichte ist das narrativ der industrie aufzugreifen - hier wird der bock zum gärtner gemacht, weil auf einmal birnen äpfel sind.

das verwässert einfach sämtliche ergebnisse und macht diese im wesentlichen unvergleichbar und völlig bezugslos.

wir sind an einem punkt angekommen, wo "4k 120fps" einfach mal "wqhd 30fps" bedeuten können - was für ein irrsinn.

mir geht es darum diesem unfug einen riegel vorzuschieben und das kind beim namen zu nennen.

die 9070XT ist ein 64CU 360mm² midrange chip für 650€, die 5080 ist ein 380mm² midrange chip für 1100€. die 7800XT war ebenfalls ein 60CU 350mm² midrange chip mit 16gb vram, nur war die noch 100€ günstiger. ist das jetzt der technische fortschritt? nächste generation dann 370mm² 68 CU midrange chip für 750€?

hier gehts in erster linie darum den kunden weniger silizium für mehr geld verkaufen zu können, indem man die karten versucht künstlich performanter darzustellen, als sie tatsächlich sind. die realen leistungszuwächse und die native performance in aktuellen spielen, vorallem unoptimierter UE5, sind nämlich nichts anderes als erbärmlich.

am ende des tages bekommen wir nur weniger chipfläche mit weniger rohleistung für mehr geld, was hinterher über upscaling und framegeneration billig kompensiert wird.

Wolfgang schrieb:
Und so weit sind wir eben spätestens mit DLSS 4 und FSR 4 gekommen.

und was ist wenn dlss5 und fsr5 die renderauflösung weiter absenken, damit die fps balken länger werden, aber die bildqualität gleichzeitig den bach runter geht? immer noch wie jetzt ein einem graphen, während man so tut, als wäre alles gleichwertig? würde man sich dann nicht wünschen, man hätte sich nicht leichtsinnig von nvidias, amds und intels marketing abhängig gemacht und hätte eine robuste methode um weiterhin neutral und vergleichbar die rohleistung der karten ermitteln und darstellen zu können?

Wolfgang schrieb:
Jetzt kann man zwangsweise daran festhalten (weil man es ja immer so getan hat) oder man passt sich an. Letzteres ist schwierig und sicherlich manchmal holprig. Aber es ist nun einmal die Gegenwart und vor allem die Zukunft. "Rohleistung", also TAA, ist die Vergangenheit. Und Nativ ist es auch.

ich sehe nicht, wie gemischte benchmarks mit diversen upscaling technologien und unterschiedlichen upscaling faktoren bessere daten ausspucken als einheitlich universell vergleichbares natives rendering. die user können ja dann immer noch upscaling dazuschalten - aber das sollte nicht die basis sein.

wir hatten bei einem spiel aus dem asiatischen raum neulich den fall, dass ein "performance" update einfach nur die interne renderauflösung reduziert hat - wollen wir da hin? soll das die gängige praxis sein?

Wolfgang schrieb:
Eine 100 prozentige Vergleichbarkeit ist aktuell einfach nicht mehr möglich und imo auch nicht sinnvoll.

doch, mit nativem rendering geht das. und warum das nicht sinnvoll sein soll, erschließt sich mir nicht.

das ganze wird mit upscaling noch komplizierter, weil nvidia nicht immer mit dlss, amd nicht immer mit fsr und intel nicht immer mit xess genutzt wird. xess ist oft besser als fsr2/3, in manchen spielen gibt es nur fsr oder dlss funktioniert nicht richtig und dann müssen nvidia nutzer auch ausweichen (neuestes beispiel ist BF6 beta, hier war dlss buggy).

mit tests via nativer auflösung kann man ganz entspannt die karte mit der besten rohleistung pro € nehmen und beim upscaling entsprechend selbst wählen.

und upscaling ist auch nicht das alpha und omega - wenn man jetzt bspw. mal richtung oversampling bzw. DLAA geht, ist es sehr wohl wichtig zu wissen, wie die performance bei 4k nativ ist - eine interne 1440p renderauflösung hat nichts mit der realen grafik und vram-last bei echtem 4k oder 5k zu tun.

Wolfgang schrieb:
Was hat man davon, wenn man dafür auf eine Art und Weise testen muss, die nicht nur die meisten nicht mehr nutzen, sondern die auch Qualitativ oft schlechter sind als die Alternativen (TAA Native vs. DLSS4/FSR4).

man kann die karten anhand ihrer tatsächlichen leistung vergleichen und verlässt sich nicht auf irgendwelche upscaling tricksereien, in die man keine einsicht hat. im wesentlichen hat die industrie nur erreicht, dass die auflösungen eine stufe abgesenkt wurden, weil man die rechenlast der unoptimierten spiele nativ mit der schwachen hardware nicht gestemmt bekommt.

außerdem muss man hier jetzt mal erklären, warum 1080p benchmarks rausgeflogen sind, und stattdessen bencht man "1440p" mit upscaling, das hinterher doch auch nur wieder ~1080p auflösung ist.

Wolfgang schrieb:
100 Prozentige Vergleichbarkeit ist daher in meinen Augen aktuell einfach nicht mehr sinnvoll. Stattdessen sollte eine vergleichbare Qualität gesucht werden und danach getestet werden. Das ist schlussendlich das, was der Spieler nutzt.

und du kannst 100% objektiv die bildqualität von 40 verschiedenen upscaling versionen und faktoren beurteilen? das ist doch völlig unmöglich. die upscaling artefakte treten in abertausenden varianten an unterschiedlichen stellen auf, von denen du in deiner benchmarkszene vielleicht ~10% überhaupt zu sehen bekommst.

aber es gibt eine methode um nahezu perfekt vergleichbare bildqualität zu testen: nativ.
 
  • Gefällt mir
Reaktionen: E2K3, MalWiederIch, Uthleber und eine weitere Person
duskstalker schrieb:
und was ist wenn dlss5 und fsr5 die renderauflösung weiter absenken, damit die fps balken länger werden, aber die bildqualität gleichzeitig den bach runter geht?
Das hat bis jetzt nur Intel gemacht mit ihrem UltraQuality usw Blödsinn, hat aber nichts mit der Technologie zu tun. Wenn DLSS5/FSR5 zb nur die Hälfte Renderauflösung braucht gegenüber dem 4er ohne schlechter auszusehen ist es halt so.
Schon alleine das vorher jahrelange DLSS3 gegen FSR3 getestet wurde war ja schon nicht vergleichbar, irgendwann muss man halt damit anfangen die Qualität miteinzubeziehen.
Ergänzung ()

duskstalker schrieb:
man kann die karten anhand ihrer tatsächlichen leistung vergleichen und verlässt sich nicht auf irgendwelche upscaling tricksereien, in die man keine einsicht hat. im wesentlichen hat die industrie nur erreicht, dass die auflösungen eine stufe abgesenkt wurden, weil man die rechenlast der unoptimierten spiele nativ mit der schwachen hardware nicht gestemmt bekommt.
Du weißt schon das die ganze Computergrafik eine einzige Trickserei ist. Upscaling ist nicht nur Upscaling sondern auch Antialiasing und Bildberuhigung und ist daher meiste Zeit sogar besser als nativ.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Taxxor
kristwi schrieb:
Ich sag immer wieder kauft euch die 9070/xt. Aber nein die Leute kaufen NVIDIA 😂 kannst es einfach nicht gut meinen… zu blöd!
Und was sagt man in den meisten anderen Szenarien wo die 5080 rasiert?
 
  • Gefällt mir
Reaktionen: MalWiederIch und kristwi
duskstalker schrieb:
hier gehts in erster linie darum den kunden weniger silizium für mehr geld verkaufen zu können, indem man die karten versucht künstlich performanter darzustellen, als sie tatsächlich sind. die realen leistungszuwächse und die native performance in aktuellen spielen, vorallem unoptimierter UE5, sind nämlich nichts anderes als erbärmlich.
Du musst es anders sehen, ohne Upscaling, FG usw würde man quasi fast gar keinen Leistungsgewinn mehr erzielen. Glaubs du AMD/Intel/NV machen das mit Absicht das es nur mehr so wenig Fortschritt im Rohleistungsbereich gibt? Nvidia hat es schon frühzeitig erkannt und mit den AI Kernen einen Grundstein gelegt, alle anderen haben jetzt schon nachgezogen.
 
Geiles Spiel - ich werde es nach dem Update auch nochmal spielen !
 
  • Gefällt mir
Reaktionen: Fyrex
duskstalker schrieb:
doch, die rohleistung interessiert, weil die letztendlich immer noch bestimmt, wie gut die basis-performance pre upscaling ist.

aber es gibt eine methode um nahezu perfekt vergleichbare bildqualität zu testen: nativ.

Danke das du dir die Mühe gemacht hast und mal Fakten zur Sache bringst.
 
  • Gefällt mir
Reaktionen: Uthleber
lejared schrieb:
Und wenn dann die nächste Konsolengeneration auch auf RDNA4 (oder 4.5) setzen sollte und FSR 4 nutzt, dann würde ich durchaus erwarten, dass zukünftige Spiele und Engines noch mehr in diese Richtung optimiert werden.
Dass AMD durch die Konsolen von einer besseren Optimierung profitieren würde, wurde schon seit der PS4 angenommen. Eingetreten ist das nicht und ich würde auch hier nicht zu sehr davon ausgehen, auch wenn es bei FSR4 ein bisschen anders sein könnte.

xexex schrieb:
Im Zweifel einfach die Rohleistung vergleichen, sich irgendwas mit Optiscaler zusammen zu fummeln, ist für mich eher ein Vergleich zwischen Apfel, Birne und Banane.
Die Rohleistung wird immer noch durch TFlops angegeben, realistisch ist das bei weitem nicht. Was IST die Rohleistung bei GPUs oder auch bei CPUs, wenn ich so weit gehe. Muss man diskutieren, wenn man ein Programm mit AVX-512 optimiert, dass das nicht die Rohleistung darstellt?
Basierend darauf werde ich das erweitern, dass Upscaler Teile des GPU-Transistorbudgets komplettieren. Würde man keine Upscaler verwenden, liegen Teile der GPU brach. Ich würde also argumentieren, dass man somit nicht die "gesamte Rohleistung" ausnutzt, was für Raytracing angewendet werden kann.

duskstalker schrieb:
ist das jetzt der technische fortschritt? nächste generation dann 370mm² 68 CU midrange chip für 750€?
Unabhängig davon, dass ich von dieser Entwicklung ja auch nicht begeistert bin, muss ich dennoch hinzufügen, dass du es speziell hier zu einfach machst, denn du ignorierst du die Entwicklung und steigenden Kosten für fortgeschrittene und fortschreitende Lithografieprozesse, insbesondere, da TSMC zwar kein allgemeines Monopol, aber eine so starke Dominanz innehat, dass es praktisch eine ist.
Ergo sind 380 mm² in N7 günstiger als dieselbe Fläche in N5 und N4 und laut Berichten dürften geschätzt selbst 300 mm² (oder auch kleiner) in N2 teurer als das bisherige zuvor werden.

duskstalker schrieb:
und was ist wenn dlss5 und fsr5 die renderauflösung weiter absenken, damit die fps balken länger werden, aber die bildqualität gleichzeitig den bach runter geht?
Dann kann man immer noch die Mistgabeln nehmen. Bis dahin sind DLSS4 und FSR4 sehr praktikable Lösungen.

duskstalker schrieb:
man kann die karten anhand ihrer tatsächlichen leistung vergleichen und verlässt sich nicht auf irgendwelche upscaling tricksereien, in die man keine einsicht hat.
Grafikrendering an sich ist eine Trickserei! Schon mal was von Tesselation, TressFX usw. gehört? Die Transistoren/Einheiten für Upscaling sind vorhanden. In der Praxis wird man das nutzen. Natürlich ist die nicht 100-prozentige Übereinstimmung in der Bildqualität ein Problem, weshalb ich nicht vollständig für die reine Nutzung von Benchmarks mit Upscaling bin.
Der Unterschied ist, dass ich für Bechmarks "mit" Upscaling auf ComputerBase bin. Denn es gibt genug andere Seiten, welche primär ohne Upscaling testen (Techpowerup, Hardware Unboxed). Es bringt uns nichts, wenn alle Review-Seiten komplett gleich testen. Ich möchte mehr Varianzen in den Benchmarks haben, damit man einem kompletteren Bild eher nahekommt.
 
  • Gefällt mir
Reaktionen: uberLemu
Wolfgang schrieb:
Die reine Rohleistung interessiert einen nur nicht mehr, wenn es nicht mehr sinnvoll ist, in entsprechenden Modi zu spielen. Und so weit sind wir eben spätestens mit DLSS 4 und FSR 4 gekommen. Jetzt kann man zwangsweise daran festhalten (weil man es ja immer so getan hat) oder man passt sich an. Letzteres ist schwierig und sicherlich manchmal holprig. Aber es ist nun einmal die Gegenwart und vor allem die Zukunft. "Rohleistung", also TAA, ist die Vergangenheit. Und Nativ ist es auch.

Eine 100 prozentige Vergleichbarkeit ist aktuell einfach nicht mehr möglich und imo auch nicht sinnvoll. Was hat man davon, wenn man dafür auf eine Art und Weise testen muss, die nicht nur die meisten nicht mehr nutzen, sondern die auch Qualitativ oft schlechter sind als die Alternativen (TAA Native vs. DLSS4/FSR4). 100 Prozentige Vergleichbarkeit ist daher in meinen Augen aktuell einfach nicht mehr sinnvoll. Stattdessen sollte eine vergleichbare Qualität gesucht werden und danach getestet werden. Das ist schlussendlich das, was der Spieler nutzt.
@Wolfgang :
Ich weiß nicht, wie lange du schon als Redakteur und Tester unterwegs bist, aber früher gab es bereits den Skandal um die anisotrope Filterung. Damals konnten nur wenige den Unterschied im bewegten Bild wahrnehmen, sichtbar wurde er erst unter Testbedingungen. Es waren große Publikationen, die das angeprangert haben – und nur deshalb gaben die Hersteller nach und ermöglichten uns die Wahl zwischen maximaler Qualität oder höherer Performance.

Meiner Meinung nach ist die Situation heute ähnlich, und ich sehe euch in der Pflicht, nicht einfach den Herstellern nachzugeben. Gamers Nexus testet auch nativ, und wenn jemand Upscaling nutzen will, kann er das gerne tun. Aber einfach aufzugeben und zu sagen „Software ist die Zukunft“ und damit den Weg gutzuheißen, den NVIDIA mit der 5XXX-Serie eingeschlagen hat, halte ich für falsch. Sie hätten uns eine 5080 und 5070 verkaufen können, die ihren Namen auch verdient – stattdessen soll DLSS die Lücken ausgleichen. Mit dieser Einstellung werden wir zwangsläufig immer schlechtere Hardware von den Herstellern bekommen.
 
  • Gefällt mir
Reaktionen: Uthleber
SuperDrive schrieb:
Meiner Meinung nach ist die Situation heute ähnlich, und ich sehe euch in der Pflicht, nicht einfach den Herstellern nachzugeben
Der entscheidende Unterschied zum Fall damals war, dass es ohne dass der Nutzer es hätte umstellen können gemacht wurde.
Man hat bei beiden Karten das vermeintlich gleiche eingestellt und was anderes bekommen.

Mit DLSS/FSR kann man sich die Stufen entsprechend so einstellen dass man die Qualität hat die man haben will, und das wird hier beim Vergleich dann auch gemacht
Ergänzung ()

duskstalker schrieb:
außerdem muss man hier jetzt mal erklären, warum 1080p benchmarks rausgeflogen sind, und stattdessen bencht man "1440p" mit upscaling, das hinterher doch auch nur wieder ~1080p auflösung ist.
Weil die Renderauflösung nicht mehr wirklich relevant ist, es geht um die Monitorauflösung die die Leute nutzen.
1440p mit DLSS 4 Quality sieht um Längen besser aus als natives 1080p, weswegen es auch eigentlich keinen Sinn mehr macht, bei einem Neukauf heute noch einen 1080p Monitor zu wählen(deutlich günstiger sind sie ja auch nicht mehr)
Und die Benchmarks auf 1080p Monitoren wären ansonsten eben auch in 720p Renderauflösung gemacht worden
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson, Quidproquo77 und Redundanz
BobHB schrieb:
Und was sagt man in den meisten anderen Szenarien wo die 5080 rasiert?
Du hast aber dabei den Preis jetzt nicht im Kopf gehabt oder?

1028€ RTX 5080 tiefster geizhals preis
629€ RX 9070XT tiefster geizhals preis

Egal welches Spiel - es ist immer peinlich für NVIDIA.
:streicheln:
 
  • Gefällt mir
Reaktionen: Redundanz und Fyrex
duskstalker schrieb:
und was ist wenn dlss5 und fsr5 die renderauflösung weiter absenken, damit die fps balken länger werden, aber die bildqualität gleichzeitig den bach runter geht? immer noch wie jetzt ein einem graphen, während man so tut, als wäre alles gleichwertig?
Erstmal woher kommt der Gedanke dass die Bildqualität „den Bach runter geht“? Bisher ist sie mit jedem Update bei gleicher Auflösung gestiegen bzw. mit geringerer Auflösung gleich geblieben oder sogar trotzdem noch gestiegen, was ja auch Sinn der Sache ist.

DLSS5 würde eher dann im Ultra Performance Setting so gut aussehen wie DLSS4 im Performance Setting, wodurch man dann z.B. hier im Vergleich in 4K DLSS5 Ultra Performance (720p Renderauflösung) gegen TSR Quality(1440p Renderauflösung) stellen muss.


Und das ist auch keine Verschwörung der GPU Hersteller, die sich Geld sparen wollen und dafür mit Software tricksen, es ist einfach die natürliche Entwicklung effizienterer Renderingmethoden, eben weil über Rohleistung immer weniger zu holen ist.
Und wenn man es schafft, effizienter zu rendern, dann gehört das in einem Vergleich der Performance eben unbedingt dazu
duskstalker schrieb:
in manchen spielen gibt es nur fsr oder dlss funktioniert nicht richtig und dann müssen nvidia nutzer auch ausweichen (neuestes beispiel ist BF6 beta, hier war dlss buggy).
Für einen halben Tag an einem der zwei Open Beta Wochenenden, ein reichlich konstruiertes Schreckensszenario^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson, MalWiederIch und Quidproquo77
Zurück
Oben