• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Stellar Blade im Test: Hohe FPS im Benchmark, der erstmals mit neuem Ansatz lief

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
9.581
Wie läuft Stellar Blade auf dem PC? Der Technik-Test liefert Grafikkarten-Benchmarks, Analysen zu DLSS sowie FSR und mehr. Das Spiel zeigt mit der UE4-Engine eine sehr gute Performance, allerdings gibt es auch optische Gründe, warum dies so ist. Erstmals einen neuen Ansatz hat ComputerBase bei Upscaling gewählt.

Zum Test: Stellar Blade im Test: Hohe FPS im Benchmark, der erstmals mit neuem Ansatz lief
 
  • Gefällt mir
Reaktionen: bullit1, flo.murr, gartenriese und 28 andere
Das Spiel sieht im Verhältnis zu der Performance wirklich toll aus. Was die paar Prozent mehr grafische Qualität mittlerweile so an Leistung kostet ist wirklich krass.
 
  • Gefällt mir
Reaktionen: bullit1, flo.murr, blaizebulla und 24 andere
Spiele Stellar Blade aktuell selber, und war sehr überrascht wie gut der Port doch geworden ist.

Grafik ist gut und passend, Performance ist super und es gibt wirklich nichts großes zu Meckern.
Ich habe zwar hier und da mal Situationen wo das Spiel komplett einfriert, aber ich denke das werden sie auch noch Patchen.

Ich dachte nie das mich solche Spiele Interessieren würden, aber nachdem ich die Demo gespielt hatte, war ich sehr angetan - vor allem vom Kampfsystem.
Vielleicht schaue ich in Zukunft deshalb mal in NieR rein.
 
  • Gefällt mir
Reaktionen: Azeron, [ACE].:SHARK:., Lonex88 und 3 andere
Ich muss wohl mal die letzten Podcasts nachholen, denn die genaue Begründung für die Entscheidung, Upsampling in verschiedenen Stufen in einen Benchmark zu packen, würde mich schon interessieren.

Also ich verstehe absolut den Gedanken, dass man eine ähnliche Bildqualität benchmarken will, aber daran, dass Intel-Karten weiter mit XeSS Quality laufen dürfen obwohl das schlechter als DLSS4 und FSR4 Quality aussieht, sieht man ja schon wie schnell der Plan an seine Grenzen stößt.
Persönlich fand ich den bisherigen Ansatz gleicher Renderauflösung bei allen Karten besser. Wie sehr die Bildqualität je nach eingesetzter Lösung dann leidet stand ja vorher schon im Test. Am Ende wird das dann halt zu einer merklichen Verschiebung zu Gunsten von Nvidia führen, auch wenn man drüber diskutieren kann, ob sie sich das verdient haben mit DLSS.

Naja, vielleicht auch nur eine Sache der Gewöhnung. Ich verstehe wie gesagt die Begründung dafür schon irgendwo. Fühlt sich halt dadurch nur weniger objektiv an.
 
  • Gefällt mir
Reaktionen: Wallwatcher, slow_snail, Eleanor1967 und 7 andere
Danke für den Test.
Das Spiel läuft auf Geforce gut und die Radeons rennen (unverhältnismäßig) hinterher, sorry aber eine 9070xt auf 5070 Niveau? Mitnichten, da hat wohl der Entwickler geschlafen.

Was aber echt übel aufstößt, ist der Absatz zum Framepacing, was ab und an mal komplett vom Weg abkommt. In einem Spiel was präzises Parieren und ausweichen auf den höheren Schwierigkeitsgraden erfordert, kann das den Tod bedeuten.
Da muss man sich schon fragen, warum nutzt der Entwickler eine Plattform, wenn er diese absolut nicht richtig bedienen kann? Als Souls-Spieler würde ich das Ding dann echt meiden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deeen, 9t3ndo und muvmend
Conqi schrieb:
Also ich verstehe absolut den Gedanken, dass man eine ähnliche Bildqualität benchmarken will, aber daran, dass Intel-Karten weiter mit XeSS Quality laufen dürfen obwohl das schlechter als DLSS4 und FSR4 Quality aussieht, sieht man ja schon wie schnell der Plan an seine Grenzen stößt.
Das... stimmt so aber nicht?

Unterstützt das Spiel als Alternative XeSS, wird stattdessen XeSS im nächsthöheren Preset genutzt. Laufen DLSS 4 sowie FSR 4 mit Quality (Skalierungsfaktor 1.5×), wird XeSS mit Ultra Quality Plus (Skalierungsfaktor 1.3×) genutzt. Das erhöht etwas die Renderauflösung, was zwar immer noch nicht an die Qualität von AMDs und Nvidias Upsampling heran kommt, der Abstand ist aber kleiner und der Leistungsvorteil ist nicht mehr vorhanden.
 
Rickmer schrieb:
Das... stimmt so aber nicht?
Nur ein Satz weiter:
Intel-Grafikkarten werden zumindest vorübergehend noch mit derselben Renderauflösung wie DLSS 4 und FSR 4 getestet. Der XeSS-Algorithmus sieht auf Intel Arc etwas besser als auf Radeons aus, sodass es zwar einen sichtbaren Abstand zu DLSS 4 und FSR 4 gibt, dieser aber deutlich kleiner als mit FSR 3.1 ist.
 
Conqi schrieb:
Also ich verstehe absolut den Gedanken, dass man eine ähnliche Bildqualität benchmarken will, aber daran, dass Intel-Karten weiter mit XeSS Quality laufen dürfen obwohl das schlechter als DLSS4 und FSR4 Quality aussieht, sieht man ja schon wie schnell der Plan an seine Grenzen stößt.
Finde ich auch sehr schwierig. Insbesondere da die "Bildqualität" sehr subjektiv ist und quantitativ nicht messbar. Das ist also ein Pi-mal-Daumen Wert irgendwie. Und ausserdem wurde doch immer gesagt, dass Upsampling IMMER besser aussieht als nativ, und jetzt soll das mit DLSS3 und FSR 3.1 plötzlich nicht mehr der Fall sein?

Conqi schrieb:
Persönlich fand ich den bisherigen Ansatz gleicher Renderauflösung bei allen Karten besser. Wie sehr die Bildqualität je nach eingesetzter Lösung dann leidet stand ja vorher schon im Test. Am Ende wird das dann halt zu einer merklichen Verschiebung zu Gunsten von Nvidia führen, auch wenn man drüber diskutieren kann, ob sie sich das verdient haben mit DLSS.
Korrekt. Ausserdem ist der Informationsgehalt für den Leser nicht wirklich zielführend. Denn ich möchte ja auch wiessen, wie meine GPU in dem Spiel performt, resp. performen kann. Und unter welchen Umständen.

Von mir aus kann man den neuen Ansatz ja bei GPU Tests verwenden wo es um die Leistungsbewertung der Graka geht (wie gesagt mit der Einschränkung oben...) aber beim Test eines Spiels sollte doch um das Spiel gehen und wie es wo wie schnell mit was läuft.

Conqi schrieb:
Naja, vielleicht auch nur eine Sache der Gewöhnung. Ich verstehe wie gesagt die Begründung dafür schon irgendwo. Fühlt sich halt dadurch nur weniger objektiv an.
100% ack.
 
  • Gefällt mir
Reaktionen: slow_snail, Michael vdMaas, RdV und 5 andere
Schade, dass euch die 3080 10gb abgeraucht ist.
 
  • Gefällt mir
Reaktionen: gartenriese, Sensei21, 9t3ndo und 2 andere
Wenn DLSS 4 und FSR 4 unterstützt werden, dann...

Unterstützt ein Spiel DLSS 4 sowie FSR 4, wird auf älteren Radeons sowie Intel-Grafikkarten kein FSR 3.1 mehr genutzt, sondern stattdessen die native Auflösung mit dem spieleigenen TAA. So ist die Bildqualität eher vergleichbar und der Performance-Vorteil nicht mehr vorhanden.


Unterstützt das Spiel als Alternative XeSS, wird stattdessen XeSS im nächsthöheren Preset genutzt. Laufen DLSS 4 sowie FSR 4 mit Quality (Skalierungsfaktor 1.5×), wird XeSS mit Ultra Quality Plus (Skalierungsfaktor 1.3×) genutzt. Das erhöht etwas die Renderauflösung, was zwar immer noch nicht an die Qualität von AMDs und Nvidias Upsampling heran kommt, der Abstand ist aber kleiner und der Leistungsvorteil ist nicht mehr vorhanden.


Intel-Grafikkarten werden zumindest vorübergehend noch mit derselben Renderauflösung wie DLSS 4 und FSR 4 getestet. Der XeSS-Algorithmus sieht auf Intel Arc etwas besser als auf Radeons aus, sodass es zwar einen sichtbaren Abstand zu DLSS 4 und FSR 4 gibt, dieser aber deutlich kleiner als mit FSR 3.1 ist.
Warum nicht einfach nativ testen und seperat noch mal mit der RTX5080 (DLSS4, XeSS) und der 9070XT (FSR4, FSR3.1, XeSS) die Upscaler testen um ein Leistungsplus von x% für die verschieden Qualitätsstufen angeben zu können, die sich dann jeder für seine Karte selber dazu rechnen kann?
Eine Aussage zur Bildqualität kann man anhand der 2 Karten dann ja auch treffen und einen Abschnitt mit Screenshots dazu im Test veröffentlichen.
Bei dem Mischbetrieb den Ihr da Betreibt, kommt doch keine Vernünftige Aussage über die Leistungsfähigkeit, der verschiedenen Karten, mehr raus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wallwatcher, slow_snail, Xalloc und 19 andere
Ein sehr guter Schritt, dass endlich Grafikkarten mit schlechterer Bildqualität auch entsprechend heruntergestuft werden und ein Natives Bild berechnen müssen, das zwar immer noch etwas schlechter zu sein scheint, aber es nun relativ vergleichbar ist.
Herzaaa schrieb:
Das Spiel sieht im Verhältnis zu der Performance wirklich toll aus. Was die paar Prozent mehr grafische Qualität mittlerweile so an Leistung kostet ist wirklich krass.
Wie man es nimmt, der Artstyle gefällt mir jedenfalls, aber die Grafikqualität ist bei genauerem Hinsehen schon sehr flach und schwach, aber es geht ja auch nicht immer nur um die Grafik. Erinnert teilweise mich etwas an Borderlands mit diesen Felsen.
123.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese, Sensei21, Grestorn und 2 andere
CadillacFan77 schrieb:
Und ausserdem wurde doch immer gesagt, dass Upsampling IMMER besser aussieht als nativ, und jetzt soll das mit DLSS3 und FSR 3.1 plötzlich nicht mehr der Fall sein?
Für DLSS3 gilt das größtenteils auch, nur gibts ja keine Situation wo man heute DLSS3 nutzen würde weil alle kompatiblen Karten auch DLSS4 nutzen können.

Für FSR3 galt das bisher nur situativ, FSR4 hat jetzt erst den Sprung gemacht dass man sagen kann dass es fast immer besser als Nativ+TAA aussieht
 
  • Gefällt mir
Reaktionen: gartenriese, floTTes, nyster und 10 andere
Herzaaa schrieb:
Das Spiel sieht im Verhältnis zu der Performance wirklich toll aus.
Das ist halt die ausgereifte UE4. Hoffen wir mal das UE5 da auch bald mal hinkommt.
 
  • Gefällt mir
Reaktionen: gartenriese
CadillacFan77 schrieb:
Ausserdem ist der Informationsgehalt für den Leser nicht wirklich zielführend. Denn ich möchte ja auch wiessen, wie meine GPU in dem Spiel performt, resp. performen kann. Und unter welchen Umständen.
Genau das bekommst du doch jetzt, es wird jeweils das gewählt was am besten aussieht. Vorher waren die Umstände bzgl Bildqualität halt weit auseinander als hätte man das Spiel auf einer GPU mit Ultra und auf ner anderen GPU mit Hoch gespielt.

Nun hat man z.B. als RX6000 Nutzer eher ein Gefühl dafür was man für ne Performance bekommt ohne dass es viel schlechter aussieht, als bei einem RX9000 Nutzer
 
  • Gefällt mir
Reaktionen: gartenriese, _Cassini_, Grestorn und 5 andere
Conqi schrieb:
Ich muss wohl mal die letzten Podcasts nachholen, denn die genaue Begründung für die Entscheidung, Upsampling in verschiedenen Stufen in einen Benchmark zu packen, würde mich schon interessieren.

Also ich verstehe absolut den Gedanken, dass man eine ähnliche Bildqualität benchmarken will, aber daran, dass Intel-Karten weiter mit XeSS Quality laufen dürfen obwohl das schlechter als DLSS4 und FSR4 Quality aussieht, sieht man ja schon wie schnell der Plan an seine Grenzen stößt.
Persönlich fand ich den bisherigen Ansatz gleicher Renderauflösung bei allen Karten besser. Wie sehr die Bildqualität je nach eingesetzter Lösung dann leidet stand ja vorher schon im Test. Am Ende wird das dann halt zu einer merklichen Verschiebung zu Gunsten von Nvidia führen, auch wenn man drüber diskutieren kann, ob sie sich das verdient haben mit DLSS.

Naja, vielleicht auch nur eine Sache der Gewöhnung. Ich verstehe wie gesagt die Begründung dafür schon irgendwo. Fühlt sich halt dadurch nur weniger objektiv an.
Im Abschnitt "Wichtig: Erstmals Unterschiede beim Upsampling-Ansatz!" steht ausführlich erklärt, warum wir uns dazu entschieden haben :)

Ich verstehe, dass sich das erstmal komisch anfühlt. Da kann ich sagen, das tut es bei mir auch.
Aber ich kann genauso sagen, dass sich das vorher noch viel komischer angefühlt hat. Da sah ich ein tolles DLSS 4, das die gleiche Renderauflösung nutzt wie ein FSR 3.1, das einfach nur schlecht aussah. Und dabei sogar noch weniger Rechenleistung kostet. Das fand und finde ich einfach total unfair.

Die Unterschiede sind mittlerweile so riesig, dass ich einfach nicht weiß, wie man das noch fair nennen sollte. Nur weil es die gleiche Renderauflösung nutzt? Aber wie kann das fair sein, wenn sonst einfach alles anders ist. Da muss jetzt mal ein Schlussstrich drunter gezogen werden. Reine Renderauflösung ist heute einfach nicht mehr ausreichend, das ist Vergangenheit.
CadillacFan77 schrieb:
Finde ich auch sehr schwierig. Insbesondere da die "Bildqualität" sehr subjektiv ist und quantitativ nicht messbar. Das ist also ein Pi-mal-Daumen Wert irgendwie. Und ausserdem wurde doch immer gesagt, dass Upsampling IMMER besser aussieht als nativ, und jetzt soll das mit DLSS3 und FSR 3.1 plötzlich nicht mehr der Fall sein?


Korrekt. Ausserdem ist der Informationsgehalt für den Leser nicht wirklich zielführend. Denn ich möchte ja auch wiessen, wie meine GPU in dem Spiel performt, resp. performen kann. Und unter welchen Umständen.

Von mir aus kann man den neuen Ansatz ja bei GPU Tests verwenden wo es um die Leistungsbewertung der Graka geht (wie gesagt mit der Einschränkung oben...) aber beim Test eines Spiels sollte doch um das Spiel gehen und wie es wo wie schnell mit was läuft.
Bildqualität ist zwar nicht (wirklich) messbar, völlig subjektiv ist diese aber auch nicht. Bei dem was FSR 3.1 erzeugt, kann man das nicht subjektiv gut finden, wenn man dagegen DLSS 4 / FSR 4 sieht - das geht einfach nicht. Auch gegenüber DLSS 3 war das nicht mehr fair, aber die Lücke war dort noch deutlich kleiner als sie das mit den neuen Upsampling-Methoden ist. Und dem zollen wir nun Tribut.

Ich habe nie gesagt, dass Upsampling immer besser aussieht als Nativ. Der richtige Upsampling-Algorithmus kann besser aussehen als Nativ. Bei FSR 3.1 ist das so gut wie nie der Fall, bei DLSS 3 ab und zu und bei DLSS 4 sowie FSR 4 meistens bis fast immer.
9t3ndo schrieb:
Warum nicht einfach nativ testen und seperat noch mal mit der RTX5080 (DLSS4, XeSS) und der 9070XT (FSR4, FSR3.1, XeSS) die Upscaler testen um ein Leistungsplus von x% für die verschieden Qualitätsstufen angeben zu können, die sich dann jeder für seine Karte selber dazu rechnen kann?
Eine Aussage zur Bildqualität kann man anhand der 2 Karten dann ja auch treffen und einen Abschnitt mit Screenshots dazu im Test veröffentlichen.
Bei dem Mischbetrieb den Ihr da Betreibt, kommt doch keine Vernünftige Aussage über die Leistungsfähigkeit, der verscheieden Karten, mehr raus.
Nativ ergibt in meinen Augen einfach keinerlei Sinn mehr, wenn DLSS 4 und FSR 4 zur Verfügung stehen. Ich verzichte dann auf viele, viele FPS und habe eine schlechtere Bildqualität. Warum sollte man so spielen?

Grafikkarten sind mittlerweile genauso viel Software wie auch Hardware. Das Spielerlebnis setzt sich aus beiden zusammen, nicht nur Hardware. Das sollen auch unsere Tests wiederspiegeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese, devanet, slow_snail und 28 andere
CadillacFan77 schrieb:
Und ausserdem wurde doch immer gesagt, dass Upsampling IMMER besser aussieht als nativ, und jetzt soll das mit DLSS3 und FSR 3.1 plötzlich nicht mehr der Fall sein?
Niemand der das gesagt hat, insbesondere über FSR 3.1, ist Ernst zu nehmen.

Allgemein ist die Performance-Messung heutzutage nicht einfach:
  • Manche fordern native, was auf den ersten Blick sinnvoll erscheint aber doch nicht ist. Ich verwende seit Jahren in keinem Spiel das DLSS unterstützt "native": wenn ich es mir leisten kann dann DLAA, ansonsten DLSS. Mit DLSS 4 (und endlich auch einer brauchbaren Alternative von AMD, wenn auch nur auf neuester HW) ist native Auflösung besonders bei 4k Targets noch realitätsfremder. Wenn das Ziel ist praxisrelevante Informationen bereitzustellen ist das also keine gute Option.
  • Das bisherige Schema "bestraft" Hardware/Softwarelösungen für bessere Qualität. Wenn zum Beispiel DLSS4 5% mehr performance kostet aber "30% besser" aussieht dann wirkt eine GPU die es unterstützt dennoch "schlechter" im Benchmark-chart. Natürlich kann man argumentieren dass jeder genau den Text lesen soll, aber das passiert in der Praxis nicht, und derart irreführende Darstellungen zu vermeiden ist ein wichtiges Ziel.
  • Das neue Schema hat Schwächen (z.B. ist die Qualität nicht in jedem Spiel gleich, und es ist über verschiedene Technologien auch nicht möglich sie genau 1:1 abzubilden), aber der resultierene Performance-chart entspricht dennoch im Durchschnitt vermutlich mehr dem, was man bei approximativ gleicher Qualität von den GPUs erwarten kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese, Grestorn, Saint81 und 4 andere
Stellar Blade lässt sich optisch mit SSGI (Screen Space Global Illumination) per Console Variable je nach Situation noch mal sichtbar aufwerten :)

r.SSGI.Enable=1
r.SSGI.Quality=4

Klar kommt es nicht an RT ran, dafür ist SSGI deutlich günstiger und die Bildqualität sehr gut weil nicht aufwendig denoised werden muss.
 
  • Gefällt mir
Reaktionen: gartenriese, devanet, edenjung und 10 andere
Herzaaa schrieb:
Das Spiel sieht im Verhältnis zu der Performance wirklich toll aus. Was die paar Prozent mehr grafische Qualität mittlerweile so an Leistung kostet ist wirklich krass.
Die UE5 sieht doch um einiges besser aus.
 
  • Gefällt mir
Reaktionen: gartenriese, ElliotAlderson und Celinna
@Fighter1993 Kommt sehr aufs Spiel an und UE5 ist dafür massiv anspruchsvoller für die Grafikkarte. Stellar Blade läuft gefühlt auf jedem Toaster.
 
Zurück
Oben