• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Stellar Blade im Test: Hohe FPS im Benchmark, der erstmals mit neuem Ansatz lief

ChrisMK72 schrieb:
Wir kommen ja auch nicht auf die Idee, mit DLSS2 zu testen, oder?
Da ist ja genau das Problem bei AMD, so gesehen gibt es keine DLSS2 Karten von nVidia, denn alle, die DLSS2 können, können DLSS4. Bei AMD unterstützt nur die 9070 also RDNA4 FSR4, die anderen können es offiziell nicht. Somit stehst du ja vor dem Problem, dass wir haben.

ChrisMK72 schrieb:
"Nutzt aber besser die alte Version, denn die ist besser." ;) Is klar, oder? ^^
Die Aussage ist eher: "Sorry, das neue FSR könnt ihr leider nicht nutzen, ihr müsst beim alten bleiben."

ChrisMK72 schrieb:
Spieletests, die mit realistischen, praxisnahen Einstellungen gecheckt werden?
In den bestmöglichen Qualitätseinstellungen. Ja.

ChrisMK72 schrieb:
Oder Grafikkartentests, wo zwecks Vergleichbarkeit eine möglichst gleiche Einstellung über alle Generationen gecheckt werden (edit: Basisleistung)?
Die werden das Problem werden. Wenn du aber von der Basisleistung ausgehst ( ich nehme mal an damit kann nur nativ gemeint sein), dann lässt du die zusätzlichen Einheiten liegen, die das Spiel schneller und auch hübscher machen. Die gehören doch auch zu der Basisleistung, oder will man als Basisleistung nur den Shaderteil bewerten?

Ich denke CBs Weg macht am meisten Sinn um die tatsächliche Leistung bei gleicher BQ festzustellen. Allerdings müsste man dann auch bei einem Grafikkarten Test jeden Benchmarktitel bewerten, mit welchem upsampler die BQ am besten aussieht. Bei nVidia noch recht einfach, bei AMD wird es dann kompliziert, wenn du aus Nativ, FSR3, oder XeSS wählen kannst. Bin gespannt, wie Wolfgang das lösen möchte.
 
_Cassini_ schrieb:
Bei AMD unterstützt nur die 9070 also RDNA4 FSR4, die anderen können es offiziell nicht. Somit stehst du ja vor dem Problem, dass wir haben.
Was denn für ein Problem? Was nicht da ist, kann nicht genutzt werden. Für Spieletests kein Problem.
_Cassini_ schrieb:
Sorry, das neue FSR könnt ihr leider nicht nutzen, ihr müsst beim alten bleiben
Wenn's so is, isses so. Und?
_Cassini_ schrieb:
Die gehören doch auch zu der Basisleistung, oder will man als Basisleistung nur den Shaderteil bewerten?
Naja, wenn man nicht ein Spiel testet, wie man es möglichst toll zocken könnte (edit: Mit entsprechenden Grafikoptionen genutzt), sondern neu erscheinende Grafikkarten testen will, sollte man doch einen Vergleich machen.

Wie soll man z.B. ein feature wie MFG, mit Karten vergleichen, die kein MFG (zum Glück :D ) haben.
Da kommen total schiefe Tests alla Gamestar bei rum. Das nutz niemand. Ach doch ... Nvidia. Aber sonst keinem.

Also müsste man sich da auf Basiseinstellungen, zwecks Vergleichbarkeit einigen. Sonst braucht man gar keinen Test.

Was testet man denn sonst? Nutzlose Zwischenbilder, die keinerlei neue Informationen bringen?

Ich kann ja auch 1000 Zwischenbilder berechnen lassen und zwischen die 2 Bilder quetschen. Dann steht da was weiß ich ... z.B. 60000 FPS auf dem Bildschirm. Es is aber nix als Blödsinn. Im Endeffekt hat man 60 FPS.
Man darf sich natürlich selbst veräppeln und glauben, dass man 60000 FPS hätte, wenn man gern möchte.
Hat man aber nicht. Man hat nur MFG-Blödsinn.

Also auf irgendwas muss man sich schon einigen, um einen richtigen Vergleich zu haben.
Was anderes als Basiseinstellungen, die alle GPUs haben und können, kann man da eigentlich nicht nutzen.

Man darf natürlich zum Test zusätzlich hinterher was bringen, nach dem Motto: Hier noch dies und das Feature. Aber aus dem Vergleich lässt man solche Dinge besser raus. Sonst ist es kein Vergleich.

Edit: Aber wie schon gesagt: Das is nur mein unbedeutender Senf, zum Thema. Eine Meinung von 10000. :D

Mal schaun, was am Ende kommt.

Hauptsache is: Habt Spaß! :daumen:
 
ChrisMK72 schrieb:
Was nicht da ist, kann nicht genutzt werden. Für Spieletests kein Problem.
Eben doch, da ist doch der Punkt, FSR3 und FSR4 kannst du nicht gleichstellen, da FSR4 deutlich besser aussieht. Wie willst du einen Leistungsvergleich anstellen, wenn das Bild, was am Ende rauskommt, bei dem anderen besser aussieht. Du brauchst doch eine einigermaßen gleichwertige Basis.

ChrisMK72 schrieb:
Wenn's so is, isses so. Und?
Is so, hab nur das "Zitat" korrigiert.

ChrisMK72 schrieb:
ein feature wie MFG
Hier geht es aber eben nicht um MFG oder FG. Es geht ums Upsampling, was mittlerweile ja jede Karte mehr oder weniger gut beherrscht.

Du vermischst hier Dinge die überhaupt nicht zur Debatte stehen, von Frame Generation spricht niemand. Es geht nur um den Upsampling Teil von DLSS/FSR.
 
_Cassini_ schrieb:
FSR3 und FSR4 kannst du nicht gleichstellen
Mach' ich doch gar nicht.
_Cassini_ schrieb:
da FSR4 deutlich besser aussieht
Ja. :)
_Cassini_ schrieb:
Wie willst du einen Leistungsvergleich anstellen, wenn das Bild, was am Ende rauskommt, bei dem anderen besser aussieht. Du brauchst doch eine einigermaßen gleichwertige Basis.
Bei einem Spieletest geht's doch nicht um einen Grafikkartentest (edit: So zumindest meine Meinung). Bei einem Spieletest muss man das nehmen, was angeboten wird (ganz allgemein).
Was in den Optionen vorgegeben ist, kann man nehmen, muss man nicht. Und dann mal schauen, wie es am besten/schönsten läuft, mit was für Optionen.
Das meinte ich doch nur, dass es was anderes ist, wie bei zukünftigen Grafikkartentests von neuen Generationen.

_Cassini_ schrieb:
Du vermischst hier Dinge die überhaupt nicht zur Debatte stehen, von Frame Generation spricht niemand.
Ja, dies war ein Beispiel, wie es dann um zukünftige Grafikartentests dann stehen könnte.
Das hab ich hier wirklich vermischt, als Beispiel zum Unterschied der beiden, also Spieletests/Grafikkartentests.

Ich wollte nur herausarbeiten, dass ein Spieletest für mich eben kein Vergleichstest zwischen Grafikkarten ist, wer die "beste Leistung", also am meisten FPS hat, sondern einfach nur zeigt, wie man mit jeweiliger hardware das Game gut zocken kann, mit welchen Optionen, egal was man gerade bereits für eine GPU hat.
edit: So etwas wie "Nutze in dem Game mit GPU XY, am besten diese Einstellung, oder jene, damit es gut aussieht und gut läuft.".

Das können natürlich andere anders sehen. Is für mich halt so.
Ein Spiel lässt du ja nicht nur mit Basisleistung, also nativ, ohne jegliche Verbesserungen laufen.
Das ist eben kein Grafikkartenvergleichstest.

Bei GPU Tests wiederum (bei Erscheinen neuer Generationen) würde ich eine Basiseinstellung bevorzugen.
Da schaue ich ja, was ich mir zukünftig für eine GPU hole und nicht wie ich ein Spiel zocke, auf der Hardware, die ich bereits habe.

Hoffe, jetzt ist es klar geworden, was ich meine. Und wenn nicht, bin ich wohl einfach unfähig zu erklären, was ich meine. So, oder so, ich komm' damit klar .... weil jetzt muss ich erstmal n Kaffee machen und mich um wichtige Dinge, wie Zocken kümmern. :D

edit2: Noch zur Erklärung: Wie Wolfgang und CB das machen, bzw. handhaben wollen, is nicht meine Baustelle. Ich hab hier nur meine Sicht der Dinge, bzw. meine Meinung dazu gesagt.
 
Zuletzt bearbeitet: (edit Nachtrag und noch n edit2 Nachtrag zur Erklärung)
ChrisMK72 schrieb:
Mach' ich doch gar nicht.
Du willst doch alles mit Quality testen, das geht mit einer 7900XTX zb nur mit FSR3, damit stellst du es zwangsläufig mit FSR4 gleich.

ChrisMK72 schrieb:
Bei einem Spieletest geht's doch nicht um einen Grafikkartentest (edit: So zumindest meine Meinung).
Was sonst? Ansonsten kannst du dir doch so einen Test sparen. Kannst ja gleich sagen:"ab einer onboard läuft es in niedrig mit 720p bei 30fps". Hat doch keiner was von und ist nicht interessant. Natürlich musst du alle Grafikkarten mit gleichen Settings/gleicher BQ testen, sonst fehlt doch die Vergleichbarkeit.

ChrisMK72 schrieb:
dass ein Spieletest für mich eben kein Vergleichstest zwischen Grafikkarten ist, wer die "beste Leistung", also am meisten FPS hat, sondern einfach nur zeigt, wie man mit jeweiliger hardware das Game gut zocken kann, mit welchen Optionen, egal was man gerade bereits für eine GPU hat.
Das findest du aber so gut wie nirgends. Das Einzige, was da ran kommt, sind die Videos zb von Hardware Unboxed, die die optimalen Settings rausarbeiten. Das geschieht da aber ohne spezifische Grafikkarten zu nennen, geschweige denn dies Spieletest zu nennen. Würde das eher als Grafikanalyse bezeichnen.

ChrisMK72 schrieb:
Bei GPU Tests wiederum (bei Erscheinen neuer Generationen) würde ich eine Basiseinstellung bevorzugen.
Also nativ, dementsprechend einen Teil der Hardware links liegen lassen, obwohl sie verbaut ist?
Als damals Hardware T&L kam, blieb das auch aktiviert, die einen Karten konnten es, die anderen eben nicht. Warum willst du die Karten in einem Test künstlich beschneiden?

ChrisMK72 schrieb:
Da schaue ich ja, was ich mir zukünftig für eine GPU hole
Wie willst du das nur Anhand der reinen Shaderleistung beurteilen, wenn grade für die Zukunft DLSS/FSR viel mehr Relevanz hat?
 
_Cassini_ schrieb:
Wie willst du das nur Anhand der reinen Shaderleistung beurteilen, wenn grade für die Zukunft DLSS/FSR viel mehr Relevanz hat?
Einfach je mehr Basispower, desto besser, nach dem Motto:
"Nichts geht über Hubraum. Außer: Mehr Hubraum!" :D

Und zum Rest hab ich ja gesagt: Nicht meine Entscheidung, wie das hier gemacht wird und ich bin froh drum. ^^

Mach nur grad 'ne kurze Zockpause zum Mampfen. Von daher kommen nun erstmal keine ausgiebigen Antworten mehr von mir.
 
Zurück
Oben