relaxed_Guy schrieb:
Ich werde die Benchmarks von CB aber nicht mehr nutzen oder empfehlen in Zukunft, weil die Bildqualität für mich nichts in objektiven Benchmark-Vergleichen zu suchen hat.
Und wie willst du derzeit einen objektiven Benchmark aufstellen, der auch nur ansatzweise Praxisrelevanz hat?
Bildqualität und Bildrate sind die beiden zentralen Faktoren für derartige Benchmarks.
Auch wenn Bildqualität durch die Upsamplingverfahren nicht mehr an einer festen Auflösung festmachbar ist und man sich auf eine teils subjektive Einordnung durch die Tester verlassen muss, kann man sie für einen Vergleich ja nicht einfach ignorieren.
relaxed_Guy schrieb:
Entweder man testet Alles nativ oder Alles im gleichen Upscaling Preset unabhängig der Bildqualität.
Und welchen Sinn hätte das? Das nützt doch in der Praxis absolut niemandem etwas:
1. Die Performance nativ vs. nativ ist eventuell nettes Nerdwissen, aber für die Praxis vollkommen egal, denn mit einer aktuellen Grafikkarte wird man in einem neuen Spiel nahezu immer DLSS oder FSR4 nutzen. Es interessiert doch niemanden mit so einer Karte, wie viel Leistung man theoretisch verlieren würde, wenn man nativ spielen müsste.
Wenn man mit seiner älteren Karte im gewünschten Titel weder DLSS, noch FSR4 nutzen kann und so gezwungen ist für eine ähnliche Bildqualität wie die neueren Karten, nativ rendern zu lassen ist das bitter, aber eben eine Tatsache.
2. Gleiche Upscaling Presets mit qualitativ komplett unterschiedlichen Upscalingverfahren/Versionen unabhängig der tatsächlichen Bildqualität ergeben erst recht keinen Sinn: Warum dann nicht gleich FSR1 nehmen, eventuell läuft das noch schneller? Oder bei einer Grafikkarte alle Grafiksettings auf low und auf der anderen alles auf Ultra? Wäre ja auch die gleiche Auflösung und die Bildqualität ist uns doch egal oder?
In meinen Augen ist der Weg den CB hier geht, derzeit der sinnvollste.