Wolfgang schrieb:
Die reine Rohleistung interessiert einen nur nicht mehr, wenn es nicht mehr sinnvoll ist, in entsprechenden Modi zu spielen.
doch, die rohleistung interessiert, weil die letztendlich immer noch bestimmt, wie gut die basis-performance pre upscaling ist.
am ende des tages ist upscaling einfach nur eine reduzierte render-auflösung mit komplexerer interpolation fürs upscaling.
der knackpunkt an der geschichte ist das narrativ der industrie aufzugreifen - hier wird der bock zum gärtner gemacht, weil auf einmal birnen äpfel sind.
das verwässert einfach sämtliche ergebnisse und macht diese im wesentlichen unvergleichbar und völlig bezugslos.
wir sind an einem punkt angekommen, wo "4k 120fps" einfach mal "wqhd 30fps" bedeuten können - was für ein irrsinn.
mir geht es darum diesem unfug einen riegel vorzuschieben und das kind beim namen zu nennen.
die 9070XT ist ein 64CU 360mm² midrange chip für 650€, die 5080 ist ein 380mm² midrange chip für 1100€. die 7800XT war ebenfalls ein 60CU 350mm² midrange chip mit 16gb vram, nur war die noch 100€ günstiger. ist das jetzt der technische fortschritt? nächste generation dann 370mm² 68 CU midrange chip für 750€?
hier gehts in erster linie darum den kunden weniger silizium für mehr geld verkaufen zu können, indem man die karten versucht künstlich performanter darzustellen, als sie tatsächlich sind. die realen leistungszuwächse und die native performance in aktuellen spielen, vorallem unoptimierter UE5, sind nämlich nichts anderes als erbärmlich.
am ende des tages bekommen wir nur weniger chipfläche mit weniger rohleistung für mehr geld, was hinterher über upscaling und framegeneration billig kompensiert wird.
Wolfgang schrieb:
Und so weit sind wir eben spätestens mit DLSS 4 und FSR 4 gekommen.
und was ist wenn dlss5 und fsr5 die renderauflösung weiter absenken, damit die fps balken länger werden, aber die bildqualität gleichzeitig den bach runter geht? immer noch wie jetzt ein einem graphen, während man so tut, als wäre alles gleichwertig? würde man sich dann nicht wünschen, man hätte sich nicht leichtsinnig von nvidias, amds und intels marketing abhängig gemacht und hätte eine robuste methode um weiterhin neutral und vergleichbar die rohleistung der karten ermitteln und darstellen zu können?
Wolfgang schrieb:
Jetzt kann man zwangsweise daran festhalten (weil man es ja immer so getan hat) oder man passt sich an. Letzteres ist schwierig und sicherlich manchmal holprig. Aber es ist nun einmal die Gegenwart und vor allem die Zukunft. "Rohleistung", also TAA, ist die Vergangenheit. Und Nativ ist es auch.
ich sehe nicht, wie gemischte benchmarks mit diversen upscaling technologien und unterschiedlichen upscaling faktoren bessere daten ausspucken als einheitlich universell vergleichbares natives rendering. die user können ja dann immer noch upscaling dazuschalten - aber das sollte nicht die basis sein.
wir hatten bei einem spiel aus dem asiatischen raum neulich den fall, dass ein "performance" update einfach nur die interne renderauflösung reduziert hat - wollen wir da hin? soll das die gängige praxis sein?
Wolfgang schrieb:
Eine 100 prozentige Vergleichbarkeit ist aktuell einfach nicht mehr möglich und imo auch nicht sinnvoll.
doch, mit nativem rendering geht das. und warum das nicht sinnvoll sein soll, erschließt sich mir nicht.
das ganze wird mit upscaling noch komplizierter, weil nvidia nicht immer mit dlss, amd nicht immer mit fsr und intel nicht immer mit xess genutzt wird. xess ist oft besser als fsr2/3, in manchen spielen gibt es nur fsr oder dlss funktioniert nicht richtig und dann müssen nvidia nutzer auch ausweichen (neuestes beispiel ist BF6 beta, hier war dlss buggy).
mit tests via nativer auflösung kann man ganz entspannt die karte mit der besten rohleistung pro € nehmen und beim upscaling entsprechend selbst wählen.
und upscaling ist auch nicht das alpha und omega - wenn man jetzt bspw. mal richtung oversampling bzw. DLAA geht, ist es sehr wohl wichtig zu wissen, wie die performance bei 4k nativ ist - eine interne 1440p renderauflösung hat nichts mit der realen grafik und vram-last bei echtem 4k oder 5k zu tun.
Wolfgang schrieb:
Was hat man davon, wenn man dafür auf eine Art und Weise testen muss, die nicht nur die meisten nicht mehr nutzen, sondern die auch Qualitativ oft schlechter sind als die Alternativen (TAA Native vs. DLSS4/FSR4).
man kann die karten anhand ihrer tatsächlichen leistung vergleichen und verlässt sich nicht auf irgendwelche upscaling tricksereien, in die man keine einsicht hat. im wesentlichen hat die industrie nur erreicht, dass die auflösungen eine stufe abgesenkt wurden, weil man die rechenlast der unoptimierten spiele nativ mit der schwachen hardware nicht gestemmt bekommt.
außerdem muss man hier jetzt mal erklären, warum 1080p benchmarks rausgeflogen sind, und stattdessen bencht man "1440p" mit upscaling, das hinterher doch auch nur wieder ~1080p auflösung ist.
Wolfgang schrieb:
100 Prozentige Vergleichbarkeit ist daher in meinen Augen aktuell einfach nicht mehr sinnvoll. Stattdessen sollte eine vergleichbare Qualität gesucht werden und danach getestet werden. Das ist schlussendlich das, was der Spieler nutzt.
und du kannst 100% objektiv die bildqualität von 40 verschiedenen upscaling versionen und faktoren beurteilen? das ist doch völlig unmöglich. die upscaling artefakte treten in abertausenden varianten an unterschiedlichen stellen auf, von denen du in deiner benchmarkszene vielleicht ~10% überhaupt zu sehen bekommst.
aber es gibt eine methode um nahezu perfekt vergleichbare bildqualität zu testen: nativ.