Bericht Im Test vor 15 Jahren: Als ATi und Nvidia bei der Qualität mogelten

Robert

Redakteur
Teammitglied
Dabei seit
Feb. 2009
Beiträge
1.402

canada

Lieutenant
Dabei seit
Feb. 2011
Beiträge
857

Redirion

Captain
Dabei seit
Apr. 2007
Beiträge
3.433
wenn ich mir so die Bilder anschaue, hätte ich eine Idee für Nvidia und AMD:
AF-Einstellungen grundsätzlich ignorieren (abschalten) und einfach die bekannten Schärfefilter verwenden = free FPS
 

Wadenbeisser

Rear Admiral
Dabei seit
Jan. 2015
Beiträge
5.657
Heute lachen wir darüber.

btw: Warum ist "mogelten" in der Vergangenheitsform?
Heute wird sowas eben als Feature verkauft und so deutlich weiter getrieben als damals.
Es wird zur Leistungssteigerung mit einer schlechteren Shader Qualität und geringeren Auflösung gerechnet, es als Feature verkauft und gleichzeitig entgegen besseren Wissens nicht zwischen dem orginalen und dem "optimierten" Zustand unterschieden. Gleichzeitig habe ich seit einer Ewigkeit keine solchen Qualitätstests mehr gesehen.
 

KuestenNebel

Lt. Commander
Dabei seit
Aug. 2019
Beiträge
1.151

canada

Lieutenant
Dabei seit
Feb. 2011
Beiträge
857
Kompletter Schwachsinn. Damit offenbarst du nur deine totale Unkenntnis der hinter DLSS stehenden innovativen Technologie. Mit dem Thema des Artikels hat das jedenfalls gar nichts zu tun.
Ich zitiere mal aus einem Test: "Ursächlich dafür ist Nvidias Entscheidung, DLSS als Entlastungsmaßnahme zu bewerben, die bei vergleichbarer Qualität die Leistung erhöht. Dahinter steckt keine Zauberei, sondern ein uralter Trick: Die interne Render-Auflösung fällt bei aktivem DLSS geringer aus als die im Spiel eingestellte. Es liegt in der Natur der Sache, dass eine reduzierte Auflösung zu entsprechend geringerer Qualität und stärkerem Aliasing führt. Hier setzt das Herzstück von DLSS an: Die Software weiß aus den Trainingssessions, welche Informationen verlorengehen, und versucht diese nach bestem Wissen spatial (räumlich) und temporal (zeitlich) aufzuwerten."

Nix anderes haben die früher gemacht, da wurde es nur nicht als AI, Deep Learning und schieß mich tot bezeichnet.

EDIT: Ist kein reines gebashe gegen nV, AMD trickst genauso.
 

Der Heiland

Cadet 3rd Year
Dabei seit
März 2019
Beiträge
59
Solche Qualitätstests würden mich auch bei modernen Features auf modernen Grafikkarten interessieren. Gerade mit Raytracing bahnt sich da ja wieder ein Lauf der unterschiedlichen Techniken mit unterschiedlichen Ergebnissen an.
 

II n II d II

Commander
Dabei seit
Nov. 2008
Beiträge
2.516
Bei guter Umsetzung, und offener Kommunikation finde ich solche "Mogeleien" gut. Der Qualitätsverlust sollte halt im Rahmen bleiben.

Seit dieser Zeit habe ich im Nvidia Treiber immer 'höchste Qualität' eingestellt. Meiner Meinung nach war der Leistungsgewinn durch Anpassung der anisitropen Filterung bei Nvidia nie den Qualitätsverlust wert.
Ich wundere mich heute immer wieder, warum es überhaupt noch die Möglichkeit gibt, das AF in Spielen einzustellen. Das kostet doch fast gar keine Leistung!?

Bei The Witcher 3 gibt es im Grafikmenü keine Option das AF einzustellen, dabei hättet es dieses Spiel bitter nötig. AF im Treiber auf 16x erzwungen sieht es deutlich besser aus.
 

KuestenNebel

Lt. Commander
Dabei seit
Aug. 2019
Beiträge
1.151
Zunächst einmal ist es kein "Cheating". Deine Wortwahl suggeriert, dass hier irgendetwas heimlich passiert. Schwachsinn.

Zum anderen handelt es sich hierbei um eine komplett neue Upscaling-Methode, die keinem primitiven Interpolationsalgorithmus folgt. Stattdessen erfolgt das Upscaling durch ein neuronales Netz, das mit Screenshots aus dem Spiel trainiert wird sowie die Bewegung des Spielers berücksichtigt.

Möglicherweise liegt es nur daran, dass ich im Bereich des maschinellen Lernens aktiv bin und dadurch die Komplexität und Innovationskraft dieses Verfahrens einschätzen kann. Aber seid doch wenigstens so gut und lest euch wenigstens Grundlagen an, bevor hier derartig vorschnell unsinnige Urteile vom Kaliber
gefällt werden.
 
Zuletzt bearbeitet:

Wadenbeisser

Rear Admiral
Dabei seit
Jan. 2015
Beiträge
5.657

Chris_S04

Lt. Commander
Dabei seit
Mai 2011
Beiträge
2.037
statt eines trilinearen ein „brilinearer“ Filter benutzt, sofern dies ohne Qualitätsverlust möglich war. Der Unterschied zwischen Standard und Advanced war, dass die höhere Stufe den brilinearen Filter früher einsetzte.
Müsste das nicht "bilinear" heißen? ;)

Aber wieder ein interessanter Artikel, wie auch früher immer wieder mit allen möglichen, teils schmutzigen, Tricks gearbeitet wurde um in Benchmarks den längsten Balken zu haben.
 

PuppetMaster

Admiral
Dabei seit
Sep. 2001
Beiträge
8.210
Top