News Im Test vor 15 Jahren: Als ATi und Nvidia bei der Qualität mogelten

Robert

Redakteur
Teammitglied
Registriert
Feb. 2009
Beiträge
1.662
  • Gefällt mir
Reaktionen: ro///M3o, aid0nex, von Schnitzel und 14 andere
Heute lachen wir darüber.
Dafür schlagen wir uns mit Speicherkrüppeln und anderen Dingen rum...

btw: Warum ist "mogelten" in der Vergangenheitsform?
 
  • Gefällt mir
Reaktionen: dister1, aid0nex, Wintermute und 12 andere
Dito schrieb:
Heute lachen wir darüber.
Dafür schlagen wir uns mit Speicherkrüppeln und anderen Dingen rum...

btw: Warum ist "mogelten" in der Vergangenheitsform?
Das frag ich mich auch, heute heist es nur anders (DLSS 2.0 und AI-Rendering) und wird von allen gefeiert als neue geniale Features.
 
  • Gefällt mir
Reaktionen: Bonanca, SteeL1942, dister1 und 28 andere
konkretor schrieb:
Selbst Hardware Hersteller waren damals mit dabei

An den Skandal erinnere ich mich sehr gut. Das gab einen riesigen Aufschrei.
 
  • Gefällt mir
Reaktionen: konkretor
wenn ich mir so die Bilder anschaue, hätte ich eine Idee für Nvidia und AMD:
AF-Einstellungen grundsätzlich ignorieren (abschalten) und einfach die bekannten Schärfefilter verwenden = free FPS
 
Ich habe damals keine Unterschiede gesehen und es gab immer nur "aus" oder "hohe Leistung" weil die Grafikkarte damals gerade so gereicht hat. Das Budget für high end war halt nicht da.
 
  • Gefällt mir
Reaktionen: aid0nex, testwurst200, cbmik und 2 andere
Dito schrieb:
Heute lachen wir darüber.

btw: Warum ist "mogelten" in der Vergangenheitsform?
Heute wird sowas eben als Feature verkauft und so deutlich weiter getrieben als damals.
Es wird zur Leistungssteigerung mit einer schlechteren Shader Qualität und geringeren Auflösung gerechnet, es als Feature verkauft und gleichzeitig entgegen besseren Wissens nicht zwischen dem orginalen und dem "optimierten" Zustand unterschieden. Gleichzeitig habe ich seit einer Ewigkeit keine solchen Qualitätstests mehr gesehen.
 
  • Gefällt mir
Reaktionen: dister1, Hembi, aid0nex und 18 andere
canada schrieb:
Das frag ich mich auch, heute heist es nur anders (DLSS 2.0 und AI-Rendering)

Kompletter Schwachsinn. Damit offenbarst du nur deine totale Unkenntnis der hinter DLSS stehenden innovativen Technologie. Mit dem Thema des Artikels hat das jedenfalls gar nichts zu tun.
 
  • Gefällt mir
Reaktionen: Thor-75, Cohen, Conqi und 14 andere
@KuestenNebel

Warum? DLSS ist Auflösungscheating in Reinkultur.
Es wird zur Leistungssteigerung eine deutlich höhere Auflösung ausgegeben als in der das Bild berechnet wurde und das Ergebnis der schlechteren Berechnung in einem Zwischenschritt mit vorgegebenen Einstellungen aufpoliert.
 
  • Gefällt mir
Reaktionen: Mickey Cohen, Geisi, dister1 und 28 andere
KuestenNebel schrieb:
Kompletter Schwachsinn. Damit offenbarst du nur deine totale Unkenntnis der hinter DLSS stehenden innovativen Technologie. Mit dem Thema des Artikels hat das jedenfalls gar nichts zu tun.
Ich zitiere mal aus einem Test: "Ursächlich dafür ist Nvidias Entscheidung, DLSS als Entlastungsmaßnahme zu bewerben, die bei vergleichbarer Qualität die Leistung erhöht. Dahinter steckt keine Zauberei, sondern ein uralter Trick: Die interne Render-Auflösung fällt bei aktivem DLSS geringer aus als die im Spiel eingestellte. Es liegt in der Natur der Sache, dass eine reduzierte Auflösung zu entsprechend geringerer Qualität und stärkerem Aliasing führt. Hier setzt das Herzstück von DLSS an: Die Software weiß aus den Trainingssessions, welche Informationen verlorengehen, und versucht diese nach bestem Wissen spatial (räumlich) und temporal (zeitlich) aufzuwerten."

Nix anderes haben die früher gemacht, da wurde es nur nicht als AI, Deep Learning und schieß mich tot bezeichnet.

EDIT: Ist kein reines gebashe gegen nV, AMD trickst genauso.
 
  • Gefällt mir
Reaktionen: Mickey Cohen, dersuperpro1337, dister1 und 30 andere
Solche Qualitätstests würden mich auch bei modernen Features auf modernen Grafikkarten interessieren. Gerade mit Raytracing bahnt sich da ja wieder ein Lauf der unterschiedlichen Techniken mit unterschiedlichen Ergebnissen an.
 
  • Gefällt mir
Reaktionen: lord_mogul
Bei guter Umsetzung, und offener Kommunikation finde ich solche "Mogeleien" gut. Der Qualitätsverlust sollte halt im Rahmen bleiben.

Seit dieser Zeit habe ich im Nvidia Treiber immer 'höchste Qualität' eingestellt. Meiner Meinung nach war der Leistungsgewinn durch Anpassung der anisitropen Filterung bei Nvidia nie den Qualitätsverlust wert.
Ich wundere mich heute immer wieder, warum es überhaupt noch die Möglichkeit gibt, das AF in Spielen einzustellen. Das kostet doch fast gar keine Leistung!?

Bei The Witcher 3 gibt es im Grafikmenü keine Option das AF einzustellen, dabei hättet es dieses Spiel bitter nötig. AF im Treiber auf 16x erzwungen sieht es deutlich besser aus.
 
  • Gefällt mir
Reaktionen: ohman, Lübke82, paccoderpster und 4 andere
Zunächst einmal ist es kein "Cheating". Deine Wortwahl suggeriert, dass hier irgendetwas heimlich passiert. Schwachsinn.

Zum anderen handelt es sich hierbei um eine komplett neue Upscaling-Methode, die keinem primitiven Interpolationsalgorithmus folgt. Stattdessen erfolgt das Upscaling durch ein neuronales Netz, das mit Screenshots aus dem Spiel trainiert wird sowie die Bewegung des Spielers berücksichtigt.

Möglicherweise liegt es nur daran, dass ich im Bereich des maschinellen Lernens aktiv bin und dadurch die Komplexität und Innovationskraft dieses Verfahrens einschätzen kann. Aber seid doch wenigstens so gut und lest euch wenigstens Grundlagen an, bevor hier derartig vorschnell unsinnige Urteile vom Kaliber
canada schrieb:
Nix anderes haben die früher gemacht

gefällt werden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Thor-75, god-necromant, pietcux und 17 andere
Heute wird noch noch gemogelt was die Kantenglättung bei Spielen angeht.

MS / SS gibts kaum noch nativ, sondern nur noch diese Unschärfefilter die keine richtige Kantenglättung sind.
 
  • Gefällt mir
Reaktionen: lord_mogul, dersuperpro1337, dister1 und 12 andere
KuestenNebel schrieb:
Möglicherweise liegt es nur daran, dass ich im Bereich des maschinellen Lernens aktiv bin und dadurch die Komplexität und Innovationskraft dieses Verfahrens einschätzen kann.
Kann es sein das dir vielleicht einfach nur der nötige Abstand zur Materie fehlt weil du mitten drin steckst?
 
  • Gefällt mir
Reaktionen: Bonanca, dersuperpro1337, dister1 und 14 andere
statt eines trilinearen ein „brilinearer“ Filter benutzt, sofern dies ohne Qualitätsverlust möglich war. Der Unterschied zwischen Standard und Advanced war, dass die höhere Stufe den brilinearen Filter früher einsetzte.

Müsste das nicht "bilinear" heißen? ;)

Aber wieder ein interessanter Artikel, wie auch früher immer wieder mit allen möglichen, teils schmutzigen, Tricks gearbeitet wurde um in Benchmarks den längsten Balken zu haben.
 
  • Gefällt mir
Reaktionen: sysrq, Renegade334 und t3chn0
@Wadenbeisser

Ist das auch dein Argument, das Du jedem Wissenschaftler gegenüber bringst, um eine inhaltliche Auseinandersetzung zu vermeiden? "Sorry, dir fehlt der Abstand". Köstlich :D
 
  • Gefällt mir
Reaktionen: Burfi, pietcux, sysrq und 11 andere
@KuestenNebel

Was hat das mit Wissenschaft zu tuen?
Bei der DLSS Diskussion geht es um ein Feature das intern qualitativ schlechter arbeitet als der Standard Zustand aber die beiden Endergebnisse bei der Frage der Leistung nur allso bereitwillig direkt verglichen weil die Ausgabeauflösung an den Monitor die gleiche ist.
 
  • Gefällt mir
Reaktionen: Bonanca, dersuperpro1337, dister1 und 16 andere
Zurück
Oben