Im Test vor 15 Jahren: Als ATi und Nvidia bei der Qualität mogelten

Robert McHardy 125 Kommentare
Im Test vor 15 Jahren: Als ATi und Nvidia bei der Qualität mogelten

tl;dr: Vor 15 Jahren widmete sich ComputerBase der anisotropen Filterung bei ATi und Nvidia (Test). Zwischen den beiden Herstellern gab es deutliche Unterschiede hinsichtlich der Qualität der Filterung. Problematisch war dabei, dass sich viele der eingebauten Geschwindigkeitsoptimierungen nicht deaktivieren ließen.

Ein Filter für unscharfe Texturen

Anisotrope Filterung ermöglichte es, weit entfernte Texturen in Spielen scharf darzustellen. Damit sollte der Filter die Bildqualität wahrnehmbar verbessern. Aufgrund der hohen Leistungseinbußen entwickelten sowohl ATi als auch Nvidia Optimierungen. Diese senkten die Qualität der anisotropen Filterung, konnten aber schneller berechnet werden. Ein Problem war, dass sich die Optimierungen nur teilweise abschalten ließen und somit die Grafikqualität älterer Grafikkarten, bei denen dies noch möglich war, nicht mehr erreichen ließ. Zudem gab es deutliche Unterschiede zwischen ATi- und Nvidia-Grafikkarten.

Unübersichtliche Optimierungen

Bei ATi konnte im Catalyst Control Center nur zentral die Optimierungsfunktion „Catalyst A.I.“ in drei Stufen verstellt werden. Dahinter verbarg sich eine Erkennung der Dateinamen von Spielen, die dann mit im Vorhinein von ATi definierten Profilen gestartet wurden. So wurde je nach Spiel beispielsweise das Anti-Aliasing deaktiviert, der Textur-Cache optimiert oder gar die Shader ausgetauscht. Falls Catalyst A.I. deaktiviert wurde, wurden laut ATi keinerlei Optimierungen vorgenommen. In den Stufen Standard und Advanced wurde bei bestimmten Applikationen, die für Probleme in diesem Zusammenhang bekannt waren, das Anti-Aliasing deaktiviert. Zusätzlich wurden in diesen Stufen bei allen Applikationen bei Nutzung von anisotroper Filterung die einzelnen MipMap-Level analysiert und statt eines trilinearen ein „brilinearer“ Filter benutzt, sofern dies ohne Qualitätsverlust möglich war. Der Unterschied zwischen Standard und Advanced war, dass die höhere Stufe den brilinearen Filter früher einsetzte.

Catalyst A.I.
Catalyst A.I.
Qualitätsstufen des ForceWare-Treiber
Qualitätsstufen des ForceWare-Treiber
AF-Optimierungen bei Hohe Qualität
AF-Optimierungen bei Hohe Qualität
AF-Optimierungen bei Standardeinstellung (Qualität)
AF-Optimierungen bei Standardeinstellung (Qualität)
AF-Optimierungen bei Leistung
AF-Optimierungen bei Leistung
AF-Optimierungen bei Hohe Leistung
AF-Optimierungen bei Hohe Leistung

Bei Nvidia war die Situation etwas unübersichtlicher. Zum einen konnte unter dem Menüpunkt Systemleistung zwischen „Hohe Leistung“, „Leistung“, „Qualität“ und „Hohe Qualität“ gewählt werden. Zum anderen konnten unabhängig davon die Optionen „Trilineare Optimierung“, „Anisotrope Mip-Filter-Optimierung“ und „Optimierung des anisotropen Musters“ aktiviert werden. Standardmäßig wurde der Treiber mit der Einstellung Qualität und aktivierter trilinearer Optimierung sowie der Optimierung des anisotropen Musters ausgeliefert.

Deutliche Unterschiede bei Optik und Leistung

Optisch gab es auffällige Unterschiede zwischen den Optimierungsstufen. Insbesondere Nvidia machte hier einen negativen Eindruck. Während die Einstellung hohe Qualität ihrem Namen gerecht wurde, konnten schon bei den Standardeinstellungen visuelle Einbußen wahrgenommen werden. Bei Bewegungen war im Spiel ein unangenehmes Texturflackern wahrzunehmen. Wenn die Qualität auf Leistung gestellt wurde, wurde die gleiche (hochaufgelöste) MipMap bei höherer Distanz noch eingesetzt. Daraus folgte, dass das Bild schärfer wirkte, die Texturen aber noch sichtbarer flackerten. Wenn auf hohe Leistung geschaltet wurde, waren zusätzlich mehrere „Bugwellen“ sichtbar. Diese kamen durch den Übergang zwischen den MipMap-Levels zustande und wurden vor dem Spieler hergeschoben.

Anders sah es bei ATi aus. Zwischen allen drei Qualitätsstufen konnten weder im Spiel noch auf einem Screenshot sichtbare Unterschiede dargestellt werden. Erst beim Einsatz eines Programms, das die Unterschiede zwischen Bildern anzeigt, konnte ComputerBase minimale Differenzen feststellen. Die Leistungsunterschiede waren hingegen bedeutend. In 1.280 × 1.024 Bildpunkten konnten bei Nvidia bis 23 Prozent (6 Prozent von der Standardeinstellung) und bei ATi 10 Prozent (3 Prozent von der Standardeinstellung) Leistung gewonnen werden. In 1.600 × 1.200 Pixeln waren es bei Nvidia 27 respektive 8 Prozent und bei ATi 19 respektive 5 Prozent.

Damit blieb nach dem Test ein vielschichtiges Fazit. ATis Optimierungen konnten durchgehend überzeugen: Die Leistung stieg erheblich bei einem nicht wahrnehmbarem optischem Unterschied. Auf der anderen Seite standen die unübersichtlichen Einstellungsmöglichkeiten bei Nvidia, die zudem im Fall der beiden Leistungsprofile auch optisch nicht überzeugen konnten.

Im Jahr 2020 sind viele der damals aufgezeigten Techniken und ihre Kritikpunkte Geschichte. Zwischen den Herstellern gibt es generell bei gleichen Grafikeinstellungen qualitativ keine Unterschiede mehr. Die optisch abenteuerlichen Texturfilterungen gehören ebenfalls der Vergangenheit an.

In der Kategorie „Im Test vor 15 Jahren“ wirft die Redaktion seit Juli 2017 jeden Samstag einen Blick in das Test-Archiv. Die letzten 20 Artikel, die in dieser Reihe erschienen sind, führen wir nachfolgend auf:

Noch mehr Inhalte dieser Art und viele weitere Berichte und Anekdoten finden sich in der Retro-Ecke im Forum von ComputerBase.