News Qualität des anisotropen Filters bei ATi geändert

Status
Für weitere Antworten geschlossen.

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.623
Früher war es in der Grafikkartenbranche durchaus üblich: Der Hersteller, der das langsamere Produkt hatte, suchte nach Tricks, um die Performance zu erhöhen. Fündig wurde man oftmals beim anisotropen Filter, über den sich schnell Rechenaufwand einsparen und somit die Geschwindigkeit erhöhen lässt.

Zur News: Qualität des anisotropen Filters bei ATi geändert
 
Früher lag da ATI weit vor NV und heute haben die Treiber wirklich nachgelassen sehr schade.
Verstehe ich wieso ATI/AMD das nicht ändert das schadet doch nur.
 
zumindest im AF-Tester brilinear filtert, obwohl dieser eingefärbte MipMaps anzeigt.
Äh, ja. Mischung aus bilinear und trilinear, quasi 2,5-linear :D

EDIT: Ok, dann wirds wohl richtig sein. Klingt aber trotzdem komisch...
 
Zuletzt bearbeitet:
"Früher" ist relativ. Zu GF5/6-Zeiten z.B. durchaus, zu GF4-Zeiten war NVidia wohl ungeschlagen. Der Artikel erwähnt es ja: das ist wechselnd. Kann sein das NV nächstes Jahr auch Bullshit-AF anbietet kann aber auch sein dass sie es weiter verbessern.
 
@AndrewPoison

"Kann sein das NV nächstes Jahr auch Bullshit-AF anbietet kann aber auch sein dass sie es weiter verbessern."

Das ist doch mal eine definitive Aussage :D

MfG Suessi22
 
Unschuldig ist dabei in der Vergangenheit keiner geblieben: Sowohl ATi als auch Nvidia haben den anisotropen Filter mehr als nur einmal „optimiert“. In letzter Zeit ist jedoch glücklicherweise Stabilität in die Geschichte gekommen. Der anisotrope Filter wurde zwar nicht besser, jedoch immerhin genauso wenig schlechter. Zumindest bis vor kurzem.
Der Absatz ist grob irreführend, vermutlich eine Formulierungspanne und keine Absicht.

Im Moment liest sich das so, als ob beide Schweinereien veranstaltet hätten, jetzt aber wenigstens auf niedrigem Niveau konstant sind. Das stimmt nicht, Nvidia hat nach G70 eine radikale Kehrtwende vollzogen, liefert seither einen erstklassigen Filter und hat daran auch nichts geändert. ATI dagegen ist seit r580 auf niedrigem Niveau konstant, wobei >r600 eher ein klein wenig schlechter filtert.

Also nehmt Nvidia da bitte raus, "zwar nicht besser, jedoch immerhin genauso wenig schlechter" trifft nur auf ATIs niedriges Niveau zu, Nvidia spielt in einer anderen Liga und hat mit G80 eine Messlatte gelegt, die seither unverändert Bestand hat. :)
 
Also ich verstehe von dem Artikel fast nichts ^^

Aber mal davon ab: ich finde die Vergleichsbilder schlecht gewählt.
Es sollte möglich sein, die Auswirkungen A.I. Einstellung "off" und "default" direkt nebeneinander zu sehen.
Also eine AF-Blume die gesplittet ist, links off und rechts default, z.B.

Vielleicht könnte dann auch ein Grafikfilter-Laie wie ich überhaupt irgendeinen Unterschied in den Grafiken erkennen xD

@smith

Also ich erinnere mich noch recht deutlich an einen Artikel einer G80 Graka bei Toms Hardware, wo der Nvidia ein qualitativ schlechteres Ergebnis als der ATI attestiert wurde.
Und behaupten kann jeder immer viel, liefere Tests die deine Aussagen bestätigen.
 
Zuletzt bearbeitet:
@smith0815
Da hast du recht. Der war einfach unglücklich formuliert, habe es jetzt mal geändert.

@Lagerhaus_Jonny
Du kannst die Bilder in mehreren Tabs öffnen und dann hin und her switchen. So sieht mans am besten.
 
Naja irgendwo muss die Leistung ja herkommen, wenn sie schon die ganzen TMUs einsparren.:freak:

edit: man müsste sie mit AI Off Benchmarken, dann würde ihnen dieser Mist schon vergehen!
 
Papst_Benedikt schrieb:
Äh, ja. Mischung aus bilinear und trilinear, quasi 2,5-linear :D Bitte das mal auf eins von beiden ändern.

es ist schon richtig so wie es da steht. eine mischung aus bi und trilinear. einfach mal 2 zeilen weiter lesen.

@thema: wenn es kein bug ist, frage ich mich wirklich was das soll. diese "optimierung" dürfte doch höchstens 1-2% bringen oder? das schadet dem markenimage deutlich mehr als es die minimal besseren benchmarks raus reißen können.
 
Zuletzt bearbeitet:
Lagerhaus_Jonny: Wenn du da keinen Unterschied siehst, brauchst du ne Brille. ;)

Da kannst du dir anschauen, dass der G80 "besser" ist.

(Zum RV870 hat sich bis jetzt nix geändert)

Besser ist relativ, manche mögen die höhere Schärfe bei ATI (bedingt durch negativen Level of Detail), manche stören sich am Flimmern (ich kann es bestätigen, also ich sehe es (selten), aber stören tuts mich nicht).
 
Lagerhaus_Jonny schrieb:
Also ich erinnere mich noch recht deutlich an einen Artikel einer G80 Graka bei Toms Hardware, wo der Nvidia ein qualitativ schlechteres Ergebnis als der ATI attestiert wurde.
TomsHardware also, ohne den Artikel zu kennen würde ich mal raten, dass sie sich Screenshots angeschaut haben und die von ATI so richtig "knackig scharf" waren. :D

Ich muss hier überhaupt nichts beweisen, dass Nvidia seit G80 in der Einstellung Q besser als ATI und in der Einstellung HQ nahezu makellos filtert kannst du auf jeder halbwegs kompetenten Seite nachlesen. ATI spart sich Samples und lässt auch nicht zu, die Sparmaßnahmen zu deaktivieren. Lediglich bei der Bewertung dieser Sparmaßnahmen ("ALDI-Filter" oder "recht hohes Niveau") gehen die Meinungen auseinander, hier auf ComputerBase zum Beispiel sieht man das sehr wohlwollend, anderswo kritischer.

Deshalb hat Wolfgang den Artikel ja nach meiner Kritik auch abgeändert, Nvidia in den ATI-Sumpf zu ziehen war ein Mißgeschick und jetzt steht zu lesen:
In letzter Zeit ist jedoch glücklicherweise auf hohem (Nvidia) und recht hohem (ATi) Niveau Stabilität in die Geschichte gekommen.
Würde ich so nie unterschreiben, aber "recht hohes Niveau" ist ja subjektiv und da kann man immer streiten. Über Fakten kann man nicht streiten und dass ATI die Texturfilterung noch immer auf Sparniveau betreibt liegt einfach daran, dass man zwar deutlich mehr Filtereinheiten verbaut hat als noch beim verkorksten R600, aber eben noch nicht genug und man sich nicht die Shaderleistung limitieren will.

Übrigens würde ich gern wieder eine ATI-Karte erwerben, aber da ich in Sachen Bildqualität keine Kompromisse machen will habe ich zur Zeit leider keine Wahl und das ist schlecht.
 
ich finde es toll, obwohl ich als Grafik-Laie praktisch kein Wort im Bericht verstanden habe, dass ihr auch solche Finessen rausfindet und direkt mit den Herstellern Kontakt sucht und euch der Sache annehmt! Weiter so.
 
@ KAOZNAKE

Nö, relativ ist an besser nichts, denn wenn ich höhere Schärfe will und dabei filimmern in Kauf nehme, kann ich ds MipMapping auch komplett abschalten - deswegen ist meiner Meinung eine Argumentation, ein negatives LOD-Bias könne einen Sinn haben, sinnlos.

Naja, solche Spielereiensind halt der Grund für mich, warum ich A.I., als ich noch eine ATI-Karte hatte, immer deaktviert hatte - sowas ist einfach ein Witz. Bei Nvidia sind bei mir aber auch nicht nur alle "Optimierungen" aus - was schon ein Unwort an sich ist, denn ich finde das rechenintensivere, aber schönere Bild näher am Optimal - sondern auch Texturfilterungsqualität auf "Hohe Qualtität".

Schade ist nur, dass man in Spieletests so nie erfährt, wie ausreichend die eigene Hardware eigentlich in einem Spiel wäre - aber ich lese eh schon seit Jahren keine Spieletests mehr.

P.S.
Um sicher zu gehen, dass das LOD-Bias in einem Spiel auf Nvida-Hardware nicht als "Anwendungsoptimierung" negativ geschaltet wird, muss ich bei Nvidia aber auch eine zusätzliche Einstellung im Treiber-Menü umstellen.
 
Zuletzt bearbeitet:
Für mich sieht das nur so aus als hätte man im Cat 9.5 die Erkennung des AF Testers abgeschaltet. Ich hab das vor nichtmal so langer Zeit mal ausprobiert, wenn man das Programm umbenennt, dann sieht man auch mit einem älteren Catalyst bereits die Brilineare Filterung während mit dem original Namen der .exe das trilineare Bild zu Stande kommt.
 
MountWalker schrieb:
Um sicher zu gehen, dass das LOD-Bias in einem Spiel auf Nvida-Hardware nicht als "Anwendungsoptimierung" negativ geschaltet wird, muss ich bei Nvidia aber auch eine zusätzliche Einstellung im Treiber-Menü umstellen.

Ja, du musst bei Nvidia "LOD-Bias" auf "Clamp" stellen und die Texturfilterqualität auf "High Quality", dann hast du aber die Referenz in Sachen Texturfilterung. Bei ATI hast du diese Möglichkeit nicht, da erreichst du im Regelfall bestenfalls das Niveau von "Nvidia Quality" mit "A.I. Off".

Mathematisch korrekt zu filtern wäre natürlich möglich, aber kompletter Overkill, tatsächlich sollten Performancetweaks aber unsichtbar sein (Nvidia) und einem nicht ins Auge Flimmern (ATI). Lustig, dass die Leute ihren Sparfilter dann mit dem performanten 8xMSAA kombinieren, das hat sowas schaurig-schönes. :evillol:

Iceman346 schrieb:
Für mich sieht das nur so aus als hätte man im Cat 9.5 die Erkennung des AF Testers abgeschaltet.
Das darf man bezweifeln, ATI erkennt traditionell nicht die Anwendung, sondern die eingefärbten MIPs.
 
@ Lagerhaus_Jonny:
Hier gibt es eine ganz gute Zusammenfassung, auf was man beim AF-Tester zu achten hat. Kurz gesagt: Je kleiner und runder die "Blume", desto besser die AF-Qualität.


@ Topic:
Ich hoffe mal, dass es sich dabei um einen Bug und nicht um eine bewusste "Optimierung" handelt. Denn schlechteres AF können die ATI-Karten nun wirklich nicht gebrauchen. Obwohl diese Änderung wohl nur in den allerwenigsten Szenarien auffallen sollte.
Der Unterschied zwischen ATI und nVidia ist leider deutlich sichtbar, das war einer der Hauptgründe für mich von einer 4870 X2 wieder zurück zu nVidia zu wechseln, ebenso wie ich aus dem selben Grund damals von der 7800 GT auf die X1900 XT gewechselt habe.
Mir persönlich sind scharfe und flimmerfreie Texturen lieber als geglättete Kanten; insbesondere bei älteren Spielen (Oblivion mit 16x AF) fand ich das Flimmern auf der 4870 X2 einfach nur schrecklich. Auch mit deaktiviertem Catalyst AI (und damit ohne Crossfire) reicht die Qualität nicht an die GTX 285 heran.

Ich denke, dass sich diese Eigenheiten der Treiber auch an der Hardware orientieren, die ATI-Karten sind einfach mehr auf Shader- denn auf Texturleistung getrimmt, das zeigt sich schon daran, dass der RV770 ein TMU zu ALU Verhältnis von 1:4 (1:20, wenn man berücksichtigt, dass es sich um 5D-Einheiten handelt) hat, der GT200 dagegen von 1:3.
Vermutlich würde die Performance auf den ATI-Karten bei hochwertiger Texturfilterung relativ gesehen stärker einbrechen, als bei den nVidia Pendants.

Hoffentlich geht nVidia beim GT300 nicht den gleichen Weg, auch wenn bei (vermuteten) 512 ALUs ein TMU zu ALU Verhältnis von 1:4 mit 128 TMUs wahrscheinlich erscheint.
 
Also ich kann auch nur bestätigen, dass die AF Qualität bei den (aktuellen) ATI Karten merklich schlechter als bei den Nvidias ist.

Ich hab mich durch diverse Tests und Empfehlungen zum Kauf einer 4870 1G verleiten lassen (vorher hatte ich eine 8800GT 512), aber das Flimmern (bspw bei CoD 5) war dermaßen stark und nervig, dass ich die Karte nach 1 Woche zurückgeschickt hab (mal abgesehen vom Hitzeproblem).

Hab mir dann die GTX 260 Sonic geholt und ich finde es ist ein Unterschied wie Tag und Nacht und bereue den Kauf überhaupt nicht. Solange ATI so weitermacht, ist es mir egal ob sie in diversen Benchmarks 10% langsamer oder 10% schneller sind, ich bleibe bei Nvidia!
 
Das ist wieder sowas für Lupenzocker und wenn sogar im Text steht, dass es in der Praxis eh egal ist frag ich mich ob sowas die Aufregung wert ist, die es verursachen wird.

Naja und ansonsten hat Nvidia vielleicht stabilität bei der Bildqualität, dafür gehen die Chips aber leider kaputt. Auch wenn das eine nichts direkt mit dem anderen zu tun hat, zeigt es eben, dass jeder Hersteller seine Vorteile hat.

Dell-verbannt-Nvidia-fast-vollstaendig-aus-dem-Portfolio
http://www.pcgameshardware.de/aid,6...lstaendig-aus-dem-Portfolio/Grafikkarte/News/

@über mir:
du hast schon gelesen, dass es hier vermutlich nur um den neusten Catalyst 9.5 geht und nicht pauschal um alle ATI Karten? Vielleicht solltest du eher mal korrekt die Treiber einstellen, bevor du sowas sagst.
 
Zuletzt bearbeitet:
Iceman346 schrieb:
@ Topic:
Ich hoffe mal, dass es sich dabei um einen Bug und nicht um eine bewusste "Optimierung" handelt. Denn schlechteres AF können die ATI-Karten nun wirklich nicht gebrauchen. Obwohl diese Änderung wohl nur in den allerwenigsten Szenarien auffallen sollte.
Überraschung, am Sparfilter hat sich nichts geändert (siehst du auch an der Performance), was der AF-Tester jetzt versehentlich offenbart ist genau die Grütze, die ATI seit Jahren in Spielen liefert. Natürlich wird der Bug gefixt werden und ATI malt im AF-Tester dann wieder schöne Blumen, während man in Spielen weiter schludert. ;)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben