Bericht Bericht: Versteckspiele bei ATis Texturfilter

Endurance schrieb:
Ich habe da gerade was im Forum von rivastation gefunden von Borsti. Der Name dürfte einigen hier ein Begriff sein.

Hier seine Meinung:
[Brostis Quote]

Bin voll und ganz seiner Meinung.

CU Endurance
Ich kann mich dem auch größtenteils anschließen. Ich kann auch zwischen den beiden Screenshots im Artikel von CB subjektiv keinerlei Qualitätsunterschied feststellen, und ich denke, dass geht den meisten so.
Weiterhin behaupte ich, dass man, wenn man einen 3. Screenshot einer nVidia-Karte daneben stellen würde, einen viel größerer Qualitätsunterschied feststellen würde als zwischen den beiden ATI-Screenshots. Von daher dürfte man überhaupt gar keine herstellerübergreifenden Grafikkartenvergleiche mehr durchführen.

Ich sehe die Sache deshalb folgendermaßen:
Jeder Hersteller (sowohl ATI als auch nVidia) führen diverse Optimierungen durch, die fast alle geringfügig auf die Bildqualität gehen. Die Hersteller trffen auch die Entscheidung, wie viel Wert sie auf Optimierung und wie viel Wert sie auf Bildqualität legen.

Es ist für mich auch nachvollziehbar, dass man den User nicht mit Einstellungen zur Abschaltung von guten Tweaks nervt, deren Qualitätsgewinn für sie eh nicht subjektiv wahrnehmbar sind. Man kann sich höchstens darüber streiten, ob ATI für ein paar Freaks nicht doch einen Schalter hätte einbauen sollen, aber dann gäbe es bei nVidia- und ATI-Tribern wohl sehr viele praktisch nutzlose Einstellungsmöglichkeiten.

Optimierungen, die nicht auf spezielle Anwendungen (wie 3DMark) ausgelefgt sind, sind deshalb prinzipiell gar kein Problem, solange die Bildqualität nicht merklich drunter leidet.

Das Grafikkartengeschäft folgt nicht den Regeln eines Kindergeburtstags, sondern denen der freien Marktwirtschaft: Ihr bekommt ein fertiges Produkt angeboten, welches u.A. mit einer gewissen Bildqualität und mit diversen Optimierungen ausgeliefert wird. Wenn ihr mit der Bildqualität und den Optimierungen einer ATI-Karte nicht zufrieden seid, so kauft Euch doch eine eines anderen Herstellers.

Fazit:
Jeder Hersteller optimiert. Solange diese Optimierungen sich nicht merklich auf die Bildqualität auswirken empfinde ich diese Tatsache als Service.
 
Zuletzt bearbeitet: (Grammatikfehler)
- Es gibt für den Betrachter keinen Qualitätsunterschied zwischen den Karten.
- Ihr habt nicht alle verwendeten Tools - vor allem das entscheidende - zum Download verlinkt, der "gemeine Leser" kann eure Ergebnisse ergo nicht überprüfen.
- Der Vergleich zu den nVidia-Karten ist das Interessante - wie hier auch schon gesagt wurde.
- Wenn alle Aussagen des Artikels wirklich so zutreffen, ist es eine Sauerei, dass ATi diese Optimierungen nicht dokumentiert .
- Ich bin der Überzeugung, dass sowohl bei nV als auch bei ATi noch dutzende elementare "Cheats" in den Treibern sind, die bloß niemand kennt. Optimierungen, die die subjektive Bildquali gar nicht bis minimal (so richtig minimal) beeinträchtigen, sind absolut legitim. Wenn man die aber dokumentiert, gibt es wieder ein paar Freak-Seiten, die auf den theoretischen IQ-Verlusten herumreiten. Und hunderte andere Seiten, die die Artikel gar nicht erst verstehen und dümmlich aus dem Fazit der Freak-Artikel abschreiben und ganz groß herausbringen, was für gemeine Cheats XY in seinen Treibern hat. Und wer die "Cheats" am allerallerschlimmsten darstellt, kriegt die meisten Visits - die Hardwareseiten-Szene steht der normalen Fernseh-Presse in der Beziehung in nichts nach.
 
Madden. schrieb:
- Es gibt für den Betrachter keinen Qualitätsunterschied zwischen den Karten.
- Ihr habt nicht alle verwendeten Tools - vor allem das entscheidende - zum Download verlinkt, der "gemeine Leser" kann eure Ergebnisse ergo nicht überprüfen.
- Der Vergleich zu den nVidia-Karten ist das Interessante - wie hier auch schon gesagt wurde.
- Wenn alle Aussagen des Artikels wirklich so zutreffen, ist es eine Sauerei, dass ATi diese Optimierungen nicht dokumentiert .
- Ich bin der Überzeugung, dass sowohl bei nV als auch bei ATi noch dutzende elementare "Cheats" in den Treibern sind, die bloß niemand kennt. Optimierungen, die die subjektive Bildquali gar nicht bis minimal (so richtig minimal) beeinträchtigen, sind absolut legitim. Wenn man die aber dokumentiert, gibt es wieder ein paar Freak-Seiten, die auf den theoretischen IQ-Verlusten herumreiten. Und hunderte andere Seiten, die die Artikel gar nicht erst verstehen und dümmlich aus dem Fazit der Freak-Artikel abschreiben und ganz groß herausbringen, was für gemeine Cheats XY in seinen Treibern hat. Und wer die "Cheats" am allerallerschlimmsten darstellt, kriegt die meisten Visits - die Hardwareseiten-Szene steht der normalen Fernseh-Presse in der Beziehung in nichts nach.

a) Das Tool zum Bildvergleich wurde eigens geschrieben - es nicht dokumentiert und wird wenn, dann erst, wenn es ohne Vorkenntnisse zu verwenden ist, vom Autor (des Tools) freigegeben.
Damit sollte es auch gehen, aber nicht so eindeutig.

b) Der Vergleich zu nV mag zwar interessant sein, aber wir haben leider keine NV40 mehr hier rumliegen. Ausserdem geht es eigentlich darum, daß die Bildqualität mehr und mehr gesenkt wird - und das dann Slogans wie "1600x1200 4xAA 16xAF turn it all on!" irgendwie witzlos sind.

c) Ja.

d) Ack. Wir haben aus diesen (und aus rechtlichen) Überlegungen heraus auch bewußt das CH***-Wort vermieden.
 
Zuletzt bearbeitet:
In Zukunft sollten Benchmarks, um Treiber und Spiele Optimierungen auszuschließen, nur mit Spielen die nicht so weit verbreitet sind gemacht werden. Wenn Spiele die älter sind oder weniger Populär genommen werden, kann mann eventuell vorher schon Faire Benchmarks fahren. Ansonsten kann ich zu den Treibertweaks nicht viel sagen da es mir im Grunde egal ist solange die Bildqualität stimmt. Wobei eine ATI Karte eh nicht in den Rechner kommt, da der Chip kaum weiterentwickelt wurde und Nvidia mit PS 3.0 für meine Bedürfnisse die nächsten 2 Jahre abdecken wird. Bleibt nur zu hoffen, das es bald eine 6800 ?? mit 12 Pipes und GDDR3 Speicher geben wird.

Uga Aga
 
Wollte nur auf eins Hinweisen:


HierarchichalZ, Bestandteil von HyperZ HD, funktioinert jetzt auch pro Pixelprozessor


Wird mir hoffentlich net übel genommen...
 
Hausmeister schrieb:
Wollte nur auf eins Hinweisen:


HierarchichalZ, Bestandteil von HyperZ HD, funktioinert jetzt auch pro Pixelprozessor


Wird mir hoffentlich net übel genommen...
Dir natürlich nicht, aber unseren Lektoren!
 
Frank war's :D
 
Das Problem dieses Methode seitens ATI ist, dass die Tester zu dem Trugschluss kommen, dass sie mit dem Rtool voll Tri-filtern, was nicht der Fall ist. Das Problem bei der max. Bildquali ist, dass jeder versucht, sich besser ins rechte Licht zu rücken. NV bot an, die Brilliearität am Treiber abzuschalten. Jeder tat das. Problem. Die meisten schalteten aber die Optimierung seitens ATI nicht. Genauso testeten einige 8xAA von NV, mit Multisampling, gegen das temporale Antialiasing von ATI 8xAA (real eigentlich 4xAA). Man erwähnte aber hierbei nicht die Nachteile von tA.

Genauso ist es, wenn man irgendwelche Einstellungen hat, die höchte BQ bieten würden. Die meisten vergleichen Äpfel mit Birnen. Wie lange testeten einige Seiten NVs 4xAA gegen ATIs 4xAA, obwohl es eigentlich nicht vergleichbar war?

Das beste wäre, wenn sich alle Hersteller einigen würden, zumindest bei der höchsten BQ-Einstellung nicht zu cheaten. Ganz einfach das böten, was der User will. Nur müsste der Hersteller hier auf viel Macht und Spielraum verzichten, wohingegen der User viel gewinnen würde.

Was die Hersteller bei den Default-Settings machen, ist mir Schnuppe. Aber bei High-BQ sollte man nicht cheaten. Speziell bei einer Grafikkarte, wofür ich 500€ zahle. Ich will ja auch kein Mercedes haben, der von 0 - 100 auf Papier nur 5sek, aber in Wirklichkeit 8sek braucht.
 
Zuletzt bearbeitet:
Hausmeister schrieb:
Ein "i" fehlt aber noch :baby_alt: :D
Jetzt is' aber mal gut.... könnt ihr nicht 'ne Sammlung machen und mir dann alle Tippfehler auf einmal präsentieren? ;D
 
na ja, leute...

WAYNE :rolleyes:

gut, nun zu einer sprache die wohl mehr akzeptanz findet:

performance optimierungen aufgrund der bildqualität, die für das menschliche auge nicht sichtbar sind, sind KEIN beschiss

wenn ihr die verkaufsfertigen karten testet bitte ich um folgendes:

- unkomprimierte screenshots bei mehreren spielen auf "normaler bildqualität"
- unkomprimierte screenshots bei mehreren spielen auf "maximaler bildqualität"

wenn man da von auge keinen unterschied feststellt, DARF man nicht behaupten, dass ein grafikkarten hersteller betrügt.
ich möchte sogar soweit gehen und sagen, dass egal wie stark die bildqualität auf grund der performance beschnitten wird, es ist NIE ein beschiss, aber der käufer sollte durch screens die unterschiede sehen und für sich entscheiden was ihm wichtiger ist. bildqualität oder performace.

also, ausserdem fehlt mir nach wie vor ein vergleich, wo man sieht, dass die bildqualität einer karte schlechter ist als die einer anderen...

solange ich keinen unterschied sehe, dürfen die grafikkarten hersteller die bildqualität auf grund der performance beschneiden so viel sie wollen !!
Und ich habe noch KEINEN screenshot, oder screenshot vergleich gesehen wo man einen qualitäts unterschied zwischen 2 karten sehen würde !!
 
Da muss ich dir absolut widersprechen.

h0munkulus schrieb:
ich möchte sogar soweit gehen und sagen, dass egal wie stark die bildqualität auf grund der performance beschnitten wird, es ist NIE ein beschiss

Wenn der Hersteller ein Datenblatt abliefert und mit Shader 3.0 oder trilinearen Filtern wirbt, dann muss er diese auch liefern.

Möchtest du etwa behaupten, dass Audi 18 kW weniger in ihren Audi TT quattro liefern dürfen, nur weil du den Unterschied zwischen 147 und 165 kW nicht merkst?
 
Doch, hab schon Unterschiede zwischen Karten gesehen.
Und hätte ATi nicht versucht das ganze zu vertuschen, indem sie anders filtern sobald die Einfärbung aktiviert wird, wär es ja sofort offensichtlich gewesen und kein Täuschungsversuch.
 
Wenn die Optimierungen so versteckt sind, dass sie nicht auffallen, wieso muss man dann bei einer Einfärbung der Mipmaps plötzlich richtig filtern? Vielleicht, weil man sonst das, was man im Spiel sieht, richtig zeigen kann?

Beschiss ist, wenn man etwas nicht einhält, das man verspricht. Ich habe jemanden auch betrogen, wenn dieser es nicht merkt, nur habe ich in dem Fall das Glück, davonzukommen. Daher finde ich das Ganze doch ziemlich derb - so gut hat bis jetzt noch niemand vertuscht...
 
Jo, man gaukelt etwas vor, was nicht ist. Das ist im Höchsten Grade Beschiss. Bei NV wusste man, dass "gecheatet" wird. Bei ATI hingegen, lässt man den USer im Glauben, er würde via Software so einstellen, dass Tri-gefiltert wird, aber in wirklichkeit nicht der Fall ist. Ich glaube einige sehen hier den Ernst der Lage nicht.
 
BodyLove schrieb:
Jo, man gaukelt etwas vor, was nicht ist. Das ist im Höchsten Grade Beschiss. Bei NV wusste man, dass "gecheatet" wird. Bei ATI hingegen, lässt man den USer im Glauben, er würde via Software so einstellen, dass Tri-gefiltert wird, aber in wirklichkeit nicht der Fall ist. Ich glaube einige sehen hier den Ernst der Lage nicht.

Also die Welt wird sich schon noch weiterdrehen, als beruhige dich mal wieder. (Es könnte noch einer auf die Idee kommen, du seiest ein Mädel ;))

Erstmal bleibt immer noch der Beweis aus, dass diese Optimierungen auch einen sichtbaren Nachteil haben. Wenn nicht, ist diese sogar legitim, da ja alle Anwendungen davon profitieren - nicht nur 3DMurks.

Kann nicht CB mal einen Split-Vergleichs-Screenshot 9600-9800 machen, bevorzugt 1280er Auflösung? Bei denen im Artikel ist gar kein Unterschied auszumachen...
 
Screenshots beweisen diesen Fall nicht. Du wirst bestimmt auch nach Unterschieden bei den Ingame-Screenshots gesucht, aber nicht gefunden haben. Diesen Cheat merkt man eher im Spiel selbst.

Ich meine das eigentlich ganz ernst. Mir wird Tri versprochen, aber ich bekomme trotzdem bri / bi. Bei NV gab man zumindest zu, dass man Bri filtert. Bei Ati hat man sogar versucht, dies zu vertuschen. Das ist schon arg übel. Man braucht dies nicht klein zu reden.
 
wo liegt das problem...
muss man mit den 165 kW angeben ??

klar, es ist nicht richtig, dass ATI das ganze nicht deklariert hat !!

aber der rest ist doch bis jetzt nur heisse Luft... damals wurde das ganze bei nVidia auch unendlich hochgepusht :rolleyes:

mal ehrlich:
solange niemand beweist, dass die bildqualität schlechter ist, als bei anderen grafikkarten bin ich über mehr performance ganz glücklich ;)
die ausführungen von CB sind sicher beweise, aber ich kann von auge keinen unerschied feststellen !! und solange sehe ich den performance gewinn als etwas positives, auch wenn die haltung von ATI das ganze nicht zu deklarieren schlecht ist...
 
h0munkulus schrieb:
wo liegt das problem...
muss man mit den 165 kW angeben ??

klar, es ist nicht richtig, dass ATI das ganze nicht deklariert hat !!

aber der rest ist doch bis jetzt nur heisse Luft... damals wurde das ganze bei nVidia auch unendlich hochgepusht :rolleyes:

mal ehrlich:
solange niemand beweist, dass die bildqualität schlechter ist, als bei anderen grafikkarten bin ich über mehr performance ganz glücklich ;)
die ausführungen von CB sind sicher beweise, aber ich kann von auge keinen unerschied feststellen !! und solange sehe ich den performance gewinn als etwas positives, auch wenn die haltung von ATI das ganze nicht zu deklarieren schlecht ist...

Wie ich schon schrieb. Mit einem Screenshot wirst du den Unterschied nicht sehen können. In Bewegung wird es dir auffallen. Bei einer Mainstream-Karte ist möglicherweise diese Tat, als berechtigt zu empfinden. Nur handelt es sich hierbei um Karten, die nicht in Regionen arbeiten, die, um spielbare Resultate zu bringen, diese Tat bräuchten. Je mehr ich solche Bemerkungen höre, desto mehr verstehe ich, wieso sich die Hersteller dies "einfallen" lassen. Die User sind FPS-Geil und wollen gar nicht bessere BQ.
 
Da kann ich BodyLove nur zustimmen.

Es gibt teilweise in der Qualität solche Einbußen, dass du vor die auf dem Boden in Need for Speed oder bei Shootern siehst, wie sich der verschwomene Boden wegbewegt, wenn du näher kommt. Im Umkreis von - ich tipp einfach mal - 5 m rund um dich herum sieht alles sau geil aus mit Asphalt, der aussieht, wie ausphalt, mit Steinen, die aussehen wie echte Steine, aber danach ist alles unschaft, verschwommen und verwischt. Wie früher bei HL1 oder CS. Jedoch sind wir nicht mehr im Jahre 1997!

h0munkulus schrieb:
wo liegt das problem...
muss man mit den 165 kW angeben ??

Könntest du mir das hier noch erklären, was das mit angeben oder so zu tun hat?
 
Zurück
Oben