Bericht Bericht: Versteckspiele bei ATis Texturfilter

Das Problem ist, daß es sich um zwei verschieden Chips handelt. Da gibt es immer single-bit Unterschiede. Das an sich ist ja auch nicht weiter tragisch.

Deswegen haben wir auch nicht nach Unterschieden zwischen den Chips gesucht (bzw. haben wir das schon, war aber relativ sinnlos - s.o.), sondern die Pixel herausgestellt, die auf demselben Chip überhaupt nicht von trilinearer Filterung profiteren, deren Farb- und Helligkeitswerte aufs Bit genau gleich sind.

Normalerweise dürfte das, wie bei dem Shot von der Radeon 9800XT, nur bei einem sehr sehr schmalen Band der Fall sein, wo es aufgrund der LOD-Bestimmung (die nicht pixelgenau erfolgt) unvermeidlich ist.

Wenn diese Bereiche an gleichen Pixeln nun in "Bändern" auftreten, läßt das eindeutig auf eine Filtermethode schliessen, die nicht dem trilinearen Standard entspricht - die reduziert-trilinear filtert.

Hier nochmal als Link das Bild von muh2k4 mit etwas niedrigerem Whitepoint.
Unterschiede sind massenhaft vorhanden - allerdings wie gesagt als Vergleich wertlos, selbst wenn das Bild nicht durch jpg-Kompression gelitten hätte.
http://home.arcor.de/quasat/FB-Pics/atinv.PNG

edit:
Silver, reg' dich nicht auf.
So ein Kommentar, auch wenn er halt nicht meiner Meinung ist, ist mir immer noch zehnmal lieber, als ein dumpfes "XXXXXX sucks, XXXXX rulz!" oder dergleichen.
 
Zuletzt bearbeitet:
@Carsten: ihr solltet vielleicht mal genauer beschreiben, welchen Algorithmus ihr zugrundelegt. Nur "irgendeine Pixeldifferenz" reicht da nicht ganz aus ;).

Und ein subjektiver Qualitätsvergleich bleibt immer noch aus, irgendwelche Bit-Genauigkeiten erkennt nunmal keiner...
 
Hier kannst du das Programm runterladen (brauchst allerdings das .NET-Framework 1.1). Vielleicht beantwortet das deine Frage.

Ein besonderer Algo ist da nichtmal im Spiel.
 
=) naja so drastig wuerde ich das vielleicht nicht formulieren, aber trotzdem ein Dankeschoen für die Anerkennung meiner ... naja ... Muehen.
 
Zuletzt bearbeitet:
Silver schrieb:
[...]
Im Übrigen würde ich euch bitten, nicht dauernd fett zu schreiben. Meint ihr, ich kann nicht lesen? Ich nehme diese Kommentare ebenso wahr, wie alle anderen auch, richtiger werden sie dadurch auch nicht...

wofür ist den "fette schrift" hier im forum verfügbar, etwa nicht um die besonders wichtigen kernaspekte eines posts herauszuheben :rolleyes:
na ja, wenn hier von den mods gewünscht wird auf formatierungen im text, die imho einen grossen beitrag zur übersichtlichkeit beitragen zu verzichten mach ich das halt...

nochmal, ich zweifle die arbeit von computerbase in keinstem masse an, die macht einen sehr seriösen eindruck... computerbase hat sicher recht, dass ATI an den filtern herumgeschraubt hat um die performance zu erhöhen !!

aber, bis jetzt fehlt der praktische beweis !! wenn ein screenshot diesen beweis nicht erbringen kann, dann vielleicht ein high quality kurz movie von ein par sekunden...
fakt ist, dass noch kein praktischer beweis für eine schlechtere, visuell wahrnembare bildqualität erbracht wurde !!

ich möchte einfach mal daran zweifeln, dass man einen unterschied bemerkt bei laufendem spiel, weil da hat man keine zeit eine felswand pixel für pixel anzuschauen ;)
ausserdem ist bei laufendem spiel der monitor immer noch bei weitem der wichtigste faktor in sachen bildqualität, das scheinen einige leute immer wieder zu vergessen. da hat man eine 600 euro teure graka und irgend einen 5 jahre alten 17" CRT mit "gebogener Frontscheibe" der knapp 75 Herz schafft :rolleyes:
 
ja die unterschiede treten zu tage, wenn man den kontrast und die helligkeit extrem hochregelt
ein normales bild waere bei den einstellungen, die man vornehem muss um wirklich was zu sehen schon total uebereuchtet.
Ich hab net wirklich massen an Webspace zur Verfügung zudem ist das nichtmal meiner, deshalb jpg, war aber relativ hohe kompressionsstufe, und da eh alles schwarz war dürfte der qualiverlust net allzudolle sein.
Hinzukommt, dass es nur bei 3DTiteln interessant ist, wie trilinear gefiltert wird und dort sind die Bilder in Bewegung und dort sieht man diese mühs an Unterschied einfach nicht =/.
Niemand wird zocken und sich die Filterbänder anschauen. Oder warum denn eigentlich nicht gleich qubisch filtern. Irgendwo muss man einfach mal Grenzen setzen und in Anbetracht der Performanceunterschiede, welche diese Modifikation bringt bin ich ATI seiner Verfahrensweise nichtmal böse...nur verheimlichen hätten sie es halt nicht sollen =)
 
Silver schrieb:
Bitte was? Wäre ich jetzt gemein, würde ich fragen: Hackts irgendwo? Es ist das eine, sich darüber zu streiten, ob man die Qualitätsunterschiede auf die Schnelle sieht, aber ein anderes, uns vorzuwerfen, wir würden um Nichts ein Taramtara machen, uns Aufplustern und mal eben Murks aus dem Ärmel ziehen.
Hmm, also wenn ich mein Post nochmal so betrachte, lese ich da, dass ich Euren Artikel prinzipiell für gerechtfertigt und sogar für sehr interessant halte.


Vielleicht ist es euch nicht aufgefallen, aber hier wurde schon manchesmal eingebracht, dass das, was man auf den Screenshots nicht sieht, im Spiel zu Tage treten kann, und dass wir schon alles daran gesetzt haben, die Unterschiede deutlich zu machen.
Das habt ihr aber in Eurem Artikel aber erst recht nicht bewiesen!


Man sollte sich auch mal vor Augen führen, worum es überhaupt ging: ATi war schneller, als rechnerisch möglich, Carsten und Co haben in immenser Arbeit herausgefunden, warum, und jetzt sollen wir uns setzen und sechs? Also wirklich, manchmal weiß ich nicht, was das soll...
Lies noch mal genau mein Post und verrate mit mal, warum auf den besagten Satz von mir ein "Jetzt aber im ernst" folgt.

Nochmal:
ich finde Eureren Artikel prinzipiell gut, Euer Fazit aber midesten genauso daneben als wenn ich zu Eucherem Artikel "Sechs, setzen!" sagen würde.

Ich finde, wer solche Artikel schreibt, sollte auch die Courage haben, kleinere Fehler einzugestehen und wenn sie nur das abschließende Fazit betreffen. Findest Du das etwa nicht? Ich persönlich freue mich jederzeit über konstruktive Kritik.


Es könnte Euch übrigens sehr schnell gelingen, das Bild von 'muh2k4' als irrelevant abzustempeln. Ihr könntet ein entsprechendes Vergleichsbild zwischen "echten trilinearem" und "bilineraren" Filtering erstellen.
Wäre dieses Bild auch subjektiv schwarz, so könnte man argumentieren, dass subjektive Unterschiede zwischen bilinearem und trilinearen Filtering eh irrelevant sind und nur Eure Vergleiche auf absolute Pixelgleichheit etwas wert sind.
Würde sich andererseits ergeben, dass man dort jedoch ein nicht schwarzen Bild sieht, könnte man schließen, dass ATI nur so weit optimiert, dass es subjektiv keine Beeinträchtigung in der Bildqualität gibt.
(vielleicht führt diesen Vergleich ja wirklich jemand durch *hoff*)
 
muh2k4 schrieb:
Hinzukommt, dass es nur bei 3DTiteln interessant ist, wie trilinear gefiltert wird und dort sind die Bilder in Bewegung und dort sieht man diese mühs an Unterschied einfach nicht =/.
Ich glaube auch nicht, dass man dabei einen Unterschied bemerkt. (Ich zocke mit 4xAF Bilinear und es ist selten, dass man beim Spielen bemerkt, dass es bilinear ist. Wenn man drauf achtet kann man es schon sehen.) Aber in Bewegung ist der Unterschied deutlich größer und nicht wie du sagst nicht so auffällig.
 
Sniffles schrieb:
Es könnte Euch übrigens sehr schnell gelingen, das Bild von 'muh2k4' als irrelevant abzustempeln. Ihr könntet ein entsprechendes Vergleichsbild zwischen "echten trilinearem" und "bilineraren" Filtering erstellen.
Wäre dieses Bild auch subjektiv schwarz, so könnte man argumentieren, dass subjektive Unterschiede zwischen bilinearem und trilinearen Filtering eh irrelevant sind und nur Eure Vergleiche auf absolute Pixelgleichheit etwas wert sind.
Würde sich andererseits ergeben, dass man dort jedoch ein nicht schwarzen Bild sieht, könnte man schließen, dass ATI nur so weit optimiert, dass es subjektiv keine Beeinträchtigung in der Bildqualität gibt.
(vielleicht führt diesen Vergleich ja wirklich jemand durch *hoff*)
Dann schau doch mal das Bild im Artikel an, welches die Differenz zwischen bilinearem und trilinearem AF auf der Radeon 9800XT zeigt. Schmale schwarze Streifen gleicher Pixel, die unvermeidbar sind, solange die LOD-Bestimmung nicht pixel- sondern nur Quad-genau ausgeführt werden.

Oder reden wir jetzt komplett aneinander vorbei?
 
muh2k4 schrieb:
=) naja so drastig wuerde ich das vielleicht nicht formulieren, aber trotzdem ein Dankeschoen für die Anerkennung meiner ... naja ... Muehen.
Ähm, naja, das soll keine Abwertung deiner Mühen sein, aber auf unterschiedlichen Chips wirst du immer single-bit Abweichungen feststellen - erst wenn sie gehäuft und in, sagen wir mal, verdächtiger Anordnung auftreten, wird es interessant.
Mit normalen Vergleichsshots zwischen verschiedenen Architekturen bringt sowas eben nichts - was meinst du, warum bei den vielen Reviews das sonst keiner bemerkt hat?

Du musst schauen, wieviele Pixel auf _demselben_ Chip von trilinearer Filterung profitieren. Hier hast du das Material, was du dazu brauchst (bis auf das .Net-Framework 1.1), es werden auch die Zahlen mit dem Tool angezeigt, wieviele Pixel identisch und wieviele unterschiedlichsind, also von trilinear profitieren.

Je mehr, je besser - je weniger, desto mehr Rechenleistung spart man ein.
 
Lies noch mal genau mein Post und verrate mit mal, warum auf den besagten Satz von mir ein "Jetzt aber im ernst" folgt.
Hihi, du Dumpfbacke, wieso postest du überhaupt noch, wenn du sowieso nur soetwas ablässt?

Mal im Ernst, meinst du, ich könnte solche Aussagen im nachhinein rechtfertigen? Beleidigt hat man, ob nun als Witz abgetan oder nicht, die Aussage verdeutlicht immernoch deinen Standpunkt. Deswegen bitte ich ja auch wegen meinen ersten beiden Zeilen um Entschuldigung, man kann sie nicht ungeschehen machen.

Ich sehe immernoch nicht, wo Carsten etwas hätte korrigieren sollen, aber ich will mich hier auch nicht mehr einmischen, Carsten hat da deutlich mehr Ahnung und sicherlich auch die besseren Argumente als ich. Ich will ihm seinen Thread nicht kaputt machen. Im Übrigen sehe ich ja, dass hier keine Kiddies am Werk sind, obgleich ich mich gerne streite, spreche ich den meisten hier ein hohes Niveau zu - also macht mal...
 
Ich habe mal eine Frage, die ich stellen muss:

Gehts noch?

Im Ernst. Wenn ich das hier so lese kommt mir echt der Verdacht, hier hat ein Verbrechen stattgefunden. Aber bitte wer ist denn hier geschädigt?

Wir halten zunächst mal die nüchternen Tatsachen fest:

ATI wie Nvidia haben durch fragwürdige technische Manipulation dem Kunden Features versprochen, die das fertige Produkt nicht oder nur teilweise aufweisen kann. Das ist natürlich an sich ein Unding, aber...

Was wollt ihr jetzt machen?

Ihr könnt euch landauf, landab, tagein, tagaus darüber aufregen. Es ändert nichts. Wen wollt ihr den boykottieren? Ati? Nvidia? Oder vielleicht doch lieber zur Konkurrenz greifen? Ach ne, die taugen im Moment sowieso nichts. Ja dann doch lieber wieder Ati? Oder Nvidia? Oder was nun?

Welchen Kundenkreis betrifft denn diese Art der Manipulation? Richtig, den Spieler, den Gamer, wie auch immer er zu nennen ist. In einer Zeit in der Modding, Overclocking, Tweaking vom Kunden und erst recht vom Spieler selbst als Volkssport betrieben wird, brauchen wir uns nicht zu wundern, das die Firmen das ausnutzen und ihrerseits "Optimierungen" am Produkt vornehmen.
Und warum? Weil ein im Vergleich zum PC-Massenmarkt kleiner Kundenkreis (jaja, ein PC soll angeblich auch zu was anderem als zum Spielen genutzt werden) die horrenden Entwicklungskosten der Firmen Ati und Nvidia für ihre "Gamer"-Produkte zahlen soll. Da will sich jeder mit dem Image, das beste und schnellste Produkt vorweisen zu können, profilieren.

Kommen wir zum Teil Bildqualität. Ich habe die Screenshots lange betrachtet. Es ist schlicht und ergreifend mit blossem Auge kein Unterschied zu erkennen. Natürlich kann man sich auch einen solchen einreden - es ändert aber nichts daran, das hier die Nadel im Heuhaufen zu suchen ist.
Und bitte erzählt mir nicht, im Spiel selber habt ihr Zeit Trilineares Filtering und andere Bildoptimierungen wahrzunehmen und auch Unterschiede festzustellen. Bleiben wir mal beim Spiel UT, wo die Screenshots herstammen. Tut mir leid, wenn 20 Gegner um mich rumrennen, ich Geschossen ausweichen muss, schnell zum nächsten Fahrzeug renne, eine Flagge erobere - klar, dann denke ich mir: "Bohhaa Ati-Nvidia-Cheat-Tweak-Bildoptimierung, voll zu sehen, so ein Mist!"

Weiterhin:

- Da gibt es Spieler, die jegliche Details abschalten, niedrige Auflösung fahren, TROTZ High-End-Maschine. Frames um jeden Preis. Intressiert die, ob die Bildoptimierung auf einen Cheat oder Tweak beruht?

- Da gibt es Spieler, die haben schlichtweg nicht das Geld für Top-Hardware und die müssen niedrige Auflösungen fahren, Details abschalten und so weiter...
Intressiert die, ob die Bildoptimierung auf einen Cheat oder Tweak beruht? Zumal ihre Graka vielleicht dann noch aus Zeiten stammt in denen solche Begriffe bestenfalls Freak-Charakter hatten?

- Dann gibt es die nurmalebensoFreizeit-Spieler. Die wissen gar nicht, was AA, AF oder Trilineares Filtering bedeutet. Intressiert die, ob die Bildoptimierung auf einen Cheat oder Tweak beruht?

Fazit:

Der Artikel von CB kann daher ledeglich darauf aufmerksam machen, ob man bereit ist, den Firmen Ati oder Nvidia Geld für Produkte zu zahlen, die technsichen Manipulationen unterliegen. Denn schliesslich wird niemand gezwungen von diesen Firmen irgendetwas zu kaufen. Keine wird dazu verdonnert, Unsummen für High-End Grafikkarten auszugeben. Hier könnte nur eins helfen: Boykott der Hersteller, um zu zeigen das man generell keinerlei Manipulation gewünscht sind. Aber den wird es nie geben. Also sind die Beschwerden über eine normal nicht sichtbare "Bildoptimierung" sinnlos.


Eine Frage fällt mir da noch ein:

Der Aufwand, um genau eben diese eine Manipulation festzustellen, war wohl nicht gerade klein und auch nicht einfach. Weil eben mit blossem Auge nichts erkennbar. Nun, wenn diese Manipualtion also nicht festgestellt worden wäre - hätte sich irgendwer mal über eine schlechte Bildqualität bei Ati-Karten beschwert?
 
Zuletzt bearbeitet:
Mir geht es darum, dass sich ATi und nVidia hier aufschaukeln und immer mehr und immer extremere Optimierungen fahren. Solange es nicht auf die Bildqualität geht und sich nicht auf synthetische Benchmarks beschränkt ist das ja alles ok... Da sie aber immer weiter machen halte ich es sehr wohl für möglich, dass aus den minimalen Unterschieden, die man vielleicht zur Zeit sieht (brilinearer, winkelabhängiger Texturfilter), eine Einschränkung der Bildqualität wird, die man eindeutig ausmachen kann. Und das bloß um Benchmarks zu gewinnen. Genau deshalb müssen sie ja auch vertuschen, dass sowas aktiviert ist. Sonst würde man ja nicht mehr mit solchen Einstellungen benchmarken können, wenn man eh weiß, dass die Bildqualität absolut unterschiedlich zwischen verschiedenen Grafikkarten ist. Dann bräuchte man einen "Bildqualität mal Performance"-Index, der sich aber eh nicht objektiv relisieren lässt.
 
@ToXiD

Du kannst das ganze versuchen zu rechtfertigen oder zu erklären wie Du willst, erstens bleibt es Betrug am Kunden (ob ich es sehen kann oder nicht ist IRRELEVANT) und zweitens (was VIEL wichtiger ist) es ist unlauterer Wettbewerb.

Nach welchen kriterien kaufen denn die Kiddies und Hardcorezocker ihre Grafikkarten? Richtig, nach Benchmarks! Gerade weil ATI ja angeblich so gut in den Quali- Settings sein soll, ist es verarsche.
Und wenn auf unlautere Art und Weise diese Benchmarks gewonnen werden, ist es nichts anderes als ein Cheater in einem Online-Game.
 
Zuletzt bearbeitet:
Was ich hier sehe ist, dass den Meisten das ganze egal sind, solange sie es nicht sehen. Ohne Vergleich, kann man aber nicht wissen wie es ist. Jetzt hat ATI aber, ein Treiber rausgebracht. Existent ist ein Tool namens Rtool. Mit dem Rtool kann man tri erzwingen. Nun, jetzt hebt der Treiber die Funktion des Rtools auf, und filtert nur bi und bri(?), ohne es zu erwähnen. Die User und Tester wiegen sich in Sicherheit, weil sie ja den Rtool benutzt haben.

Wie ich schon schrieb, je mehr ich all das hier lese, desto mehr Zweifel kommen mir hoch, dass man zu stark auf die FPS achtet, ohne auf die Bildqualität achtet. Optimierungen, die mehr Speed bringen, ist zwar wünschenswert, aber ist es so wichtig, bei FC statt 90,100 FPS zu haben? Bei der Leistungsregion der Karte, ist das imho zweitrangig.

edit: Och nee!
Borti schrieb:
Well, there´s another interresting point. NV40 is loosing performance with colored mipmaps in UT2004 as well:

8x Aniso (set in control panel for both)

NV40U (Normal/ColoredMips)
1024x768: 103,81 / 103,77
1280x1024: 95,04 / 91,45
1600x1200: 74,99 / 71,13

R420XT
1024x768: 105,66 / 105,73
1280x1024: 105,07 / 105,13
1600x1200: 103,61 / 95,93

Keep in mind that the test is CPU limited at lower resolutions. I was using v60.72 for NV40, with TrilOpt on. So NV40 is loosing even when using Brilinear!

I asked a guy at Epic on what they are doing when firstcoloredmip 1 is used:

all the engine does when you use colored miplevels is replace the color data. Texture format, dimension and all other properties remain unchanged so you shouldn't see a change in performance if everything is handled according to the specification.

You might want to talk to NVIDIA and ATI about this directly

Lars - THG

Langsam kotzt mich das an. :mad:
 
Zuletzt bearbeitet:
BodyLove schrieb:
Was ich hier sehe ist, dass den Meisten das ganze egal sind, solange sie es nicht sehen. Ohne Vergleich, kann man aber nicht wissen wie es ist. Jetzt hat ATI aber, ein Treiber rausgebracht. Existent ist ein Tool namens Rtool. Mit dem Rtool kann man tri erzwingen. Nun, jetzt hebt der Treiber die Funktion des Rtools auf, und filtert nur bi und bri(?), ohne es zu erwähnen. Die User und Tester wiegen sich in Sicherheit, weil sie ja den Rtool benutzt haben.

Wie ich schon schrieb, je mehr ich all das hier lese, desto mehr Zweifel kommen mir hoch, dass man zu stark auf die FPS achtet, ohne auf die Bildqualität achtet. Optimierungen, die mehr Speed bringen, ist zwar wünschenswert, aber ist es so wichtig, bei FC statt 90,100 FPS zu haben? Bei der Leistungsregion der Karte, ist das imho zweitrangig.

edit: Och nee!


Langsam kotzt mich das an. :mad:

wieso bin ich nicht überrascht ? ;)
Stichwort "Everybody cheats"

greetz shaft
 
Ich sehe es wie Graka0815. Es ist Betrug am Kunden und unlauterer Wettbewerb. Wenn man sich nichtmals mehr an Benchmarks orientieren kann, dann hat man keinen Anhaltspunkt mehr, wie gut oder schnell die Karte ist.

Kein Wunder, dass die X800 Karten schneller sind als die Geforce 6800. Die Qualy wurde ja gemindert. Schade ATI.
 
Carsten schrieb:
Dann schau doch mal das Bild im Artikel an, welches die Differenz zwischen bilinearem und trilinearem AF auf der Radeon 9800XT zeigt. Schmale schwarze Streifen gleicher Pixel, die unvermeidbar sind, solange die LOD-Bestimmung nicht pixel- sondern nur Quad-genau ausgeführt werden.

Oder reden wir jetzt komplett aneinander vorbei?
Nun ja, ein wenig. Ihr vergleicht nur genaue Pixelgleichheit, jedoch nicht, wie weit die Pixel von ihrem "Soll-Farbwert" abweichen.
Ich halte es für durchaus möglich, dass die Optimierung von ATI nur an den Stellen greift, an denen ein Unterschied zwischen bi- und trilinearem Filter eh nicht zu erkennen ist.

Mein vorgeschlagener Test könnete diese Aussgae falsifizieren, imdem gezeigt wird, dass Farbdifferenzen zwischen "echtem tri" und "bi" generell nicht zu erkennen sind.



Nachtrag:
Ich kann den Test selber so nicht durchführen, da ich lediglich eine alte GeForce256 besitze (spiele mitlerweile nicht mehr wirklich). Außerdem habe ich die benötigte Software und die benötigte Zeit nicht wirklich so.
Aus Vergleichsgründen wäre für den Test aber eh eine ATI 9800 besser.
 
Zuletzt bearbeitet: (Nachtrag + kleine Bemerkung gelöscht)
------------
 
Zuletzt bearbeitet: (war doppelt (siehe vorheriges Post) => gelöscht.)
hast du den Test schon durchgeführt? Was hast du für Ergebnisse erzielt?
 
Zurück
Oben