Bericht Bericht: Versteckspiele bei ATis Texturfilter

was hat das mit AA zu tun? Was soll dieser Kommentar? Ist verstehe den Zusammenhang jetzt nicht mit Antialiasing. :confused_alt: :watt:
 
Ich kritisiere Nvidia im Grafikkartensektor so stark für dererlei Dinge, das ich bei sowas, sowie dessen Richtigkeit bewiesen ist, ATI nicht länger "außenvor" lassen kann. Ich habe so etwas schon kommen sehen und damals auch die Leute, die Nvidias Vorgehen als weniger Folgewichtig angesehen haben genau darauf hingewiesen.
Somit fühle ich mich leider mit sehr wenig Begeisterung bestätigt.
Na doll...nu haben wir 2 große Hersteller, die den Endkunden im Unklaren über die Leistung deren Produkte lassen. Da kann es nach meiner Meinung seitens des Kunden nur EINE REAKTION geben: "Boykott" gegen die nächste Generation deren Produkte.
Und soweit möglich öffentliche Schelte.

Sämtliche Qualitätsfeatures abschalten zu können soll gerne möglich sein.
Aber es sollte dem Kunden überlassen bleiben. Bevormundung kennt der Kunde schon zu genüge vom Staat her und brauch das nicht auch noch durch Hersteller von Produkten. Die Möglichkeiten in Form von Leistungssettings in den Treibern bereitzustellen wurde schon oftmals gefordert und sehe ich auch als beste Möglichkeit. Vielleicht noch zukunftsorientiert sollte es den Anwendungen möglich sein, die Treibersettings selbst wählen zu können, um dem User individuell für jedes Game beste Performance vermitteln zu können.

Rodger

/EDIT: UND JA, es ist eine riesen Sauerei!!!
 
Zuletzt bearbeitet:
diese diskussion währe nicht aufgekommen, wenn ati es nicht verschwiegen hätte.

ich schließe mich den vielen meinungen in diesem thread an: wenn man keinen unterschied sieht in der qualität, beides folglich max mögliche sichtbare qualität ist, dann ist es kein beschiss, dann ist es ein tweak, den ich gerne in kauf nehme.

wenn ati jetzt nachzieht und einen schalter im treiber implantiert der die wahl zwischen tri - perfomance tri - bi zulässt, dann ist für mich alles in ordnung.

und ich wette 9 von 10 usern würden mit performance tri zocken, wenn spiele bei gleicher gra-qualität schneller laufen.
 
Dumme Frage: Wie wollt ihr den Unterschied sehen, wenn ihr keine Vergleichmöglichkeit habt? Normalerweise habt ihr nicht 2 Systeme mit 2 Monitoren im Zimmer stehen. Denn mit solch einem Vorgehen würde man es merken. Wenn du die Karte kaufst, 16xAF und 4xAA einschaltest, sagst du dir, boah geiles Bild. Du hast nicht die Möglichkeit zu vergleichen. Da vertraue ich mal der CB. Die haben es getestet und haben es für wichtig befunden, solch einen Artikel zu schreiben. Sofern kein BQ-Unterschied gebe, würde CB auch kein Artikel dazu rausbringen.

Bei Tri laufen die Spiele nicht schneller.
 
BodyLove schrieb:
Sofern kein BQ-Unterschied gebe, würde CB auch kein Artikel dazu rausbringen.
Man sieht ihn ja bloß nicht. Zumindest auf den Screenshots, die im Artikel sind. Dass es einen gibt bezweifelt ja keiner.
Das einzige Problem ist doch, dass sie versucht haben es zu vertuschen und keine Möglichkeit bieten es auszuschalten.
 
Stormbilly schrieb:
Man sieht ihn ja bloß nicht. Zumindest auf den Screenshots, die im Artikel sind. Dass es einen gibt bezweifelt ja keiner.
Das einzige Problem ist doch, dass sie versucht haben es zu vertuschen und keine Möglichkeit bieten es auszuschalten.

Man sieht es schon. Nur nicht in Screenshots.;)

Das von dir beschriebenes Problem ist eigentlich das "I Tüpfelchen auf dem I".
 
so, mal an die herren "solange man es nicht sieht ist es kein beschiss":
wenn der hersteller dem user glaubhaft macht trilineares filtering vor sich zu sehen, muss er dieses auch ohne jegliche tricksereien tun. schließlich wirbt keiner mit "sieht aus WIE trilineares filtering". genauso wenig könnte ein uhrmacher gefälschte rolex als original verkaufen oder ein autohändler gefälschte ersatzteile; nur weil diese genauso aussehen. die meisten user mag es nicht sonderlich stören solange sie es nicht merken aber es ist und bleibt betrug am kunden.
 
BodyLove: Du behauptest hier wieder und wieder, dass man im Spiel ja einen Unterschied sehen würde. Worauf stützt du bitte diese These?
Auf den Screenshots ist NULL Unterschied festzustellen. Ganz einfach zu verifizieren, indem man eine Powerpoint-Präsentation macht, in der schnell zwischen den beiden Bildern hin- und hergeschaltet wird. Wenn in den Screenshots NULL Unterschied festzustellen ist, dann bezweifle ich sehr, sehr stark, dass im Spiel ein Unterschied (für den Betrachter) entsteht.

Sachen wie AA oder AF-Unterschiede, die auf Screenshots ziemlich gering aussehen, verstärken sich im Spiel deutlich. Sagen wir, der Unterschied auf dem Screenshot beträgt "2", und im Spiel wirkt der Unterschied 5 mal so stark.
Dann haben wir bei diesen beiden Screenshots im ati-cheat-cb-artikel im Spiel einen Unterschied von 5x0 -- was 0 ergibt.

Folgendermaßen könnte man relativ simpel überprüfen, ob es einen Unterschied gibt:
- Mit FRAPS o.ä. von beiden Karten ein Video von der selben Spiel-Sequenz aufnehmen
- Mit virtualdub o.ä. die Videos so zusammenschneiden, dass auf der einen Hälfte das Bildmaterial von der ersten Karte und auf der zweiten Seite das Bildmaterial von der zweiten Karte zu sehen ist.
Die Videos müssten dann natürlich unkomprimiert sein, aber es reicht auch eine Sequenz von ein paar Sekunden, also gibt es nicht wirklich Platzprobleme.

Erst wenn ich da einen Bildqualitätsunterschied sehe, glaube ich auch, dass es einen gibt. Ich werde wahrscheinlich nächste Woche eine X800 Pro bekommen, und die werde ich dann mal selbst mit meiner r9800 pro vergleichen..


Abgesehen davon verurteile ich natürlich weiterhin, dass ATi bei eingefärbten Texturen diesen Tweak nicht anwendet, was ganz klar Täuschung ist.
 
Also um fair zu bleiben, muss man ATI auch als Cheater hinstellen, so wie man es mit nVidia getan hat. Allerdings finde ich ATI ziemlich hinterhältig, denn die versuchen das zu vertuschen. nVidia hingegen hat sogar zugegeben, dass nicht voll Tri gefiltert wird und dem User die Möglichkeit gegeben, den Bri-Filter zu deaktivieren.

Wenn ATI das genauso getan hätte, wäre es kein Betrug.

Der Kunde schaut sich die Benchmarkergebnisse an und stellt fest, dass die ATI karten sehr schnell sind und kauft sich dann natürlich so eine. Wenn man jedoch alle neuen Karten von beiden Herstellern mit gleichen Qualitätssettings testen würde, so würde sich der Kunde eventuell anders entscheiden, da die nVidia Karten plötzlich schneller sind. Und (zumindest bei mir ist es so) kommt es nicht darauf an, wer die beste Performance abliefert, sondern wer das beste Performance/Qualitätsverhältnis hat.

Bei diesen schnellen Karten kommt es zudem nicht mehr auf Performance sondern viel mehr auf Bildqualität und Features an. Desweiteren werden ja auch Spielehersteller betrogen, die mit ihrer Grafik werben. Denn die können nichts dafür, dass ihre Spiele schlechter aussehen, wenn Grakahersteller die Bildqualität runterschrauben.

Ich für meinen Teil möchte die Möglichkeit haben, die bestmögliche Bildqualität einstellen zu können, vor allem bei High-End-Grafikkarten. Eigentlich müsste man die ja umbenennen in High-Optimized-Grafikkarten. :)

Ich hab mal aus den beiden Bildern ein AVI-Video gemacht (unkomprimiert), welches man
hier
runterladen kann.
Man sieht an den Palmenblättern links sowie unten in der Mitte schon einen Unterschied, auch wenn es ein geringer ist.
 
Zuletzt bearbeitet:
Madden. schrieb:
BodyLove: Du behauptest hier wieder und wieder, dass man im Spiel ja einen Unterschied sehen würde. Worauf stützt du bitte diese These?
Auf den Screenshots ist NULL Unterschied festzustellen. Ganz einfach zu verifizieren, indem man eine Powerpoint-Präsentation macht, in der schnell zwischen den beiden Bildern hin- und hergeschaltet wird. Wenn in den Screenshots NULL Unterschied festzustellen ist, dann bezweifle ich sehr, sehr stark, dass im Spiel ein Unterschied (für den Betrachter) entsteht.

Sachen wie AA oder AF-Unterschiede, die auf Screenshots ziemlich gering aussehen, verstärken sich im Spiel deutlich. Sagen wir, der Unterschied auf dem Screenshot beträgt "2", und im Spiel wirkt der Unterschied 5 mal so stark.
Dann haben wir bei diesen beiden Screenshots im ati-cheat-cb-artikel im Spiel einen Unterschied von 5x0 -- was 0 ergibt.

Folgendermaßen könnte man relativ simpel überprüfen, ob es einen Unterschied gibt:
- Mit FRAPS o.ä. von beiden Karten ein Video von der selben Spiel-Sequenz aufnehmen
- Mit virtualdub o.ä. die Videos so zusammenschneiden, dass auf der einen Hälfte das Bildmaterial von der ersten Karte und auf der zweiten Seite das Bildmaterial von der zweiten Karte zu sehen ist.
Die Videos müssten dann natürlich unkomprimiert sein, aber es reicht auch eine Sequenz von ein paar Sekunden, also gibt es nicht wirklich Platzprobleme.

Erst wenn ich da einen Bildqualitätsunterschied sehe, glaube ich auch, dass es einen gibt. Ich werde wahrscheinlich nächste Woche eine X800 Pro bekommen, und die werde ich dann mal selbst mit meiner r9800 pro vergleichen..


Abgesehen davon verurteile ich natürlich weiterhin, dass ATi bei eingefärbten Texturen diesen Tweak nicht anwendet, was ganz klar Täuschung ist.

Den Unterschied sieht man ganz klar beim Spielen in der Bewegung. Gerade im Trillinear und AF Umfeld sind Unterschiede auf Screenshots kaum zu erkennen.
Bestes Beispiel war doch ATIs Winkelabhängiges AF. Auf vielen Screenshots 0 sichtbar. Im Spiel dagegen einfach potthäßlich. Bei der Filteroptimierung jetzt ist es noch schlimmer. Da bekommst dann immer so ne schöne Bugwelle die vor sich herschwimmt.
Das ist ganz übel.
Die Unterschiede bei den Filtern sind sehr viel deutlicher zusehen als das bisschen zwischen 6x und 4x AA. Zum 8x AA wirds noch geringer.

Da haben sie wirklich ziemlich nice gecheatet und das ganze schon seit der 9600pro. Aber im DX9 und AA Wahn hat keiner hingeschaut. Im Prinzip sind diese Benchmarks genauso getürkt wie die vom R420.
Super gemacht...
 
Beschiss bleibt Beschiss. Wir kann man denn behaupten, alles was man nicht sieht ist kein Beschiss, sondern ein Tweak?

Im Zusammenhang mit dem Beispiel Auto und der KW-Zahl:"Wir machen das doch nur, damit sie nicht so schnell fahren. Auf deutschen Autobahnen können Sie doch sowieso nicht so schnell fahren. Dient nur Ihrer eigenen Sicherheit. Wir betrügen nicht, es ist ein tweak" ;)

Gut, auf dem ersten Blick ist kein Unterschied festzustellen. Mag auch sein, das man keinen großen Unterschied bemerkt. Aber wie schon von vielen anderen gesagt, wenn ich ein Feature anpreise, muss ich das auch einhalten. Die Vertuschungsaktion seitens ATI ist schon ein Ding (zeigt, dass sich die Treiberingenieure schon im vorwege ihre Gedanken gemacht haben > Ich sage nur Vorsatz).
Das dies alle machen ist auch keine Entschuldigung für mich. Die meisten sind schon viel zu bequem geworden. Man muss sich auch wehren dürfen.


Btw: Gut gemacht, Computerbase. Das zeichnet euch aus. Kompetent und neutral.
 
wegen angeben:
es gibt immer die leute die kommen "boah ich hab ne graka mit PS 3.0" oder "meine graka hat echt die besten AA modi, DASS musst du dir mal geben" oder "lol mein auto hat 50 PS mehr als deins"...

gut aber nochmal:
sollte man einen unterschied SEHEN ist das eine riesen frechheit von ATI und sie sollen sofort eine treiberseitige option einbauen, dass der USER wählen kann welchen modus er benutzen will

aber sry, wie viele haben den schon mit der X800 pro ein spiel gespielt und gesehen wie die "performance-filteroption" live und in action aussieht :rolleyes:

ALLES was wir haben ist der theoretische beweis der CB schön erbracht hat sowie einen screenshot auf dem praktisch KEIN qualitätsverlust auszumachen ist...

wenn die herren body love oder richthofen bereits die möglichkeit hatten mit einer X800pro ein spiel zu spielen und sie dieses direkt mit einer anderen karte die diesen "filter-tweak" nicht nutzt vergleichen konnten, muss ich euch sofort zustimmen
aber ich möchte einfach mal bezweifeln, dass ihr in besitz einer solchen karte seit :rolleyes:
 
ich sehe das nicht so wild, jedoch ist es nicht in Ordnung, dass ATI die Optimierungen nicht public macht und einem nicht selbst die Möglichkeit gibt zu entscheiden ob man die Optimierungen haben möchte oder nicht.

Es hat ja nichtmal jemand gemerkt das Optimiert wurde, also nicht an der Optik des Bildes und demzufolge relativiert sich die Thematik auch schon wieder. Kein Mensch sieht, dass die Bilder von in denen der Referenzfiltern abweichen, schon gar nicht wenn diese in Bewegung sind.

Es klingt jetzt ziemlich böse, aber ich habe das Gefühl das CB sich einfach mal an was hochziehen und auch mal gehört werden wollte. Der Artikel ist ja schon fast wie ein Krimi geschrieben. (Auf geheimer Texturfilterungs-Spionage Mission o.ä.)

Es regt sich ja auch keiner drüber auf, wenn jemand ein anderes AA-Verfahren nutzt, welches u.U. schneller aber dafür nicht ganz so gut ist.
Ebenso ist es um längen harmloser als in den Ablauf der Aplikation einzugreifen und dort Daten zu aendern, wie es bei NVs 3DMark Schummeleien passiert ist,weil die dann wirklich ein realitaetsfremdes Bild der Karte liefert.

Versteht mich bitte nicht falsch, ich möchte mich hier nicht als pro Ati aeussern, ich finde wirklich, dass es Betrug am Kunden ist, sowas zu verheimlichen, aber wer kann sich denn hier als wirklich geschaedigt ausweisen. =)
 
Zuletzt bearbeitet:
nVidia kann es, um mehr geht es jetzt nicht.

Es ist einfach Betrug, etwas zu versprechen, was gar nicht geliefert wird. Wenn Ati sagen würde "Wir hauen euch 20% mehr Performence rein, aber ihr seht keinen Qualitätsunterschied" - dann wäre es gut. Aber nicht "Wir liefern euch Qualität, bitte seid nicht über die Performence verwundert, wo die her kommt, sagen wir euch ein andern mal"...

Im Übrigen würde ich euch bitten, nicht dauernd fett zu schreiben. Meint ihr, ich kann nicht lesen? Ich nehme diese Kommentare ebenso wahr, wie alle anderen auch, richtiger werden sie dadurch auch nicht...
 
muh2k4 schrieb:
ich sehe das nicht so wild, jedoch ist es nicht in Ordnung, dass ATI die Optimierungen nicht public macht und einem nicht selbst die Möglichke

ja so sehe ich das auch - bei 3dcenter haben sie doch immer gemeint, dass optimierungen die der perfomance eines spieles dienlich sind ohne die IQ zu verschlechtern ok sind - und ehrlich gesagt sehe ich mit meinen augen keinen Qualitätsunterschied, ich glaube wenn man mit der selben Karte 2 mal von der selben Szene nen Screenshot aufnimmt is der Unterschied größer ;)

Allerdings fordere ich Ati dazu auf ihre Geheimnistuerei zu beenden, wenn anscheinend die Bildqualität nicht beeinflusst wird, dann brauchen sie es auch nicht zu verstecken... ;)

greetz shaft
 
Ich habe mir mal die Mühe gemacht und ein Differenzbild der beiden im Artikel benutzen Bilder mit Photoshop erstellt. (2Layer und den 2ten mittels Subtraktion eingefügt. einmal a-b dann b-a und dann beide ergebnisse addiert)

Hier die beiden Bilder im Ausgangzustand:
https://pics.computerbase.de/1/3/5/9/6/1-1080.2362757320.jpg
https://pics.computerbase.de/1/3/5/9/6/2-1080.1396732293.jpg

Hier das Ergebnis:
mitglied.lycos.de/hcdlt/atinv.jpg

Wie jeder sehen kann sind quasi keine Unterschiede erkennbar. Das rote in der mitte kommt daher, dass die bilder zu 2 verschiedenen Zeiten aufgenommen wurden.
 
Zuletzt bearbeitet:
muh2k4 schrieb:
Ich habe mir mal die Mühe gemacht und ein Differenzbild der beiden im Artikel benutzen Bilder mit Photoshop erstellt. (2Layer und den 2ten mittels Subtraktion eingefügt. einmal a-b dann b-a und dann beide ergebnisse addiert) [...]

mitglied.lycos.de/hcdlt/atinv.jpg

Schöne Arbeit. Das wäre eigentlich das gewesen, was man von Computerbase in ihrem Artikel hätte erwarten können.

Wenn ich jetzt gemein wäre, würde ich jetzt sagen, dass man das im CB-Artikel gezogene Fazit abändern sollte: "Computerbase: Sechs, setzen!"

Aber mal im ernst: Der Artikel hat schon seine Berechtigug. Der Artikel verfolgt prinzipiell eine Interessante Frage, nur gleicht das gezogene Fazit des Artikels ATI gegenüber einer Frechheit.

Computerbase sollte sich fragen, ob es nicht nötig gewesen wäre genauer zu recherchieren, eh man mit so einem einseitigem Fazit eine Sache abtut. Insbesondere wäre eine Anfrage bei ATI vielleicht nicht verkehrt gewesen, die sich ja leider noch immer nicht zu den Vorwürfen geäußert haben.

Deshalb meine bitte an CB: Fügt dieses Differenzbild doch Eurem Artikel hinzu (mit Dank an muh2k4) und relativiert Euer Fazit.
 
Bitte was? Wäre ich jetzt gemein, würde ich fragen: Hackts irgendwo? Es ist das eine, sich darüber zu streiten, ob man die Qualitätsunterschiede auf die Schnelle sieht, aber ein anderes, uns vorzuwerfen, wir würden um Nichts ein Taramtara machen, uns Aufplustern und mal eben Murks aus dem Ärmel ziehen.

Vielleicht ist es euch nicht aufgefallen, aber hier wurde schon manchesmal eingebracht, dass das, was man auf den Screenshots nicht sieht, im Spiel zu Tage treten kann, und dass wir schon alles daran gesetzt haben, die Unterschiede deutlich zu machen. Man sollte sich auch mal vor Augen führen, worum es überhaupt ging: ATi war schneller, als rechnerisch möglich, Carsten und Co haben in immenser Arbeit herausgefunden, warum, und jetzt sollen wir uns setzen und sechs? Also wirklich, manchmal weiß ich nicht, was das soll...
 
Zurück
Oben