News Offizielles ATi-Statement zur Texturfilterung

@(c)
Warum sollte sich GRAKA0815 auch von seinem Standpunkt abbringen lassen, er hat doch vollkommen recht.
Vielmehr solltest Du und einige andere ATI Fans hier (selber ATI Fan "mit Radeon 9800Pro") die meinen ATI handelt in unserem Sinne in dem sie uns veraschen und für blöd verkaufen, ihren Standpunkt einfach mal überdenken.
Es geht schliesslich um Marketing und Millionen von Dollar, die Leute von ATI werben mit FPS bei max. Bildqualität was einfach nicht stimmt und das ist ganz klar Verschleierung wenn nicht sogar Betrug am Kunden.
Ich als Kfz-Meister kann dem Kunden auch nicht einfach sagen die Bremse vorn wurde komplett überholt, wenn ich nur die Bremsbeläge erneuert habe.
Ein wenig Optimierung hier, ein wenig Optimierung da, das alles im einzelnen betrachtet ist vielleicht nicht besonders auffällig, aber die Optimierung über Jahre hinweg bedeutet doch eine sehr miese Bildqualität im vergleich zu früher.
Und kommt mir jetzt nicht mit: "es wird nichts auf kosten der Bildqualität optimiert" ATI hat selber zugegeben das die Qualität darunter leidet.

Zitat von 3DCenter:
... Unserer Meinung nach ist ATi also noch lange nicht aus der Diskussion heraus, ob man möglicherweise versuchte, die eigene "Optimierung" zu vertuschen. Das ATi-Statement stellt hierzu eben nur den Standpunkt der Kandier dar - nicht weniger, aber auch nicht mehr. Denn richtig bezeichnend wird es, wenn man sich die Präsentationen zum Launch der X800-Serie ansieht, wo ATi regelrecht zum Vergleich der Filter-Qualitäten mit eingefärbten MipMaps auffordert, sich selbst die bestmögliche trilineare Filter-Qualität zuspricht und die Nutzung von "Filter-Tricks" (O-Ton ATi) als unakzeptabel nennt ...

... An dieser Stelle angekommen muß gefragt werden, wo da die Ehrlichkeit gegenüber den Hardware-Testern und Endkunden war?! Wenn man eigene "Optimierungen" mitlaufen lassen hat, welche mittels der von seinem selbst empfohlenen Tools nicht erkennbar sind und welche zudem die Ergebnisse der Tests dieser Tools maßgeblich beeinflußen, ist man geradezu in der Pflicht, dies entsprechend kundzutun. Die Alternative wäre, sich komplett aus der Diskussion um die Filter-Qualität herauszuhalten, was ATi beim Launch der X800-Serie jedoch nicht getan hat. Nun ist man unserer Meinung nach in der Bringpflicht, die entsprechenden PDFs zu ändern und sich bei den Hardware-Testern und Endkunden für diese Falschdarstellung und der daraus entstehenden Konsequenzen (in Form von fehlerhaften Artikeln mit fehlerhaften Aussagen zur Filterqualität bei ATi) zu entschuldigen ...

Dieser Aussage kann ich mich nur anschließen.

Zum Schluss möchte ich mich noch bei den Jungs von Computerbase bedanken, die diesen Betrug aufgedeckt haben, eine tolle Leistung.
Vielleicht sollten die Spielehersteller hier auch mal einen Riegel vorschieben, in dem Sie Vorgaben machen mit welchen Filterungen etc. ihre Games von den Treibern angesprochen/umgesetzt werden müssen.
Ich bin jedenfalls sehr enttäuscht von ATI.
 
Zuletzt bearbeitet:
b-runner schrieb:
Aber selbst wer der Meinung ist, dass das kein Betrug, sondern eine Verbesserung ist, sollte zumindest - bei allem Respekt vor eurer Meinung - soweit zugeben zu können, das Beschreibung und Produkt nicht deckungsgleich sind - und darum geht es letztendes!
Perfekt auf den Punkt gebracht. :)
 
byte schrieb:
@stormbilly
Du wirst doch nicht so oberflächlich sein, und dir ein Vorurteil aus einem Forenstatus zu bilden?
Nein, nicht wirklich.
Aber ich hatte dich darum gebeten mich über die extremen Fehler aufzuklären, die ich bei meinen Stichpunkten gemacht habe. Das war ernst gemeint.
byte schrieb:
Jep, gelesen, scheinbar hast du meinen Beitrag nicht gelesen. Ich hab von ner "großartigen" Antwort geredet, damit war gemeint, dass du keine detailierte Antwort erhalten wirst, wenn du in diesem Ton den Leuten dort mailst.
Dort steht eindeutig, dass man GAR keine Antwort erwarten soll. Und davon bin ich auch ausgegangen, schließlich ist es ein Formular mit dem man Fehler im Treiber melden soll und nicht Support von ATi anfordert.
 
BodyLove schrieb:
@CB

Wird da seitens der OnlineSeiten, auch den Zeitschriften wie PCGH oder CT Druck auf ATI aufgebaut, um eine Erklärung dafür zu bekommen, warum sie explizit auf deren PDFs behaupten, voll trillinear zu filtern, aber seit einem Jahr nicht tun?
gruß Body

wer sagt dass sie es nicht tun, auf jeden fall filtern sie wenn es benoetigt wird (wie es aussieht). Gemaess einer anderen an dieser Geschichte beteiligten Webseite ist der Tri Filter " Es werden zwei bilinear gefilterte Punkte aus je vier Texeln berechnet, und das Ergebnis wird nochmals linear interpoliert. Das ist eine Interpolation mehr, so dass man vom tri-linearen Filter spricht."
Falls die beiden zur Berechnung herangezogenen bilinear gefilterten Punkte exakt den gleichen Farbwert haben, kann ich mir doch die anschliessende lineare Interpolation sparen, oder sind meine MatheKuenste soweit eingerostet, dass ich hier zu einem falschen Schluss komme? :watt:
 
Wie ich auch vorher schonmal bekräftigt habe, ist die Optimierung nicht als Cheat zu bezeichnen, weil sie nicht darauf programmiert wurde, bei bestimmten Titeln z.b. bei Benches, die Optimierungen zu aktivieren.

Diese Aussage ist unter anderem von einem "Hardtecs 4 U"-Artikel belegt worden, der oben im Thread schon einmal zitiert und verlinkt wurde.

@GRAKA0815 der Vergleich mit Autos ist wie von (C) gesagt wertlos. Weder Trüffel, die oben mit Grafikkarten verglichen wurden, noch Autos stellen den Sachverhalt richtig dar.


PS: Bitte hört mit dem Geflame auf. Bald befinden wir uns hier auf einer Diskussionsebene wie auf Giga.de.
 
@Snipermaik: bisher gibt es lediglich von einigen Parteien einen Betrugsvorwurf respektive den Vorwurf der Täuschung - wobei insbesondere ersterer nach z.Zt. vorliegenden Info's nur schwer zu halten sein wird. Hier sind auch einige Sites offenbar etwas übereifrig ob des Erfolges der Kampange gegen NVidia vorher.
ATI hat bis jetzt nur angeführt, dass der neue Algorithmus keine sichtbaren Einbußen hat, das Gegenteil konnte bis jetzt keiner aufdecken.

Außerdem: die Bildqualität hat sich insgesamt eher erhöht als verschlechtert, auch wenn es mal den einen oder anderen "Bug"(:D) gab. Und spielbare Frameraten gibt es auch noch dazu ;).

---

Aber - das konnte bis jetzt keiner wissen ;) - bin ich mit GRAKA0815 zumindest auf einen kleinen gemeinsamen Nenner gekommen:

a) ATI sollte im Treiber eine globale Wahlmöglichkeit der Filteralgorithmen anbieten, schließlich will jeder selbst wählen - auch wenn die neue Methode die effizienteste sein sollte. Für ATI beinhaltet das den eventuellen Nachteil, dass womöglich mit einem unnötig langsamem Filter gebencht wird.

b) Sollte CB noch einen ausführlichsten Test zu der Thematik abliefern, die neben reinen Performancevergleichen auch Realworld-Qualitätsvergleiche enthält. (Auch mit der Gefahr, zunächst vermutete Qualitätseinbußen nicht bestätigen zu können...)

Also kühlt euch mal alle ab...naja...bis auf den CB-Staff, ihr müßt wohl oder übel nochmal nachlegen! Danach sind dann alle schlauer und hoffentlich zufriedener.
 
Verstehe ich das richtig, dass diese Optimierung nur bei bei den 9600XT und bei der neuen X800 Serie zum Einsatz kommt?
Also die 9800 Serie ist davon nicht betroffen. Also ich find es eigentlich auch nicht in Ordnung, dass ATI es by default aktiviert hat. Man sollte dem User schon die Möglichkeit lassen selber zu entscheiden was er möchte.
Sicher ist diese Optimierung von Nutzen wie ich finde, da die Bildqualität ja nicht bzw. kaum drunter leidet. Nvidia macht sowas doch auch schon lange und ATI will sich halt weiter behaupten können. Der Unterschied ist nur, dass bei ATI die Grafik nicht leidet wie z.b. bei der FX + FarCry 1.1 Patch.
Das ist auch der Grund warum ich mir heute ne ATI 9800Pro holen werde. Das Bild dieser Karte ist einfach genial. Und wenn eh nur diese beiden Serien die Optimierung haben kanns mir ja auch egal sein.
Ich wette einfach mal das ATI und Nvidia ohne Ende optimiert nur es fällt keinem auf. Nur weils jetzt aufgefallen ist wird ATI als Verbrecher dargestellt. Das finde ich nicht in Ordnung. Die Karten bringen durch diese Optimierung doch sogar mehr Leistung und das auf Kosten einer kaum auffallenden verminderten Bildqualität. Zumindestens sagen das die Screenshot's. Ich fände es mal interessant wenn jemand ein Video aufnimmt wo einmal die Optimierung an und einmal aus ist. Kann man ja mal mit ner 9600XT testen. Das fände ich mal interessant ob sich da ein Unterschied ergibt ;)
Aber man kann es keinem Recht machen irgendwie. So das war nur meine Meinung zu dem Thema.

mfg
jacky :cool_alt:
 
@graka:
du laberst mist. es ist messbar, aber absolut nicht sichtbar.
daher gibt es auch keinen grund es abzuschalten.

das einzigste was man ati vorwerfen kann ist das sie angegeben haben das sie echtes trilliares filtering haben.

ansonsten ist die funktion einfach spitze. man hat mehrpower völlig ohne qualitätsverlust. und das ist tatssache. ok wer nen screenshot macht und stark ranzoomt sieht nen unterschied, aber das ist egal, da man es beim zocken nicht sehen kann.


und wozu willst du es abschalten ? bringt dir keinen vorteil. also ist es auch nicht nötig. und wenn du höchste qualität hast, diese hast du auch trotz diesem feature.



und manche meinen ja das wäre unlauterer wettbewerb nvidia gegenüber. völlig blödsinn. nur weil ati was gutes entwickelt hat was nvidiia (noch) nicht hat ist das noch lange kein unlauterer wettbewerb.
 
WhiteShark, du widersprichst dich selbst. Denn, wäre es ohne Qualitätsverlust, könnte man es mit zoomen nicht nachweisen. Es ist unlauter Wettbewerb. Dasselbe hat auch NV gemacht. Nur hat ATI immer behauptet, dass sie mit full-tri filtern und auch dazugeschrieben, dass man bei NV die Bri-Apl ausschalten soll, um diesselbe Qualität zu bieten. Das ist schon unsauberer Wettbewerb.

Ausserdem ist es mir völlig egal, ob ich mit 85FPS ein Spiel spiele, oder mit 100FPS. Wir reden von HighEndkarten. Solche Maßnahmen gehören einfach nicht in dieses Metier. Beim RV350 und dem RV360 würde ich es sogar verstehen, aber nicht beim R420. Das ist inakzeptabel. Ob man es sieht, oder nicht, ist hier nicht relevant. Wieso betrügt ihr euch selber?

ATI greift irgendwo ein, um mehr Leistung zu kitzeln. Ich will aber max. Quali haben. Wieso sonst schalte ich zusätzlich AA und AF ein? Ob es was bringt oder nicht, lass mal da den User entscheiden. Dieses Recht der Vorentscheidung hat imho ATI nicht.

Und nochmal, bei einer HighEND-Karte sollte nichts am BQ optimiert sein. Da ist es mir auch schnuppe, ob man den Bildqualiverlust optisch sieht, oder nicht. Wenn ich FPS-Geil bin, kann ich es ja zusätzlich einschalten. Aber völlig aussen vor gelassen will ich nicht sein.
 
BodyLove schrieb:
WhiteShark, du widersprichst dich selbst. Denn, wäre es ohne Qualitätsverlust, könnte man es mit zoomen nicht nachweisen. Es ist unlauter Wettbewerb. Dasselbe hat auch NV gemacht. Nur hat ATI immer behauptet, dass sie mit full-tri filtern und auch dazugeschrieben, dass man bei NV die Bri-Apl ausschalten soll, um diesselbe Qualität zu bieten. Das ist schon unsauberer Wettbewerb.
wo widerspreche ich mit selbst ? in den spielen ist kein unterschied festzustellen. nur bei starken ranzoomen. von daher wird man bei games nix merken, gibt in games null qualitätsverlust.

das einzigste was unfair war, das sie behaupten tri zu filtern.

aber das ist kein unlauterer wettbewerb, vielmehr haben sie ein top feature hinzugefügt, was halt nirgends angegeben war.

Ausserdem ist es mir völlig egal, ob ich mit 85FPS ein Spiel spiele, oder mit 100FPS. Wir reden von HighEndkarten. Solche Maßnahmen gehören einfach nicht in dieses Metier. Beim RV350 und dem RV360 würde ich es sogar verstehen, aber nicht beim R420. Das ist inakzeptabel. Ob man es sieht, oder nicht, ist hier nicht relevant. Wieso betrügt ihr euch selber?
was willst du eigentlich ? du bekommst mehrleistung ohne qualiverlust. sei froh das die des da eingebaut haben. und natürlich darf es auch bei den topkarten net fehlen.
sei doch lieber froh das du dadurch die details in games höher drehen kannst, oder mit höherer auflösung zocken kannst. nur vorteile dadurch.

ATI greift irgendwo ein, um mehr Leistung zu kitzeln. Ich will aber max. Quali haben. Wieso sonst schalte ich zusätzlich AA und AF ein? Ob es was bringt oder nicht, lass mal da den User entscheiden. Dieses Recht der Vorentscheidung hat imho ATI nicht.
du hast auch mit diesem feature die beste qualität. ati brauch keinen schalter einzubauen da durch abschaltung man lediglich leistung verlieren, aber rein garnix dafür bekommen würde.
wozu sollte ati da nen schalter reinmachen ? mit die noobs dann ihre karte langsamer machen können ?

allein der logic halber wäre das abschalten einfach nur sinnlos und daher lässt es sich wohl auch net abschalten.

Und nochmal, bei einer HighEND-Karte sollte nichts am BQ optimiert sein. Da ist es mir auch schnuppe, ob man den Bildqualiverlust optisch sieht, oder nicht. Wenn ich FPS-Geil bin, kann ich es ja zusätzlich einschalten. Aber völlig aussen vor gelassen will ich nicht sein.
ja warum denn ? du verlierst nix sondern gewinnst nur dadurch. abschalten wäre einfach schwachsinn, von daher kann man es auch net abschalten.



ich versteh net wieso sich alle so über ein solches feature aufregen. man verliert dadurch ja nix, sondern gewinnt sogar noch an geschwindigkeit.
 
WhiteShark, du verstehst es ist. Ein Qualitätsverlust ist existent. Du würdest es auch in Spielen merken. Und zwar ind Bewegung. Lass dir nichts von den PR-Managern einreden. Es gibt, wenn es um Bildquali geht, keine Verlustfreie Optimierung. Sogar das neue Feature 3Dc-Kompression ist nicht verlustfrei. Ein Feature wäre es, wenn ich die Macht hätte, dieses an und abzuschalten. Was nicht geht. Was glaubst du, wieso ATI keinen Schalter hat? Das ist definitiv kein topfeature! was soll danach folgen? Wollen sie mir weiss machen, dass man den Untershcied zwischen Tri und Bi nicht sieht, und deshalb man ab sofort, auf Grund von der FPS nur noch Billinear filtert? Ist das dann auch ein Top-Feature?

Und wieso habe ich mit diesem "Feature" die top Quali? Top Qualität wäre es, wenn es fulltri bei Default nutzt. Hat 8bit-LOD-Fraction. Man kann die Optimierungen via Schalter einschalten. Auch die Winkelabhängigkeit wird abgeschaltet. Und für ganz exclusive gibt es SuperSampling.
 
BodyLove schrieb:
WhiteShark, du verstehst es ist. Ein Qualitätsverlust ist existent. Du würdest es auch in Spielen merken. Und zwar ind Bewegung. Lass dir nichts von den PR-Managern einreden. Es gibt, wenn es um Bildquali geht, keine Verlustfreie Optimierung. Sogar das neue Feature 3Dc-Kompression ist nicht verlustfrei. Ein Feature wäre es, wenn ich die Macht hätte, dieses an und abzuschalten. Was nicht geht. Was glaubst du, wieso ATI keinen Schalter hat? Das ist definitiv kein topfeature! was soll danach folgen? Wollen sie mir weiss machen, dass man den Untershcied zwischen Tri und Bi nicht sieht, und deshalb man ab sofort, auf Grund von der FPS nur noch Billinear filtert? Ist das dann auch ein Top-Feature?
es ist eben tatsache das man diese optimierungen nicht sehen kann. von daher ist kein schalter nötig, weil es keinen grund gibt es abzuschalten.

Und wieso habe ich mit diesem "Feature" die top Quali? Top Qualität wäre es, wenn es fulltri bei Default nutzt. Hat 8bit-LOD-Fraction. Man kann die Optimierungen via Schalter einschalten. Auch die Winkelabhängigkeit wird abgeschaltet. Und für ganz exclusive gibt es SuperSampling.
die optimierte version würde aber genauso aussehen wie mit fulltri. von daher hat auch die optimierte version eben die top quali.
schalter brauch einfach keiner und deswegen ham die auch keinen drin.
 
BodyLove schrieb:
Und was ist das?

http://www.nvnews.net/vbulletin/showthread.php?t=28942

Tatsache ist es eben nicht!

Gruß Body
also ich sehe hier beim r360 fast garkeinen unterschied zu den nv40, nur bei ganz genauem hinsehen.
beim r420 ist es etwas schlechter als bei den anderen, aber auch nur bei genauem hinsehen.
in spielen kann man das einfach net sehen. sind zu klein die unterschiede.
 
BodyLove schrieb:
Und was ist das?

http://www.nvnews.net/vbulletin/showthread.php?t=28942

Tatsache ist es eben nicht!

Gruß Body

Das ist ja eine tolle Quelle für ATI-Bildvergleiche :D. Ein Typ, der wohl in Malaysia haust (nichts gegen das Land...) und in irgendeinem NV-Board postet.

Überhaupt wäre mal Zeit, hier dicht zu machen. Die Diskussion kann dann in einem neuen Thread fortgesetzt werden, sobald neue Erkenntnisse vorliegen.
 
WhiteShark schrieb:
also ich sehe hier beim r360 fast garkeinen unterschied zu den nv40, nur bei ganz genauem hinsehen.
beim r420 ist es etwas schlechter als bei den anderen, aber auch nur bei genauem hinsehen.
in spielen kann man das einfach net sehen. sind zu klein die unterschiede.

Eben war es noch GAR kein Unterschied, nun ist es FAST kein Unterschied.
Also, gebe doch einfach zu das es einen Unterschied gibt, basta.
Wie viele Spiele hast Du eigentlich schon auf einem R420 gespielt UND die Möglichkeit gehabt die Qualität OHNE den Cheat zu vergleichen?

@ (C)

Warum machst Du die Bilder schlecht?
Versuche sie doch zu widerlegen!
 
Zuletzt bearbeitet:
(c) schrieb:
Überhaupt wäre mal Zeit, hier dicht zu machen. Die Diskussion kann dann in einem neuen Thread fortgesetzt werden, sobald neue Erkenntnisse vorliegen.

Anscheinend hattest Du wie einige andere noch etwas beizutragen... warum also schliessen? Solange alles im Rahmen läuft isses doch ok - wer das Thema nicht mehr sehen kann braucht den Thread ja nicht ständig zu öffnen :D
 
Shagrath schrieb:
Anscheinend hattest Du wie einige andere noch etwas beizutragen... warum also schliessen? Solange alles im Rahmen läuft isses doch ok - wer das Thema nicht mehr sehen kann braucht den Thread ja nicht ständig zu öffnen :D

Weil zum Ersten alles zum Thema neuer/alter Filteralgorithmus bereits mehrfach alles* gesagt wurde und somit folglich zum Zweiten alles folgende nur noch déjà-vu-Effekte hervorruft oder einfach nur OT ist ;). Der Thread ist für Aussenstehende jetzt schon unübersichtlich, weil das gleiche Thema einfach übermäßig aufgeblasen wurde.

@GRAKA: dann wären wir mal wieder beim spendet-ATI-für-(c)-Thema :D, ich würde solche Vergleiche höchstpersönlich vornehmen und nicht aus irgendwelchen ungesicherten Internetquellen herausziehen; da findet man nämlich viel, je länger man sucht ;).

*zumindest alles auf Basis dessen, was der lieben CB/FB-Community alles so an Info's zugekommen ist - was aber noch nicht genug ist. Über die Bildqualität können wir uns jetzt ewig verbal zumüllen, ohne auch nur einen einzigen direkten (und gesicherten) Vergleich zu haben...
 
(c) schrieb:
Über die Bildqualität können wir uns jetzt ewig verbal zumüllen, ohne auch nur einen einzigen direkten (und gesicherten) Vergleich zu haben...

Doch, können wir.
Wenn Du dir eine Musik-CD kaufen gehst erwartest Du doch auch, dass dort CD-Qualität drauf ist und keine MP3 Qualität unabhängig davon ob man es hört oder nicht. Und genau so erwarte ich auch die TriFi bei VGA-Karten.
Da will ich kein Bi, kein Bri und auch keine pseudo Tri!
Hier wurde von Seiten ATI nicht mit offenen Karten gespielt.
 
Zurück
Oben