News Offizielles ATi-Statement zur Texturfilterung

byte schrieb:
@stormbilly

a) Solltest du mal Englisch lernen
Aha, Mr.
FB schrieb:
kann also Englisch? Na dann lass mal hören, ich lerne immer gerne dazu.
byte schrieb:
b) Erwarte dir keine großartige Antwort von ATI, wenn du ihnen dermaßen pöbelhaft mailst
Antwort? Hast du mein Edit gelesen?
byte schrieb:
c) Akzeptiere Features, die die Geschwindigkeit erhöhen, ohne die Bildqualität _merklich_ zu verschlechtern.
Mit Features wird geworben. Da vertraue ich ganz auf die PR. Mit bildqualitätsverschlechternden Maßnahmen nicht. Na, über was reden wir hier wohl?
 
@heekyrider
ich kann ihn mir wieder und wieder durchlesen, dadurch wird er trotzdem nicht vernünftig ;)
 
Niyu schrieb:
Englisch wird in Deutschland ab der 5ten Klasse gelehrt. naja, fast 4 Millionen menschen in Deutschland können nicht richtig Lesen und/oder Schreiben..da fällst du garnicht so doll auf...

Sorry, aber musste mal sein.

Eine Weltsprache wie Englisch muss man einfach können... setz dich halt mit nem PONS vor den Text... obwohl ich Ihn eigentlich gut verständlich finde... aber bildet euch bloss nicht weiter...

PISA lässt grüßen.

Armes Deutschland.

LOLLLLL , ICH PISS MICH WEG! Der war gut :)

ICh finde das ist ne Thailändische Seite , das merk ich an der Sprache die hier gesprochen wird.
 
@34 Blackbird
mal abgesehen davon, dass es wirklich einigermaßen sinnlos ist, über Sachen zu diskutieren, die man nicht mal auf Screenshots sehen kann (Gruß an 40 ;) ), mal was dazu:
3. hat ati mir das zu liefern wofür ich bezahle und keine irgendwie gearteten optimierungen die nirgends erwähnt werden

eigentlich hast du das zu bezahlen was ati liefert, die können ja immerhin anbieten was sie wollen...und wie sie im endeffekt die (in meinen Augen nicht von der perfekten Lösung zu unterscheidenden) Bildqualität erreichen, ist ihr Problem. Wenn du dir ein Auto kaufst mit 120 PS regst du dich doch auch nicht darüber auf, dass der motor eigentlich 10 PS mehr leisten könnte...

und allgemein zum Thema: "Warum hat ATI das Ganze nicht gleich als Feature angepriesen" ein Zitat von HardTecs4U:
Die Tatsache, daß dieser Algorithmus sich noch im Patentierungsverfahren befindet hat ATi wohl daran gehindert gleich mit offenen Karten zu spielen.

ach ja und noch was, gleiche quelle:
ATi scheint in diesem Fall unschuldig zu sein. Eine Optimierung der Treiber durch einen intelligenten Algorithmus, bei dem keine optischen Nachteile auftreten ist kein Cheating.

so, das wars nun aber
 
ja, und zwar das was sie laut produktbeschreibung liefern.
wenn die features davon abweichen muss man darauf aufmerksam gemacht werden

was glaubt ihr denn alle wie das in der industrie aussieht. da wird dir ein abnehmer eins husten wenn du einfach irgendwelche details ohne rücksprache änderst
 
Niyu schrieb:
Englisch wird in Deutschland ab der 5ten Klasse gelehrt. naja, fast 4 Millionen menschen in Deutschland können nicht richtig Lesen und/oder Schreiben..da fällst du garnicht so doll auf...

Sorry, aber musste mal sein.

Eine Weltsprache wie Englisch muss man einfach können... setz dich halt mit nem PONS vor den Text... obwohl ich Ihn eigentlich gut verständlich finde... aber bildet euch bloss nicht weiter...

PISA lässt grüßen.

Armes Deutschland.

englsich weltsprache ? du weißt aber das in europa die meisten menschen deutsch sprechen ?
um genauzusein über die hälfte der europäischen bevölkerung.

da frage ich mich welche sprache hier im forum wohl herrschen sollte ?

weil in sämtlichen turistenorten in der EU spricht man deutsch, aber nicht zwangsläufig englisch :p
 
Sobald eine Erfindung zum Patent eingereicht ist, ist man rechtlich auf der sicheren Seite und kann drüber reden, so laut man will ;)
 
Hier gehts ja ganz schön ab. ;)

Nunja, was ATI da abzieht bzw. abgezogen hat ist mies, richtig mies. Ob jetzt Unterschiede auf Screenshots sichtbar sind oder nicht ist da doch völlig uninteressant. Die Karte(n) bringen nicht das was sie sollen bzw. womit geworben wird - und zwar nachweislich, wie das Team in Kooperation mit anderen Seiten herausgefunden und dargestellt hat.

Solange jedoch viele das einfach runterschlucken bzw. akzeptieren, so wie einige hier im Thread, dann kann man sich ja auf was gefaßt machen. Die Industrie ist sicher nicht dumm, wenn man dem Kunden einmal etwas reindrücken kann, dann kann man das auch ein zweites und ein drittes Mal machen.


Bye,
 
was ist daran biete mies ?
die karten bringen die volle leistung mit der sie auch angeworben werden. durch die optimierungen gibt es keine qualitätsverluste.
daher brauch man auch keine möglichkeit es abzuschalten, da es niemanden stören kann.

es verbessert die performance ohne die bildqualität zu verschlechtern. wozu abschalten ? also brauch ati keinen schalter einzubauen.

zudem kommen doch ständig treiber raus die die performance verbessern. ist dasselbe wie hier.

und seit doch froh das ati dieses feature eingebaut hat, ob man es nun weiß oder nicht, man hat mehrleistung.
 
@ white shark - martin h - madden - zwicky

ich kann eurer meinung nur zustimmen - ich kann mir kaum vorstellen das die leute die sich hier über nicht (oder nur unter laborbedingungen (20 fache vergrößerung *loool*)) sichtbares aufregen das jemals gemerkt hätten, wenn es nicht mal irgendjemand zufälliger weise aufgedeckt hätte.
und - - - welchen normaluser interessiert das eigentlich?
wenn ich irgendetwas nicht offensichtlich erkennen kann und das (in diesem fall optische) ergebnis meinen erwartungen entspricht, kann es mir doch egal sein, unter welchen technischen vorraussetzungen es zu stande kommt.
wenn ich spiele dann geht mir das echt am ***** vorbei- das optische erlebnis zählt. und wenn das spiel gut aussieht und flüssig läuft dann grübel ich doch nicht noch im detail darüber nach, warum die grafikkarte unsichtbare details nicht oder schlechter berechnet.
diese ganze diskussion von leuten die sich negativ über dinge auslassen, die eigentlich real keine rolle spielen sondern sich nur im theoretischen bereichen abspielen, ist eine reine erbsenzählerei und wichtigtuerei. vor allem wenn es sich auf grafikkarten bezieht die es noch garnicht zu kaufen gibt und das alles nur auf hörensagen bzw lesen beruht. und das fachzeitschriften und webseiten mal gerne "sensationelles" fehlverhalten aufdecken die kaum nachzu vollziehen sind, dürfte für uns alle eigentlich nichts neues sein.
also bleibt mal alle schön realistisch.

hinter jeder veränderung betrug sehen zu wollen ist doch echt voll an der realität vorbei - da nun intel scheinbar auch vom gechwindigkeitswahn per ghz abzurücken scheint, werdet ihr bestimmt auch denen solch einen betrugsversuch vorwerfen oder ?

auf das den ewigen zweifler nicht das pulver ausgehen mag ^^
 
@ lobsteron
Wie nennst du es denn, wenn ATi in den offiziellen Review-PDFs behaupte, dass

1. die X800 trilinear "by Default" rendert,
2. die Filterqualität die beste am Markt ist,
3. der Tester dies mit eingefärbten MipMaps kontrollieren soll, bei denen der Algorithmus ausnahmsweise dann wirklich trilinear zu Werke geht.

In einem Statement dann aber zugibt, dass die X800 mitnichten immer trilinear filtert (aber eben mit eingefärbten MipMaps). Und warum hat man dieses "Feature" schon vor einem Jahr der 9600 geschenkt, die einige Schwierigkeiten in der Mittelklasse hatte, der 9800 Pro/XT diesen Geschwindigkeitszuwachs aber verwährt? Vielleicht, weil sie auch ohne diese "Einbussen" die Spitze vor nVidia halten konnte und man sich zu derart fragwürdigen Methoden nicht gezwunden sah?
 
Zuletzt bearbeitet:
WhiteShark schrieb:
die karten bringen die volle leistung mit der sie auch angeworben werden.
Wie können sie das denn, wenn gewisse Dinge einfach heruntergerechnet (geschätzt) werden anstatt berechnet? Wie Carsten schon gesagt hat, für OpenGL gibt es sogar entsprechende Vorgaben. Aber wenn div. Dinge nicht mehr eingehalten werden, bzw. der Käufer sich nicht mehr darauf verlassen kann, dass AA auch das AA ist das allgemein als AA etc. verstanden wird, bzw. dem Käufer auch nicht mitgeteilt wird, dass Optimierungen durchgeführt wurden welche die Bildqualität herunterregeln (ob ich das sehe oder nicht ist irrelevant, fakt ist das man es messen kann), dann bleibt dies Betrug am Kunden sowie gegenüber der Konkurenz unlauterer Wettbewerb.

durch die optimierungen gibt es keine qualitätsverluste.
daher brauch man auch keine möglichkeit es abzuschalten, da es niemanden stören kann.
Doch, gibt es. Der Qualitätsverlust ist 1.) Messbar und 2.) sogar sehbar.
Und selbst wenn er nicht sehbar wäre, ist dies immer noch irrelevant. Ich als User bestimme ob ich volle Qualität haben möchte, oder heruntergeregelte und sonst niemand.

es verbessert die performance ohne die bildqualität zu verschlechtern. wozu abschalten ? also brauch ati keinen schalter einzubauen.
Und auch hier wieder, mann kann es messen UND sehen . Faktum.
ATI hat mir keine Vorgaben bezgl. der Bildqualität zu machen. Die bestimme noch immer ich.

zudem kommen doch ständig treiber raus die die performance verbessern. ist dasselbe wie hier.
Ist es nicht. Wenn NV per Treiber die Qualität verschlechterte war das Geschrei groß, aber hier soll alles egal sein? Nein, es ist nicht egal. Alleine für jeden Verbraucher kann es nicht egal sein. Was kommt denn als nächstes das toleriert wird?

und seit doch froh das ati dieses feature eingebaut hat, ob man es nun weiß oder nicht, man hat mehrleistung.
Auch hier noch einmal, ich entscheide ob ich die VOLLE MÖGLICHE BILDQUALITÄT haben möchte und nicht ATI. Basta.
 
Zuletzt bearbeitet:
Sorry für OT, aber ich muß loswerden, dass mich der Thread hiere so langsam an diesen hier: https://www.computerbase.de/forum/threads/bericht-versteckspiele-bei-atis-texturfilter.72411/ , ebenfalls zum Thema ATI X800 erinnert.
Kann man hier nicht mal mehr zivilisiert diskutieren, ohne das wieder ein paar Leute anfangen, rumzuflamen?
Hmpf, hoffentlich lassen sich das die Mods nicht mehr lange gefallen! :(
OT- Ende - meine Meinung zu Thema steht schon im verlinkten Thread.
 
@stormbilly

byte, Newbie
--
kann also Englisch? Na dann lass mal hören, ich lerne immer gerne dazu.

Du wirst doch nicht so oberflächlich sein, und dir ein Vorurteil aus einem Forenstatus zu bilden?

b) Erwarte dir keine großartige Antwort von ATI, wenn du ihnen dermaßen pöbelhaft mailst
--
Antwort? Hast du mein Edit gelesen?

Jep, gelesen, scheinbar hast du meinen Beitrag nicht gelesen. Ich hab von ner "großartigen" Antwort geredet, damit war gemeint, dass du keine detailierte Antwort erhalten wirst, wenn du in diesem Ton den Leuten dort mailst. Ich hab selbst mal bei ner edv-hotline gearbeitet, einem freundlichen User hilft man gerne, auf unfreundliche mails entsprechend weniger.

Mit Features wird geworben. Da vertraue ich ganz auf die PR. Mit bildqualitätsverschlechternden Maßnahmen nicht. Na, über was reden wir hier wohl?

Denkst du das ist die einzige Stelle, in der der Treiber auf eine "bildqualitätsverschlechternde Maßnahme" umschaltet, um bessere Bildwiederholraten zu erzielen? Ich wette dass dies an einigen anderen Punkten erfolgt, bei den anderen Herstellern von Grafikchipsätzen ebenfalls. Oder willst du jetzt nen Aufstand machen, weil der Treiber nicht-sichtbare Polygone nicht berechnet, obwohl im der Benutzer das nie "erlaubt" hat?

Lug und Betrug wirds erst, wenn der Treiber Programmspezifisch bestimmte Einstellungen trifft, die der Benutzer niemals gewählt hat, so wie es nvidia beim 3dmark getan hat.

Um bevorstehene Flames zu verhindern: Ich verteidige ATI hier nicht, weil ich ein Fan bin. Ich bin _keiner_ der Personen, die nen Hersteller vergöttern (ati <> nvidia, intel <> amd). Ich verteidige ATI, weil es sich hier um ne vollkommen andere Situation handelt, als bei nvidia und 3dmark damals.

[edit]
Bin vollkommen b-runners meinung. Wer nicht zivilisiert antworten kann, solls lassen.

gruß, byte
 
Zuletzt bearbeitet:
Das "Geflame" hat sogar schon meine Bewertungen erreicht, da taucht doch glatt ein blöder roter Punkt zum letzten Post meinerseits im anderen Thread auf...

Da wir ja hier bei offiziellen Statements sind, hier der Kommentar von HardTecs4U: http://www.hardtecs4u.de/?id=1084907417,11088,ht4u.php

Endlich mal eine Aussage, die ich bis zum Beweis des Gegenteils mittragen kann:
ATi scheint in diesem Fall unschuldig zu sein. Eine Optimierung der Treiber durch einen intelligenten Algorithmus, bei dem keine optischen Nachteile auftreten[,] ist kein Cheating. Die Tatsache, daß dieser Algorithmus sich noch im Patentierungsverfahren befindet[,] hat ATi wohl daran gehindert[,] gleich mit offenen Karten zu spielen.
Am richtigen Kommasetzen müssen die Jungs und Mädels bei HardTecs4U aber noch arbeiten. :D
 
(c) schrieb:
Endlich mal eine Aussage, die ich bis zum Beweis des Gegenteils mittragen kann:

Die Aussage: "Eine Optimierung der Treiber durch einen intelligenten Algorithmus, bei dem keine optischen Nachteile auftreten[,] ist kein Cheating" ist unsinnig.

Bsp.: Du kaufst Dir ein Auto auf dem die Angabe steht 125PS, dann gehst Du doch auch davon aus, dass das Auto 125PS hat so wie es die Allgemeinheit versteht hier in Deutschland, oder? Niemand würde hier in D hergehen und noch einmal den Verkäufer fragen ob das auch wirklich richtige 125PS sind.
Nun, zwischen amerikanischen PS und europäischen PS gibt es aber einen Unterschied. Die Amerikaner messen VOR dem Getriebe und in der EU wird NACH dem Getriebe die PS-Zahl gemessen. Daher hat bsw. ein und das gleiche Auto in der USA mehr PS als in der EU.
So, aber da wir in der EU sind, steht für uns fest was 125PS sind. Wie würdest Du reagieren, wenn du nach dem Kauf des Auto´s feststellst, dass es gar keine 125PS (EU) sind, sondern nur 115 PS, weil der Hersteller eben meinte VOR dem Getriebe die PS-Zahl zu ermitteln (USA) ohne Dich davon in Kenntnis zu setzen? Wäre das KEIN Cheating, Betrug, etc pp?

Aber genau so verhält es sich hier.
Man kann die Verschlechterung messen und inwiefern dies in dem einen oder anderen Spiel objektiv auffällt, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Solange das Auto aber so fährt, als ob es wirklich 125ps hätte, habe ich kein Problem damit. Zudem wurde dir nie zugesichert, der Ati-Wagen hätte 125PS, ganz im Gegenteil, er fährt ja schneller als er sollte, und verbraucht dabei nicht mehr. Um deinen Vergleich mal weiter zu spinnen.

Ich kann nur sagen: Solange ich nichts davon bemerke, dass die Geschwindigkeit optimiert wurde (d.h. nicht auf Kosten der Bildqualität wi nVidia seinerzeit), ist es mir nur recht. Das Spiel sieht genauso gut aus wie ohne Optimierung, läuft dabei aber schneller!

Darum sehe ich um diese Optimierung auch überhaupt keinen Diskussionsbedarf. Wäre die theoretische Leistung in den Benches nicht überschritten worden, hätte es nichtmal jemand gemerkt...
 
NeoPunk schrieb:
Wäre die theoretische Leistung in den Benches nicht überschritten worden, hätte es nichtmal jemand gemerkt...
Und ganau damit ist der Tatbestand eines Betruges erfüllt.
 
@graka0815
"man kann es messen und sehen"
hmmm.. die Funktion ist seit einem Jahr im RV360 implementiert und niemand konnte es sehen, im Gegenteil in saemtlichen Reviews sprach man von einer Qualitaet die mit der R3x0 Reihe identisch sein soll...was denn nun?
Sicher gibt es Unterschiede, und wird es immer geben (sogar wenn sowohl Ati als auch nV beide den "Lehrbuchalgoritmus" anwenden wuerden), man sollte aber bedenken, dass der Sinn und Zweck des trilinearen Filters ist, Uebergaenge zwischen MipMaps zu eliminieren, und nicht irgendwelche theoretischen Formeln zu entsprechen. Warum soll man nur um irgendwelche theoretischen Formeln zu erfuellen filtern, wo es nicht noetig ist? Warum schreit niemand "foul" bei Dingen wie HSR oder aehnlichem, auch hier wird nicht berechnet was nicht berechnet werden muss, ohne dass IQ geopfert wird?
Weiterhin moechte ich doch noch auf diesen Artikel hinweisen, aus welchem du schliessen kannst warum (ich sehe darin kein Wort von IQ) diese ganze Geschichte angestossen wurde https://www.computerbase.de/news/grafikkarten/atis-texturfilter-unter-der-lupe.10209/
zitat: gibt es in OpenGL bei einigen Füllratenmessungen das Phänomen, dass die Karte rund 20% mehr Texelfüllrate erreicht, als ihr rein rechnerisch zustünde.

Witzig ist auch dass in diesem Review https://www.computerbase.de/artikel/grafikkarten/5950-5700-ultra-gegen-9800-9600xt-test.267/ die 9.800 stellvertretend fuer die 9600XT zum IQ Vergleich herangezogen wird. Waren die Reviewer lange blind, oder sind die Monitore in Zwischenzeit besser geworden?
 
Zurück
Oben