News Qualität des anisotropen Filters bei ATi geändert

Status
Für weitere Antworten geschlossen.
GreatEvil schrieb:
Die Blume ist kleiner und deutlich schaerfer. ...
Sie erscheint dir "schärfer", weil die einzelnen MipMaps stärker von einander getrennt gezeichnet werden und das ist eindeutig schlechter, denn im Optimalfall gehen die MipMaps, die vom Programm eingefärbt werden, um das besser sichtbar zu machen, abslut fließend ineinaner über, womitscharfe Farbgrenzen entfallen. Weils natürlich in der News nicht so klar wird wie im alten ausführlichen Artikel zu diesen ganzen Tricks:

@ all

Bericht: AF-Optimierungen unter der Lupe (2005) - kann jeder, der keine Vorkenntnisse zu diesem Thema hat, mal lesen, damit wir uns nicht den Mund mit Sachen fusselig reden, die in dem Artikel schon längst ausführlich erklärt sind. ;)
 
Zuletzt bearbeitet von einem Moderator: (Link korrigiert)
Unschaerfe als fliessenden Uebergang zu verkaufen ist ....

Aber was anderes ist an dem von dir verlinkten Artikel toll.
Laut diesem wird bei A.I. on briliniar gefiltert. Das passt zum dem Post von "HOT" und auch zu den eigenen Erfahrungen mit den verschiedenen Catalyst Versionen. Die Erklaerungsversuche von CB zu dem gefundenen Phenomaen wirken dadurch komplett an den Haaren herbeigezogen.
 
Sorry aber willst du hier rumtrollen? Nur weil es in der AF-Blume als verwaschen erscheint ist das Bild in der Realität nicht unscharf. Es zeigt ja nur den Übergang der Mipmaps.
Willst du tatsächlich trilineare Filterung als Schwachsinn darstellen?
Nutz doch gleich wieder Point Sampling ohne Mipmapping.

Trilineare Filterung ist neben der Erhöhung der Farbtiefe auf 32 bit die wichtigste Neuerung des letzten Jahrzehnts.
 
Zuletzt bearbeitet:
bensen schrieb:
Willst du tatsächlich trilineare Filterung als Schwachsinn darstellen?

Na gratz. Nur weil dir Aussagen nicht gefallen, musst du nicht irgend welchen Unsinn schreiben und ihn mir unter schieben wollen. Aber das scheint hier in letzter Zeit ein oft genutzes "Mittel" zu sein.

Wo zum Geier schreibe ich auch nur ein Wort gegen trilinieare Filterung?

bensen schrieb:
Nur weil es in der AF-Blume als verwaschen erscheint ist das Bild in der Realität nicht unscharf.

Hab ich nirgends geschrieben. :rolleyes: Ich rede nur von der AF-Blume. Und ein fliessender Farbuebergang dort heisst ebend NICHT das es unscharf auszusehen hat.


Edit:
bensen schrieb:
Nutz doch gleich wieder Point Sampling ohne Mipmapping.

Aber mir rumtrollen vorwerfen...
 
Zuletzt bearbeitet:
Dann verstehst du eben die AF-Blume nicht.
Denn das was du da als toll hinstellst ist eine mangelnde trilineare Filterung.
 
Kann man eigentlich den AF auf brilinear umstellen, oder können das aktuelle Karten nicht so?
Die Möglichkeit zu wählen sollte man haben wie ich finde.
Ansonsten ist es egal, da man es nicht in Spielen nutzen kann :S
 
Pusche schrieb:
ich finde es toll, obwohl ich als Grafik-Laie praktisch kein Wort im Bericht verstanden habe, dass ihr auch solche Finessen rausfindet und direkt mit den Herstellern Kontakt sucht und euch der Sache annehmt! Weiter so.

Dann bist du auch einer der der das schlechtere af der ati auch nicht sieht.Das gilt auch für alle 98 % der Leute.Nur die grafikfetischisten erkennen sowas.In SPielen fällt sowas garnicht auf.

Deswegen sollten sich viele leute auch mit ihren behauptungen zurückhalten...
 
nur für sp3 schrieb:
im grunde wiist ihr also eigentlich noch garnichts.macht aber eine riesen schlagzeile in der ihr sugeriert ati hätte seine treiber manipuliert um leistung zu gewinnen.einen beweis dafür seid ihr aber schuldig geblieben.

üble yellowpress methoden hier. um eines klar zu sagen.ich bin niemandes fanboy

Gibt es doch hier (9.5 Test) -> https://www.computerbase.de/2009-05/bericht-ati-catalyst-9.5/

Und Leistung gab es nicht ;)



HOT schrieb:
Das ich glaub da wird was total missverstanden. ATI filterte die ganze Zeit in Wirklichkeit brilinear bei A.I.-Standard,

Nvidia ebenso ;)
 
Arhey schrieb:
Kann man eigentlich den AF auf brilinear umstellen

Bei Ati mit "A.I. on" wird brilinear gefiltert. Das will bloss Bensen nicht verstehen.
 
MixMasterMike schrieb:
Das ist wieder sowas für Lupenzocker und wenn sogar im Text steht, dass es in der Praxis eh egal ist frag ich mich ob sowas die Aufregung wert ist, die es verursachen wird.

Naja und ansonsten hat Nvidia vielleicht stabilität bei der Bildqualität, dafür gehen die Chips aber leider kaputt. Auch wenn das eine nichts direkt mit dem anderen zu tun hat, zeigt es eben, dass jeder Hersteller seine Vorteile hat.

Dell-verbannt-Nvidia-fast-vollstaendig-aus-dem-Portfolio
http://www.pcgameshardware.de/aid,6...lstaendig-aus-dem-Portfolio/Grafikkarte/News/

@über mir:
du hast schon gelesen, dass es hier vermutlich nur um den neusten Catalyst 9.5 geht und nicht pauschal um alle ATI Karten? Vielleicht solltest du eher mal korrekt die Treiber einstellen, bevor du sowas sagst.

Eben!
Ich bin auch eines der Opfer von Nvidia.
Klar hat Nvidia deutlich bessere Treiber (das ist nämlich ausschließlich Treiberarbeit) und gerade unter Linux sind die besser aber das ändert nichts daran, dass die highend Nvidia Chips seit ein paar Jahren eine katastrophale Ausfallrate haben (vorallem im Mobile Bereich).
Dass das die Nutzer, die sich jedes Jahr eine neue Graka holen, nicht merken ist mir klar. Aber es gibt eben auch Nutzer die sich einmal eine mid- oder highend Graka holen und dann ein paar Jahre im Rechner lassen wollen.
 
Fakt ist das ichs leider bei CoD4 sehe das die gegner-Texturen in Bewegung schwammig aussehen und schwerer zu treffen sind.

Bei meiner alten 8800GTX habe ich das nicht so extrem.
 
@Rolle1112: Einbildung ist auch eine Bildung. Gerade COD4 ist eher ein Beispiel, wo man kaum einen Unterschied erkennt zwischen ATI- und Nvidia-Default.
 
sehr schön, dass ihr auf solche änderungen ein auge habt, danke CB :daumen:

für mich persönlich ist diese AF/AA-diskussion, bei denen auch gerne zig benchmarks herangezogen werden ziemlich nebensächlich, denn bei so ziemlich jedem spiel habe ich diese einstellungen im unteren drittel stehen (also 2 oder 4), mehr macht in meinen augen nicht sonderlich viel sinn. natürlich gibt es eine (minimale) optische verbesserung, aber diese steht in keiner erträglichen relation zur gefressenen rechenleistung.
vor allem fällt das beim normalen spielen und bei bewegung eh nicht auf, da man sich dabei auf die handlung/action konzentriert und nicht wie glatt die kante ist. wenn man dann wieder explizit darauf achtet kann nicht mehr von normalem spielen die rede sein.
für screenshots lass ich mir das ganze ja noch gefallen; auch bei professionellen anwendungen, wobei die nutzer dann aber eh ganz andere karten im rechner haben.
 
Im 3d center gibs schon länger einen Thread den ich wärmstens empfehlen kann. Da hat man sich schon länger mit den problem beschäftigt und vergleichsbilder/videos ingame rausgebracht mit und ohne optimierungen zwischen Nvidia und ATI.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455055

Tja zuletzt kam mir die erkenntnis wenn ATI die optimierungen abschalten ließe durch ein update (schalter im Treiber) dann würde diese Generation (HD38XX/HD48XX) unter HQ einstellung abkacken. Keiner kauft eine Highend Karte um Low Bildqualiy zu bekommen. Wenn ich reserven hab in bereich FPS will ich die auch sinnvoll in die Bildqualiy investieren HQ +16AF.
 
Nicht intressant.
AMD hat nichts geändert. Performance bleibt gleich.
Das mit AI und bilinear und trilinear hat man vorher auch schon wissen können.
Schaltest du AI aus ist die Bildquality keinen Deut besser als zuvor.
 
Ich bin zwar Laie aber soweit ich die Pics übereinandergelegt und verglichen habe, konnte ich nix an Unterschieden, gar welche die eine Verschlechterung darstellen sollen erkennen.
 
IC3M@N FX schrieb:
Im 3d center gibs schon länger einen Thread den ich wärmstens empfehlen kann. Da hat man sich schon länger mit den problem beschäftigt und vergleichsbilder/videos ingame rausgebracht mit und ohne optimierungen zwischen Nvidia und ATI.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455055

Tja zuletzt kam mir die erkenntnis wenn ATI die optimierungen abschalten ließe durch ein update (schalter im Treiber) dann würde diese Generation (HD38XX/HD48XX) unter HQ einstellung abkacken. Keiner kauft eine Highend Karte um Low Bildqualiy zu bekommen. Wenn ich reserven hab in bereich FPS will ich die auch sinnvoll in die Bildqualiy investieren HQ +16AF.

99 % der leute sehen das das schlechtere af nicht...:king:
 
Ich finde Optimierungen an der Bildqualität - auch im negativen Sinne - als durchaus vertretbar! Solange es "Qualitätsverluste" sind, die nicht sichtbar / wahrnehmbar werden.

Mir wäre es auch lieber, ein Spiel steht permanent bei maximal 30 FPS... und fällt NIE darunter, egal wieviel gerade gerendert bzw. physikalisch berechnet werden muss. Für solche Produkte würde ich sehr viel Geld ausgeben, egal auf welchem Ranglistenplatz diese in einer reinen MAX-FPS-Wertung diese stehen!

Die sichtbare Qualtität (z.B. wie hier in Form von Bugwellen) darf selbstverständlich nicht darunter leiden!
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben