News Qualität des anisotropen Filters bei ATi geändert

Status
Für weitere Antworten geschlossen.
Bugwellen etstehen aber nicht, da AMD/ATI ja nichts geändert hat.
In der Praxis schon zweimal nicht.
Trotzdem hätte ATI/AMD dazu mal was klärendes verfassen können, um die User zu Informieren.
Aber ein LOb an CB dass die die Änderung die eigentlich keine Änderung ist erkannt haben. ;-), deswegen ist auch der Titel etwas naja..
 
Experte18 schrieb:
99 % der leute sehen das das schlechtere af nicht...:king:

Natürlich sehen die das! Das Problem ist nur das die kein vergleich haben in der sekunde und deswegen wissen die nicht das es besser aussehen kann. Hier gehts doch nicht mal um wer schlechtere oder langsamere Grafikkarten macht. Das endet meistens als Bash thread hier wenn es um ATI und Nvidia geht. Hier gehts um ordnugsgemäß zu filtern und wenn der Kunde keine optimierungen will in der sekunde dann soll er das recht haben die abzuschalten im Treiber vollständig! Das verwehrt ATI dem Kunden ganz einfach die sagen der Kunde ist zu blöd diese optimierungen abzuschalten durch einen Schalter. Die vergessen aber wenn der Kunde in der lage ist einstellungen im Spiel vorzunehmen wie z.b Auflösung, Schatten, Textur Qualiy, HDR, usw. dann ist der erst recht in der Lage diese paar schalter im Treiber zu betätigen.

Jetzt lehne ich mich mal ganz weit aus dem Fenster nehmen wir mal an ATI würde mit den nächsten Treiber einen Schalter einbauen der wie bei Nvidia durch HQ einstellungen alle optimierungen abschaltet. Was glaubst was die Benchmarkseiten testen werden in Zukunft die werden meistens Default vs. Default und HQ vs. HQ. Gerade bei HQ würde die HD48XX sehr stark einbrechen ohne ihre optimierungen. Das würde sehr schlechte verkaufszahlen für ATI bedeuten weil jeder so FPS geil ist koste es was es wolle. Was glaubste warum die ihre Grafikkarten so günstig herstellen können sie sparen Transtitoren (TMUs) die unter anderen für den bereich filterung zuständig sind. Die Schande ist, dass die Reviewseiten sich einlullen ließen, das Thema müsste ständig zur Wiedervorlage. Stattdessen bestimmt ein verkorkstes Chipdesign die Bildqualität der Nachfolgegenerationen vom R600 bis RV790.
 
@ y33H@ Lads mir grad runter.
Vielleicht hab ich das falsch interpretiert, wie isses denn jetzt eigentlich genau?
Ich glaube so ziemlich niemand weiß genau was los ist.
Dachte dass das in der Praxis irreleant sei.
Edit: Crysis sieht auf dem Video extrem schlimm aus, das Flimmern nicht auszuhalten.
Spiel Crysis auch mit catalyst 9.5, da isser aber lange nicht so schlimm, eher viel besser.
Naja ich weiß jetzt nicht mehr was ich glauben soll.
 
Zuletzt bearbeitet:
Ich bastle aus den Videos im 3DCenter gerade Splitscreenvergleiche, damit man es direkt nebeneinander betrachten kann. Im Thread dort hat ein Gast Videos von "The Witcher" hochgeladen, das daraus entstandene Splitscreen-Video lege ich jedem ans Herzen, der noch keine Vorstellung hat, worum es bei der Diskussion eigentlich geht.

Besonders interessant ist auch, dass die Holztextur einer Hauswand, auf die der Szenenausschnitt fokusiert, bei A.I. Off im Gegensatz zu A.I. Default kaum flimmert, das ist ja leider auch nicht die Regel. A.I. Default ist dagegen IMHO bitter:


http://www.megaupload.com/?d=WAVI3QYN

Wetere Splitscreen-Videos im 3DCenter-Thread
 
hi,
hmm ich also ich gehe jetzt mal (vielleicht zu optimistisch) von einem bug aus, weil wenn die ganzen scherereien von GF4/5 zeiten wieder auftauchen dann sind wir wieder bei punkt null was die qualität betrifft. Leider bin ich nicht so ein experte wie die meisten hier, habe dum einige punkte nicht ganz gecheckt im artikel. Aber kann mir bitte mal jemand erklären was ein "bias" ist? kanns nicht so ganz zuordnen...

Greetz
 
the witcher spiele ich auch gerade auf einer 4870. Mir ist wichtig daß ein Spiel durchgehend mit 60 fps und 2xAA läuft. Jeder hat halt seine Prioritäten. AF kommt bei mir also praktisch bei allen Spielen zu kurz. Das ist eigentlich schade, denn gerade die Texturen werden immer besser.

Was passiert eigentlich wenn man im ATI tray tool "AF höchster Qualität" einstellt ?
 
chris233 schrieb:
Was passiert eigentlich wenn man im ATI tray tool "AF höchster Qualität" einstellt ?
Nichts, bei Karten der R5XX-Generation (X1800 bis X1950) wurde dadurch der (nahezu) winkelunabhängige Anisotrope Filter aktiviert, die Winkelunabhängigkeit ist bei den neueren Karten aber sowieso aktiviert.
 
@ IC3M@N FX

Was fuer ein daemliches Fanboygequatsche. Du willst mir echt erzaehlen, das du nicht faehig bist von A.I. on auf A.I. off umzustellen? Dann kauf dir ne WII ...

Und solltest du doch diese Option finden, wirst du bemerken, das von starken einbrechen nix zu merken ist. Aber was soll man von jemanden mit seinem gruenen Avatar auch erwarten :kotz:
 
y33H@ schrieb:
...Crysis: HQ vs. Q vs. AI-off vs. AI-def- optisch in dieser Reihenfolge. Ziemlich drastisch die Unterschiede.

Flimmert bei beiden recht übel :( die Details sind auch runtergeregelt bei VeryHigh (POM) ist es sehr ruhig :)
 
y33H@ schrieb:
Und hier noch Crysis Warhead mit meinen vier Szenen. THX @ puntarenas! :)

600x280 Bildpunkte
Also hier sehe ich ehrlich gesagt fast keine Unterscheide zwischen den vier Bildern. Ich denke mal, man sollte besonders auf die Kiesel achten.

y33H@ schrieb:
Crysis: HQ vs. Q vs. AI-off vs. AI-def - optisch in dieser Reihenfolge. Ziemlich drastisch die Unterschiede.
Okay, hier kann man die Unterschiede im Schlamm rechts oben im Bild sehen, wenn man genau darauf achtet. Die Geforces flimmern weniger.

Jetzt hab ich es das erste mal mit eigenen Augen gesehen. Das dürfte ja während des Spielens im wahrsten Sinne des Wortes unscheinbar sein. Und ich dachte davor schon es wäre was Dramatisches. Also nach dem Vergleich muss ich wirklich allen Ernstes sagen: Wer ein TN-Panel zum Zocken nimmt und dann allen ernstes immer wieder (einmal darf es ja erlaubt sein) über die schlechtere AF von Radeons im Vergleich zu Geforces meckert, den kann man wirklich nicht Ernst nehmen.

Btw. 66MB für ein 4Sek Video bzw. 135MB für ein 9Sek Video sind auch nicht schlecht. :D
 
Es mag an der Fortgeschrittenen Zeit liegen, aber irgendwie bringt mich der Text der Meldung durcheinander ;-)
 
Lonely Shepherd schrieb:
Btw. 66MB für ein 4Sek Video bzw. 135MB für ein 9Sek Video sind auch nicht schlecht. :D
Ja, wohl wahr, aber es gilt möglichst keine Kompressionsartefakte einzuschleppen.

y33H@ schrieb:
Crysis: HQ vs. Q vs. AI-off vs. AI-def - optisch in dieser Reihenfolge. Ziemlich drastisch die Unterschiede.

Hier nochmal die selbe Szene, aber als No-Brainer geschnitten. Weil der Fokus ausschließlich auf die AF-Bugwellen gerichtet ist, dürfte auch das weniger geübte Auge die Unterschiede sehen. A.I. Off ist deutlich besser als A.I. Default, kommt aber nicht ganz an Nvidia Q heran, von Nvidia HQ ganz zu schweigen.


http://www.megaupload.com/?d=761Y01OT

Dass Crysis ansonsten munter flimmert ist ja kein Geheimnis, aber Shaderflimmern und Flackerschatten sind andere Baustellen. :)
 
@ puntarenas

Es mag an der Uhrzeit liegen, aber kannst du bitte mal die Probleme mit den Bugwellen in dem Bild einkringeln?
 
@ puntarenas

Auf dem Bild kann ich den untershied auch nicht direkt erkennen.

Ich dachte das die Radeons bis jetzt immer besser gerendert haben.

Jetzt muss ich wohl zu NV wechseln.
 
Auf dem Bild sieht man ja auch kein Flimmern :freak: Video anschauen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben