AA-Unterschied von Catalyst-CC zu Spieleinstellungen

napecs

Commander
Registriert
März 2011
Beiträge
2.052
Hi !

Hab mal eben ne Runde Bulletstorm angeworfen (kann ich übrigens wärmstens empfehlen :D )
Wenn ich im Spiel das Antialiasing hochdrehe, fallen die FPS direkt von 60 auf ca 30 , d.h. man kann es so kaum richtig spielen. Es sieht auch nicht wirklich besser aus, bzw. es macht nur einen sehr sehr geringen Unterschied.
Nun habe ich spaßeshalber mal im Catalyst-Control-Center rumgespielt (siehe Bild), das Game gestartet und es sieht HAMMER gut aus und läuft absolut flüssig.
Kann es sein, dass Catalyst mehr aus dem System rausholt wie das Game selbst?

MFG

93190652.jpg
[/URL] Uploaded with ImageShack.us[/IMG]

P.S.: Falls es jemanden interessiert: System:
1055t
8GB Ram CL 8 1600
Win7 64 bit
6870 1GB
 
Möglich, dass AMD schon AA-Bits im Treiber hat - welche Version nutzt du? Das ingame-MSAA von Bulletstorm ist ziemlich "unperformant". Adaptive AA glättet übrigens auch Vegetation und Co. mit.
 
Ich habe gestern das Update installiert, d.h. ich habe 11.3 installiert
 
Dann ist's möglich, dass hier die Leistung steigt. Nvidia hat beispielsweise auch AA-Bits im Treiber, die MSAA flotter berechnen (bei praktisch identischer Qualität) wie die ingame-Vorgabe von People can fly bzw. Epic Games. Ach ja, cooler Titel - uncut hoffe ich? :p
 
y33H@ schrieb:
Ach ja, cooler Titel - uncut hoffe ich? :p

Klar ;-) wobei es mir auch wurst wäre ,wenn nicht.... Ich finde das Game inzwischen besser als Crysis 2, macht einfach Spaß durch die Level zu rushen :evillol:
 
napecs schrieb:
Klar ;-) wobei es mir auch wurst wäre ,wenn nicht....

Blasphemie!^^ http://www.schnittberichte.com/schnittbericht.php?ID=973741

Jo cooles Spiel, spiele Ich auch zur Zeit ^^ Und übrigens, Ich spiele zwar mit eh SGSSAA aber man kann,wie Ich finde, trotzdem schon deutlich einen Unterschied zwischen 1xAA und 8xAA (Ingame-Einstellungen) sehen...

BTW:
Warum steht bei dir bei Anisotropic Filteríng der Zeiger nicht auf 16x ? Kostet doch eh fast keine Leistung
 
Zuletzt bearbeitet:
Die UE3 appliziert bei maximalen Texturdetails ohnehin 8:1 AF.
 
y33H@ schrieb:
Dann ist's möglich, dass hier die Leistung steigt. Nvidia hat beispielsweise auch AA-Bits im Treiber, die MSAA flotter berechnen (bei praktisch identischer Qualität) wie die ingame-Vorgabe von People can fly bzw. Epic Games. Ach ja, cooler Titel - uncut hoffe ich? :p
Da frage ich mich ganz ehrlich wie ?
Oder wird für ein anderes Bit auch ein anderer Algorithmus verwendet? (Ich bin ja davon ausgegangen, dass ein Referenzalgorithmus verwendet wird - dürfte aber wahrscheinlich so sein, dass es auch wie beim AF von der Referenz abweicht oder die Hardware limitiert)
Immerhin ist es ja oft so, dass nach dem SRAA Paper von NV und der TU München der MSAA-Algorithmus mit Deferred Shading die Komplexitätsklasse(für die es nicht kennen - sei Landau-Notation und Asymptotik genannt) eines Brutforce-SuperSampling-Algorihtmus annimmt.
 
Zuletzt bearbeitet:
Ja - MSAA unter DX9 wird idR zu SSAA, wenn man es erzwingt. Man kann per Bits zwar tweaken (wie genau das geht, ist mir zugegeben nicht vollends klar), aber der Performance-Hit ist sehr groß und die Glättung mangels Tiefenpuffer-Zugriff teils nur sehr mäßig. Ab DX10.1 klappt das weitaus besser (Fps und IQ).

Was meinst du mit "anderem Algorithmus"?
 
das gleiche phänomen hatte ich in Battlefield bc 2 mit meiner ATI.
AA und grosse explosionen heftige framedrops auf 30, dann AA ausgemacht ingame und konstante 60FPS egal wo.

Das hat mich gewundert also hab ich per CC AA aktiviert und siehe da spiel bleibt konstant bei 60FPS.

Es schient als würde ATI mit ingame AA nicht zurechtkommen manchmal.
 
Du kannst meines Wissens unter DX10/DX11 in BC2 per Treiber kein AA via Treiber erzwingen - vermutlich war bei den 60 Fps die Kantenglättung schlicht aus.
 
Zurück
Oben