Gewichtung 4xAA/16xAF o. 8xAA/16xA

DaVinc

Cadet 3rd Year
Registriert
Jan. 2009
Beiträge
50
Hallo..

ich lese mit begeisterung die Artikel zu neuer Hardware auf dieser Website.
Doch bei dem Fazit treten bei mir Fragen auf.. es werden von Pronzentwerten gesprochen die sich auf Einstellungen von 4xAA/16xAF oder 0x beziehen.
Die Frage ist warum?
Warum nutzt man Grafikeinstellungen auf mittel um eine empfehlung abzugeben?

Alles wird @max getestet, z.B. CPU's. Also warum bezieht man sich nicht auch bei Grafikkarten auf die maximalen Einstellungen? So hat man doch einen idealen Belastungstest?
Wer kauft sich z.B. eine HD4870 X2 und spielt dann nicht @8xAA/16xA ?!


Ich persönlich besitze eine HD4850, ein Bekannter von mir eine 9800GTX+. Ohne AAxAF sollte die Nv vorne liegen, mit AAxAF @max liegt meine HD4850 vorne.
Im Praxistest auf einer Lan, musste mein Bekannter seine Grafik bei den meisten Games bei 4xAA/16xAF lassen.. ich persönlich konnte mit 8xAA/16xA spielen. -> Es ist wenig Unterschied zwischen der Grafik, aber ein erkennbarer, für mich netter Effekt :)

Daher frage ich mich eben warum man sich hier beim Fazit nicht auf die maximalen Grafikeinstellungen bezieht?!
 
8x MSAA ist nicht die maximale Bildqualität, sondern weit davon entfernt. Ist mehr ein Bench-Setting, denn mehr als 8x MSAA lässt sich bei AMD und NV nicht vergleichen. Und idR rechtfertigt der minimale Optikgewinn in Sachen Geomtrieglättung durch 8x MSAA den Fps-Impact nicht.
 
über 4xAA ist bei NV Karten sowieso ein Problem, da der Einbruch der FPS viel zu groß ist um die "bessere" Bildqualität von 8xAA zu rechtfertigen.
Außerdem sieht man meines erachtens kaum Unterschiede.

4xAA ist genug um Midrange Karten extrem auszulasten. Bei 8x wäre der Vergleich hin, denn was nutzt es mich, dass meine Grafikkarte die ich mir evtl zulegen will 4FPS bei Crysis bei 8xAA hat!?!!?
 
Crysis ist ja auch kein ideal Beispiel.. aber nehmen wir z.B Jericho. Dies war ein Beispiel auf der LAN... ich empfand die Grafik mit 8xAA/16xAF aufjedenfall besser.. die HD4850 konnte diese Leistung auch konstant bringen.. die 9800GTX+ musste auf 4xAA zurückgreifen.
 
Anders als bei Prozessoren und der restlichen Hardware geht es bei Grafikkarten nicht nur darum, wie schnell sie eine Aufgabe erledigen, sondern ob die Geschwindigkeit auch noch ertragbar ist. Auf eine CPU, die einen Film encodiert, kann ich warten, aber wenn die Grafikkarte länger als 1/30 Sekunde für ein Bild braucht, nützt es mir gar nichts mehr. Deshalb sind maximale Settings nicht sinnvoll.

Und wie gesagt, 8AA macht in den wenigsten Spielen ein besseres Bild, ich habe es bisher nur für Rennspiele für sinnvoll empfunden. 4TMSAA bzw AAA sind viel wichtiger, ab 8TSSAA würde ich von wirklich hoher Bildqualität sprechen, aber das schafft keine Singlecorekarte mehr, hoffen wir auf die nächste Generation.
 
Naja laut aktuellen Benchwerten sollte die HD5870 ja genug power als Single-Karte bringen :)
Ich bin gespannt was nVidia da wieder zaubert...
Weil erst damit werden die dx11 karten interessant.

Und ich spiele meist in 4xAA und 200% downsampling :) also 1920x1200 *2 (3840x2400).
Arma 2 unterstützt das ja z.b. aber da läuft kaum was flüßig... da wird evtl. bald ne 2te gtx280 folgen, wenns die unter 150€ gibt :)
 
max Settings, das mache ich bei alten Games wie Warcraft 3 & Co,
aber bei modernen Spielen wie z.B. UT3 reichen mir 4xAA+16xAF völlig aus.
Ich bin auch der Meinung, dass man auf einer NV Karte nicht mehr als 4xAA einsezten sollte, da die FPS Einbrüche in keinem Verhältnis zur gefühlten Bildverbesserung stehen.

Denn je höher die Auflösung, desto weniger AA braucht man. Es sei denn du hast nen 100" LCD :lol:
 
Das stimmt bei TFTs auch nicht mehr. Denn da haste mit ner größeren Auflösung merist auch ne größere Bildfläche.
Bei nem 27" mit 1920x1200 sieht man das Aliasing genau so deutlich wie auf nem 19" mit 1280x1024.

Aber allgemein ist für mich die Geometrieglättung bei 4xAA ausreichend. (Wobei es natürlich trotzdem gut ist noch bessere Optionen zu haben) Aber da setzt ich dann eher auf TSSAA um Alphatests zu glätten oder bei alten Spielen sofort 16xS oder 32xS ein. Denn Flimmernde Bäume und Sträucher und verpixelte Kabel und Zäune sind hässlicher als nicht komplett glatte Kanten die nur durch 4xAA geglättet wurden.
 
das ist wieder das ding mit den äpfeln und den birnen^^
bei nvidia sieht bereits das 4 x aa fast so aus wie das 8 x aa, allerdings frisst 8 x aa auf ner aktuellen geforce wahnsinnig viel resourcen. ergo: 4 x aa ist klar die bessere wahl.

bei ati gibt es schon einen sichtbaren unterschied. allerdings lassen aktuelle ati-karten auch nicht so stark bei 8 x aa nach. ergo: 8 x aa kann durchaus sinnvoll sein, wenn die leistung reicht.
 
Yup sieht um einiges Besser aus. Ausser man hat was an den Augen sollte man halt über ne Brille nachdenken. :D
 
y33H@ schrieb:
Bei AMD wie NV sieht 8x MSAA genauso besser aus wie das 4x MSAA.

Die Aussage verstehe ich nicht ganz. Denn demnach lohnen sich 8xAA auch bei ner Geforce, rein von der Bildqualität her.
 
AMDs 4x MSAA = NVs 4x MSAA
AMDs 8x MSAA = NVs 8x MSAA

Je nach Winkel minimale Abweichung, die je nach Szene mal NV mal AMD vorne sehen. In Praxis aber zu 99% identisch.
Denn demnach lohnen sich 8xAA auch bei ner Geforce, rein von der Bildqualität her.
Natürlich - warum sollte es auch nicht? Die optische Differenz beim Wechsel von 4x auf 8x MSAA ist bei NV wie AMD nahezu identisch, nur ist bei NV idR der Fps-Impact größer.
 
ich y33h@ vollkommenr echt geben. finde den leistungseinbruch sobald man diese features einschaltet nicht mehr schön...

ich selber habe es schon öfters probiert sie hinzuzuschalten aber konnte nie einen nenneswerten unterschied feststellen. geht euch das genauso oder steh ich da alleine? :D
 
ich erinnere mich an eine aussage von wolfgang in einem grafikkartentest einer nvidia, dass der umstieg von 4 x aa auf 8 x aa keinen nennenswerten optischen unterschied machen würde. hab das seinerzeit so verstanden, als wäre das speziell bei nvidia so. leider weis ich nicht mehr in welchem test das war, würds gern nochmal nachlesen jetzt...
 
Zuletzt bearbeitet:
@Lübke: Schau dir mal diesen Test von CB an: Klick mich

Zitat:

"[...]Bei den reinen MSAA-Implementierungen gibt es, wie bereits erwähnt, zwischen ATi und Nvidia keine spürbaren Differenzen. Die Abtastmuster weisen dasselbe EER auf („Edge Equivalent Resolution“, beschreibt mit einem Zahlenwert die theoretische Qualität des Anti-Aliasing, wobei berücksichtigt wird, ob ein Sample mit einem anderen auf einer Linie angeordnet wird und somit die Kantenglättung nur marginal verbessert), einzig die Anordnung der Muster ist leicht verschieden. Somit sehen manche Winkel auf einer ATi- und andere auf einer Nvidia-GPU besser aus – im Schnitt geben sich beide Kandidaten nichts.[...]"

Zitat ende.
 
Naja, schau dir die Vergleichsbilder doch einfach mal an und entscheide dann. Dazu habe ich den Test doch extra verlinkt. Das ist aber wieder so eine Sache, die jeder etwas anders wahrnimmt.

Ich persönlich sehe beim Spielen keinen so extrem großen Unterschied zwischen 4MSAA und 8MSAA, weshalb ich bisher nur mit 4AA gefahren bin. Egal ob es jetzt eine ATi- oder nVidia-Karte war, mehr als 4AA habe ich nie genutzt/gebraucht.
 
Zurück
Oben