News nVidia kontert: 16xAA für SLI-Benutzer

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.623
Während es bei ATis vor kurzem vorgestellten SLI-Pendant CrossFire durch den Einsatz einer zweiten Grafikkarte möglich ist, die zusätzliche Rechenkraft in eine bessere Bildqualität durch höhere Anti-Aliasing-Modi umzusetzen, bietet der Konkurrent nVidia dies nicht an und setzt stattdessen auf pure Renderleistung.

Zur News: nVidia kontert: 16xAA für SLI-Benutzer
 
wer braucht 16-faches Anti-Aliasing? 8-fach reicht völlig aus.

Zitat:
jedoch sollte unserer Meinung nach in dieser Qualitätseinstellung selbst zwei GeForce 6800 Ultra-Karten
Schwierigkeiten bekommen, ordentliche Framezahlen in modernen Spielen zu ermöglichen

das glaub ich auch, vor allem in hohen Auflösungen also ab 1280x1024 dürfe es nicht viel spass machen zu Spielen.
 
Ich frage mich auch wozu? 8x reicht doch völlig aus oder etwa nicht? Wieder nur nen Werbefeature. Genau so bescheuert wie 512Mb bei ner 6200. Villeicht bringt es was bei den neuen Chipsätzen aber mit den 6800ern? Naja, ich weiß net..
 
Denke ich auch die sollten vielleicht (sage das ganz vorsichtig) 4X,8X AA verbesseren

da kann man sicher noch mehr rausholen mit performence und qualität oder?
 
Naja, 16 fachAA nützt ja eh nur bei 1600x1200 ode rhöher, und das packen vermutlich nichtmal 2 GF6800Ultra mit 16AA

Also ist alles wieder mal ein PR-Gag
 
IC3M@N FX schrieb:
Denke ich auch die sollten vielleicht (sage das ganz vorsichtig) 4X,8X AA verbesseren

da kann man sicher noch mehr rausholen mit performence und qualität oder?
Bei 8x ja, siehe diesen Artikel für besseres Verständnis:
http://3dcenter.de/artikel/anti-aliasing-masken/

Die Idee mit dem MS/SS-Mischmodus find ich irgendwie komisch, langsam sollten Spieleentwickler mal dazu übergehen ihre archaischen Alphatests grundsätzlich mit Alpha-Blending zu versehen, denn durch EInsparung von Blending kann ich mit Sicherheit lange nicht so viel Performance sparen, wie durch Supersampling an den Alpha-Tests wieder aufgefressen wird... :rolleyes:

(Diskussion gabs darum schon öfter, beispielsweise über HL2)

P.S.
Transparency-AA beim G70 berechnet SSAA ja nur an den ungeblendeten Alphatest-Texturen, sollte das hier nicht erwartubgsgemäß öhnlich sein? Sonst machts für mich irgendwie keinen Sinn einen MS/SS-Mischmodi anzubieten.
 
Zuletzt bearbeitet:
Mal schauen welche Grakas das berechnen können!

Samy
 
alle grakas können das berechnen, fragt sich nur ob offiziell von nv unterstützt und in welchem tempo ;)!
 
Ich weiß garnicht was ihr alle habt.
16x AA ist doch super.
Man kann sich darüber streiten, ob es im Moment sinnvoll ist, aber wenn nicht jetzt wann dann?
Fortschritt entsteht durch kontinuierliche Weiterentwicklung.

m.f.G. Sunki
 
Sunehund schrieb:
Ich weiß garnicht was ihr alle habt.
16x AA ist doch super.
Man kann sich darüber streiten, ob es im Moment sinnvoll ist, aber wenn nicht jetzt wann dann?
Fortschritt entsteht durch kontinuierliche Weiterentwicklung.

m.f.G. Sunki
Man kann ferner noch darüber streiten ob eine bloße Rotated-Grid-Maske bei 16x überhaupt noch sinnvoll ist - wie bereits gesagt hat Aths bei 3D-Center darüber mal einen sehr guten Artikel gemacht.
 
also ich finde es auch irgendiwe schwachsinig, aber andererseits auch super. das sind jetzt eh alles die ersten schritten zu höherer bildqualität und geschwindigkeiten. aa und af sind halt vorallem fortschritte zu fotorealismuss. ok die spieleengine gehört auch dazu aber aa macht halt die feinheiten. von daher ist jede "neuentwicklung" bzw jeder fortschritt nur zu begrüßen. außerdem kann man es halt je nach bedarf aktiviren es besteht ja keine pflicht es zu nutzen von daher keine aufregeung ;)
 
Man sollte lieber die allgemeine Bildqualität erhöhen, als irgendwelche höheren ("besseren") Zahlen in den Raum zu werfen, die dem Endbenutzer in keinsterweise auffallen. Zwei Ultrakarten möchte ich mit 16xAA bei Far Cry 64-bit o.ä. modernem Spiel sehen. Mit solchen Karten sollte man lieber eine hohe Auflösung fahren, das bringt mehr Bildqualität als bei 800x600 16xAA reinzuhauen.

Bye
 
Ich finde 16x macht schon sinn denn dann bekommt man wirklich das ganze Bild kantenfrei! Deshalb denke ich wird es eine sinnvolle Erweiterung sein, zumal das Argument, dass 2x6800 ultras nicht ausreichen eh in einigen Wochen dahin sein wird, wenn die neue 7xxx Reihe da ist!

MfG BenniKo
 
Die Kanten sind weniger das Problem, die sind ab 4x eigentlich nur noch analytisch feststellbar.

Das Flimmern der Alpha-Test-Texturen ist widerlich. Jeder Schritt dies zu eliminieren ist richtig. Besonders WoW leidet doch sehr darunter (Sträucher und Bäume).

Was auch stört ist das Flimmern von Polygon-Übergänge z.B. Treppen, das ist mit 4x schon halbwegs ok. Trotzdem stört es, hier ist auch 16x sinnvoll.

Ordered-Grid-Super-Sampling ist daher sehr wünschenswert.

8xS ist aber selbst mit einer Ultra auf 1600 nicht spielbar, daher sehe ich für Doppel-SLI schwarz.


Somit wäre ein Einsatzzweck für Quad-SLI gegeben. Quasi 1 Ultra für die Grafik und 3 fürs Antialaising :)
 
Zuletzt bearbeitet:
BenniKo schrieb:
Ich finde 16x macht schon sinn denn dann bekommt man wirklich das ganze Bild kantenfrei! Deshalb denke ich wird es eine sinnvolle Erweiterung sein, zumal das Argument, dass 2x6800 ultras nicht ausreichen eh in einigen Wochen dahin sein wird, wenn die neue 7xxx Reihe da ist!

MfG BenniKo
Lese bitte Aths hervorragenden Artikel, damit du verstehst, warum 16x AA mit bloßer Rotated-Grid-Maske eben nicht optimale Bildqualität bringt. ;)
 
Zuletzt bearbeitet:
Also 8xAA ist schon sehr systemraubend und durch Super Sampling auch wesentlich besser von der Qualität als ATis 6xAA, dafür ist es nicht so systemraubend.

Ich fordere, das man mit allen GeForce 6 Karten "normales" 8xAA bekommt, wie bei 4xAA und das man 16xAA Super Sampling bekommt ;)
 
tzz, ich bin schon froh wenn ich 2 - 4 fach einstellen kann/darf, die geben immer mehr frei als aktuelle karten eigentlich packen. Wann hört dieser sli-wahn eigentlich auf, wieso packen die nicht gleich zwei cores auf eine platine?
 
Meinst du jetzt Dual-Core, also zwei GPUs auf einem Die oder Dual-Chip, also 2 GPUs auf einer Platine/PCB/Karte?
2 GPUs gibt es bereits von ASUS und Gigabyte - groß, stromhungrig, teuer. Dual-Core würde bedeuten, das ein nVidia 6-Series-Chip bummelig 444Mio Transistoren hätte, das würde die Ausbeute je Wafer drücken und wäre unrentabel, oder die Lösungen wären exorbitant teuer.
Es ist mit SLi und Crossfire schon ok so wie es ist, für die paar Enthusiasten (im Vergleich zum gesamten GraKa-Markt) sind die Lösungen mehr als ausreichend.
 
Also 16xAA brauch niemand. Bei hohen Auslösungen noch weniger. Ich schließe mich Lenny an, dass man stattdessen lieber die Bildqualität erhöhen sollte. Aber momentan ist es ja leider Trend, das alle auf die Features abfahren, die niemand braucht...
 
Zurück
Oben