Anti-Aliasing Qualitätsunterschied Nvidia vs. ATI

Naja, ich halte das nach wie vor für einen sehr subjektiven Eindruck, welchen man sich auch als Einbildung bezeichnen könnte. (Ist nicht böse gemeint)
vSync belastet gar kein Bauteil. ;)
Das bedeutet nur dass ein neues Bild erst dann auf den Bildschirm gebracht wird, wenn es zu ende gezeichnet wurde. Hat in der Regeln eine Verringerung der FPS zur Folge, die aber nicht schlimm sein muss. Bei 60Hz Bildwiederholfrequenz z.B. werden dann immer genau 60 BIlder dargestellt. Ist die Grafikkarte nicht in der Lage die 60 BIlder zu liefern, sondern nur <59Frames, so flällt die Framerate sofort auf 30FPS.
Hat aber den Vorteil dass der "Riss", den man manchmal horizontal im Bild sieht weg ist. :)
Bei der Karte würde ich es anschalten.
 
Spiel FC mal auf ner X800 und dann auf ner GF6800 - dann wirst du verstehen, wie das mit dem Ausdruck "Subjektiv" gemeint ist. Der Ablauf ist, ohne daß man jetzt einen Framecounter einblenden müßte, einfach gigantisch geschmeidig @ z.B. 1280x1024 4xaa;8xAF @ HBQ. Auf ner Geforce gibt es doch schon den ein oder anderen Slowdown.

Und HDR ist kein SM 3.0 only Effekt! Interessant ist SM3.0 imo nur in Bezug auf Branching.
 
No_more_Color schrieb:
Spiel FC mal auf ner X800 und dann auf ner GF6800 - dann wirst du verstehen, wie das mit dem Ausdruck "Subjektiv" gemeint ist. Der Ablauf ist, ohne daß man jetzt einen Framecounter einblenden müßte, einfach gigantisch geschmeidig @ z.B. 1280x1024 4xaa;8xAF @ HBQ. Auf ner Geforce gibt es doch schon den ein oder anderen Slowdown.

Und HDR ist kein SM 3.0 only Effekt! Interessant ist SM3.0 imo nur in Bezug auf Branching.


Mal eine Bescheidene Frage: Bremst dein Prozessor nicht die Sapphire aus? Ist doch echt schade drum. Eine X800XT macht erst ab 3,0Ghz richtig Sinn und selbst damit kann die CPU bremsen.
Hättest dir lieber eine X800SE oder 6600GT und mit dem gesparten Geld einen P43,0 oder so kaufen sollen. Hätte vielleicht mehr gebracht.
 
Darüber werden sich die jeweiligen Chip-Fangemeinden wohl noch länger streiten können. Allerdings kann man das auch nicht bei Spielen vergleichen denke ich. Da muss man auch ganz klar sagen, dass die Chiphersteller mit den Programmierern zusammenabeiten. Das ist, meiner Meinung nach, ein Faktor den man bei solchen Diskussionen nicht vernachläßigen darf.

Darüber hinaus dürfte ich vielleicht auch nicht eine 6800GT mit einer x800xt vergleichen. Dadurch das ich aber beide innerhalb der letzten zwei Wochen habe testen können, fällt mein Urteil klar zugunsten der ATI Karte aus. Vielleicht paßt die auch einfach nur besser zu meinem System.

Ich habe z.B. beim 3dMark05 mit der ATI(4xAA/4xAF/VSync an) die gleiche Anzahl an Punkten erhalten wie mit der 6800GT(alles per definition aus). Jetzt kommen wieder einige auf den Plan die sagen werden Benchmarks hin oder her, aber ich finde die Grafik der ATI einfach besser. Sie passt besser zu den Games die ich spielen will und ich stehe nunmal auf AA.

Ich bin der Meinung, solange jeder mit seiner Hardware glücklich ist, ist doch alles in Butter. :cool_alt:
 
Sorry, aber totaler Quark. Auf meiner 6800GT läuft Farcry allemal absolut butterweich. ;)
SM3.0 nur branching? Ich glaube du lebst in einem Paralleluniversum. :D
Erstens denke ich dass Dynamic Branching für echtes HDR notwendig sein dürfte, zweitens hier eine kleine Übersicht der Unterschiede von SM2.0 auf SM3.0. (im Anhang)

Wo genau die kleinen Unterschiede zw. SM2.0 und ATI´s sogenanntem SM2.0b liegen weiß ich allerdings nicht.
 

Anhänge

  • PS.GIF
    PS.GIF
    15,9 KB · Aufrufe: 513
  • VS.GIF
    VS.GIF
    8,2 KB · Aufrufe: 539
Green Mamba schrieb:
Sorry, aber totaler Quark. Auf meiner 6800GT läuft Farcry allemal absolut butterweich. ;)
SM3.0 nur branching? Ich glaube du lebst in einem Paralleluniversum. :D
Erstens denke ich dass Dynamic Branching für echtes HDR notwendig sein dürfte, zweitens hier eine kleine Übersicht der Unterschiede von SM2.0 auf SM3.0. (im Anhang)

Wo genau die kleinen Unterschiede zw. SM2.0 und ATI´s sogenanntem SM2.0b liegen weiß ich allerdings nicht.


Du magst Recht haben, aber für echtes SM3.0 sind die G6 noch zu langsam, es sei denn es wird ohne Ende optimiert. Erst mit der neuen Generation denke ich, wird flüssiges Zocken mit allen SM3.0 features möglich sein. Vielleicht ist sogar der R520 schon deutlich schneller. Und dann hat NV wieder das Nachsehen.
Auserdem würde ich gern einmal ein paar Bilder sehen wollen, wo man deutlich den Unterschied zu echtem Hardware HDR und nachgemachtem SoftwareHDR, das auch ATI kann, erkennen kann. Würde mich mal interessieren.
 
STEEL schrieb:
Du magst Recht haben, aber für echtes SM3.0 sind die G6 noch zu langsam, es sei denn es wird ohne Ende optimiert.

Wer bitte sagt das denn? Hast du vielleicht Links die das belegen könnten? Ok, dass man keine Shader mit 64000 Zeilen wirklich benutzen kann dürfte in vielen Fällen klar sein. Aber die anderen Features sind in Hardware gegossen, und sozusagen "ready to use". ;)
Funktionieren auch einwandfrei und es ruckelt nix.
 
Ich habe nie behauptet, daß SM3.0 nur "breitere Shader" bedeutet - für mich ist es allerdings nur aus diesem Grund interresant. Und HDR ist afaik kein SM3.0 only Effekt. Da ich ebenfalls eine GF6800GT besessen habe, weiß ich auch wie performant die NV40 und wie permormant der X800 ist.

Mein altes System war ein A64@2.53GHZ. Zwecks Geldmangel habe ich das A64-Sys. verkauft und mein alten Schrott wieder eingebaut. Und @1280x1024@BBQ macht CPU-Power nimmer soo viel aus - soll heißen die Radeon rockt auch da noch sehr gut.
 
STEEL schrieb:
Du magst Recht haben, aber für echtes SM3.0 sind die G6 noch zu langsam, es sei denn es wird ohne Ende optimiert. Erst mit der neuen Generation denke ich, wird flüssiges Zocken mit allen SM3.0 features möglich sein. Vielleicht ist sogar der R520 schon deutlich schneller. Und dann hat NV wieder das Nachsehen.
Auserdem würde ich gern einmal ein paar Bilder sehen wollen, wo man deutlich den Unterschied zu echtem Hardware HDR und nachgemachtem SoftwareHDR, das auch ATI kann, erkennen kann. Würde mich mal interessieren.


Der Effekt ist im Gegensatz zum Nachgemachten richtig lebensecht.
Wenn du es bei FC einschaltest, merkst du einen gewaltigen unterschied. Das ganze sieht irgendwie wie im echten Leben aus. Schwer zu beschreiben.
Beim Nachgemachten sieht man keine Helligkeitsunterschiede wenn man sich bewegt.
 
Green Mamba schrieb:
Naja, ich halte das nach wie vor für einen sehr subjektiven Eindruck, welchen man sich auch als Einbildung bezeichnen könnte. (Ist nicht böse gemeint)

@ Green Mamba

Da du ja bei den ZDNET Bildern auch keinen Unterschied im AA erkennen konntest, muss es dir in der Tat wie Einbildung vorkommen (Für dich würde sich ein Umstieg tatsächlich nicht lohnen.). Aber dem ist nicht so, da hier ja nun schon mehrere unabhängig voneinander diesen Unterschied als signifikant bestätigt haben- nicht zuletzt Insel, machst du es dir m.E. zu einfach jene als Spinner abzutun, zumal du selbst keine Vergleichsmöglichkeit hast. Dass diese Erkenntnis schwer zu schlucken ist, darüber bin ich mir im Klaren, denn schließlich hat man mit einer 6800GT eine HighEnd Karte gekauft und erwartet auch dementsprechend HighEnd Bildqualität. Und was SM3.0 anbelangt, war es das Feature, was mich veranlasste, eine 6800GT zu kaufen, nur habe ich davon nichts gehabt, da es keine (eine, zwei) Anwendungen gab (gibt), die SM3.0 unterstützen. Und ich wage mal eine Prognose und sage, dass sich diese Situation mittelfristig auch nicht ändern wird, womit ich meine im Laufe des Jahres 2005, wenn Spielentwickler vielleicht vor einem halben Jahr angefangen haben entsprechende Software zu programmieren. Zum HDR ist vielleicht zu sagen, dass HDR doch bei der Project Demo von Crytek auch auf der ATI dargestellt wird und somit die Chancen nicht schlecht stehen, dass HDR auch bei anderen Spielen dargestellt werden kann, denn grundsätzlich ist die X800 HDR-fähig.
 
abcd12 schrieb:
@ Green Mamba
Da du ja bei den ZDNET Bildern auch keinen Unterschied im AA erkennen konntest, muss es dir in der Tat wie Einbildung vorkommen (Für dich würde sich ein Umstieg tatsächlich nicht lohnen.). Aber dem ist nicht so, da hier ja nun schon mehrere unabhängig voneinander diesen Unterschied als signifikant bestätigt haben- nicht zuletzt Insel, machst du es dir m.E. zu einfach jene als Spinner abzutun, zumal du selbst keine Vergleichsmöglichkeit hast.

Da irrst du dich, ich habe schon so einigen Grafikkarten bei der Arbeit zugesehen, und ich habe auch nicht behauptet, dass ich keinen Unterschied sehe, das schiebst du mir jetzt unter.
Ich habe lediglich gesagt, dass der Unterschied eher als marginal einzustufen ist.

Ich habe am Wochenende die Gelegenheit gehabt eine X800 direkt neben meiner 6800GT zu sehen, also 2 Monitore direkt nebeneinander, und konnte auch dort nur diesen marginalen Unterschied erkennen, der im Bewegtbild noch weniger auffält, als bei Screenshots.

Meine Meinung steht fest, ich hätte mir diesen Aufwand nicht gemacht, wegen diesen Winzigkeiten. Wie man auf den Bildern ja sehn kann, ist die Nvidia-Serie dafür in der Anisotropen Filterung um einiges besser. ;)

Ich bin auch nach wie vor der festen Überzeugung, dass dieser kleine Unterschied sich bei den nächsten Treiberversionen ändern könnte.
 
Green Mamba schrieb:
Wie man auf den Bildern ja sehn kann, ist die Nvidia-Serie dafür in der Anisotropen Filterung um einiges besser. ;)

Ich bin auch nach wie vor der festen Überzeugung, dass dieser kleine Unterschied sich bei den nächsten Treiberversionen ändern könnte.

Das hoffe ich doch sehr!!! :D :D :D :D :D
 
Green Mamba schrieb:
Wo genau die kleinen Unterschiede zw. SM2.0 und ATI´s sogenanntem SM2.0b liegen weiß ich allerdings nicht.


Die Anzahl der PS2 Instruktionen wurde von 96 auf 512 erhoeht (512 ist das Minimum fuer PS3.0 und das Maximum fuer PS2.x).
 
Ah, gut zu wissen. Das ist natürlich eine eher marginale Änderung. :D

Minimum an Instruktionen? Das halt ich mal für ein Gerücht... :rolleyes:
Warum sollte ein Minimum aufgestellt werden? Ich mein man kann das schlecht überprüfen, weil man ja nicht weiß was der Compiler noch hinten anhängt. Allerdings höre ich das jetzt das erste mal.

PS: SM3.0 erlaubt Programme bis 65000 Instruktionen, obwohl ich das für utopisch halte.
 
Doch, das mit dem Minimum fuer PS3.0 stimmt schon.
Das Maximum fuer PS2.x ist gleichzeitig das Minimum fuer PS3.0.

Das macht auch Sinn, sonst koennte ja ein Hersteller einen PS3 Chip entwicklen, der weniger Instruktionen verarbeiten kann, als es unter PS2.x schon moeglich ist.
Und das ist nicht im Sinne der technischen Weiterentwicklung.

btw. die GFFXe koennen auch schon 1024 Instruktionen, unter D3D duerfen sie davon aber nur 512 melden (= Maximum der Spezifikation), nur unter OpenGL kann man auf der FX die vollen 1024 Instruktionen auch nutzen.

Ganz allgemein ergeben sich die nutzbaren Features eines Grafikchips ja immer als Schnittemenge aus Chip-Features und API-"Features".


/edit: die 96 Instruktionen fuer PS2.0 sind auch das untere Limit, Chips die weniger koennen sind also keine PS2.0 Chips (auch wenn die ansonsten alle Faehigkeiten eines PS2.0 Chips aufweisen).
 
Zuletzt bearbeitet:
Ah ok, ich glaub ich hab dich falsch verstanden. Ich dachte du meintest dass beim SM3.0 ein Shaderprogramm mindestens 512 Instruktionen beinhalten muss. :D
Ok, jetzt hab ich´s verstanden. :)
 
Ja, das war dann ein Missverstaendnis, PS3 Programme koennen natuerlich kuerzer sein, aber PS3.0 Hardware muss mindestens 512 Instruktionen pro Rendering-Pass abarbeiten koennen.
 
Shader Model 3.0 titles that we can expect soon or are here already: Lord of the Rings; Battle for Middle-Earth, Stalker, Vampire; Bloodlines, Splinter Cell X, Driver 3, Grafan, Painkiller, Far Cry and more...

hier steht das ziemlich viele Spiele SM3.0 unterstützen!

kann das jemand bestätigen
 

Ähnliche Themen

Zurück
Oben