Grafikqualität: ATI X1000-Serie wirklich besser als nVidia 7000-Serie?

Ostfriese

Forenkasper
🎂Rätsel-Elite ’09
Registriert
Dez. 2001
Beiträge
3.262
Moinsen.

Ich habe nun mehrfach gelesen, dass die Grafikqualität der Geforce 7x Serie merklich schlechter sein soll, als es die von ATIs neuen Radeons der Serie X1000 ist.

Inwiefern ist dieses zutreffend? Ist es sehr störend/auffallend?

Wird das Phänomen per Treiberupdate in Zukunft korrigierbar sein, oder sind die neuen 7900GT und 7600GT gar nicht mehr davon betroffen?

Vielen Dank für jede Antwort im Voraus

Gruß
Ostfriese
 
also die X1800 filtert texturen besser als die 7er serie von NV

aber ich hatte in den letzten monaten 3x 7800gtx und 2x X1800 und kann sagen das der unterschied nicht so groß ist wie manche ihn hochpushen.

in den highend regionen kann man eigentlich kaum etwas falsch machen.
 
Hatte vorher immer NVIDIA Karten - neuerdings eine ATI x1900xtx - ich kann es nur bestätigen, dass die Bildqualität kaum Unterschiede hat um nicht zu sagen nach 2 Wochen merkt das Auge gar keinen Unterschied mehr...
 
ich sehs auchso die bildquali ist kaum zu unterscheiden ...was mich mehr stört das die ATI ein schlechteres AA hat bei gleicher Einstellung wie die nvidia und das kotzt mich noch mehr an, das das hier noch keiner festgestellt hat is mir ein rätsel
 
ATi bietet zudem die Möglichkeit des "High Quality AF" sowie HDR Rendering (ob nun "echt" oder nicht) in Verbindung mit Anti Aliasing.
 
Das schlägt schon eher zu Buche, das ist nämlich ein echtes Feature was nVidia bis zum G80 fehlt.

Und das sieht man auch.

Bis jetzt hab ichs nur in Farcry ausprobiert. Aber es werden Titel folgen, HDR steht ja erst am Anfang. Könnte also noch kommen das sich mancher ärgert. Zumal die 7900 GTX grade erst erschienen ist und es auch nicht kann. Dauert also noch bei nVidia.

Grüße
Sascha
 
Accuface schrieb:
ich sehs auchso die bildquali ist kaum zu unterscheiden ...was mich mehr stört das die ATI ein schlechteres AA hat bei gleicher Einstellung wie die nvidia und das kotzt mich noch mehr an, das das hier noch keiner festgestellt hat is mir ein rätsel

afaik isses eher umgekehrt.
die ATI hat das bessere AA und AF
 
das kann ich aber nicht sagen da meine augen mich nicht belügen udn aauch nicht die screenshots auf computerbase. Als Anhang siehste mal das angeblich bessere AA der ATI...das erstes Bild ist ATI das zweite Bild Nvidia..alles wurde auf derselben AA stufe gemacht und jetzt sag nicht das du den Unterschied nicht siehst. Da ich die Bilder komprimierten musste sieht das nich so drastisch aus, da musste nochmal auf computerbase den battlefield 2 bench anschaun von da habe ich das bild da siehste die kanten stärker

Ich bekomme wirklich augenkrebs bei der ATI besonders auf entfernung sind die Kanten nervig, bei meiner alten 7800gtx war ein schöner übergang gewesen bei der ATI sehe ich nur stufe für stufe
 

Anhänge

  • 10.jpg
    10.jpg
    115,8 KB · Aufrufe: 333
  • 9.jpg
    9.jpg
    113,9 KB · Aufrufe: 331
Zuletzt bearbeitet:
also ich hatte ne 7800gt und nun ne x1800xt die Qualität der 7800gt war um einiges schlechter zumindest meine ich das und das Textureflimmer ist immer noch nicht restlos beseitigt worden.
 
Auf der letzten Lan hatte ich neben mir einen mit ner 7800 gtx...... das Bild ist gut aber nicht so gut wie auf der X1000er Serie von Ati... im Spiel (COD2) flimmerte das Bild im hinteren Bereich leicht (trotz neuester Treiber)... aber es war zu sehen... mich persönlich würde es total stören.... ich gebe doch nicht hunderte von Euros aus um dann Flimmerei zu haben... sry :)
 
Das AF Flimmern wurde mit den Treibern zwar verbessert, ist aber immer noch bemerkbar. In allen Nvidia Tests wird das als Mangel dargestellt.

Die Möglichkeit, HDR+AA zu betreiben fehlt gänzlich. Was nützen denn die schönsten HDR Effekte, wenn dann auf den Bildschirm nur Legobausteine zu sehen sind? (etwas krass ausgedrückt:evillol: )

Also eindeutiges Plus für ATI

Gruss
 
also wenn ich meinen treiber auf Hohe Bildqualität stelle, flimmert nixmehr, wobei ich denke das es bei einem CRT Moni mehr auffallen wird als bei einem TFT
 
Das glaub ich dir das du kein Flimmern siehst.... aber wenn neben dir ein Rechner mit ner X1000er ATI steht dann wirst du es bemerken.... ist echt wahr :)
 
man gewöhnt sich an viele sachen leider viel zu schnell.
außerdem sei anzumerken, dass das berüchtigte flimmern nurn im zusammenhang mit af hervorsticht.
solange man nicht auf hohe qualität stellt bleibt der alte, extrem grausame filteralgorithmus allerdings aktiv. trotzdem bleibt die maximale filterqualität in sachen flimmern noch leicht hinter der standardqualität von ati zurück.

@accuface: mir fällt auf den bf2-screens nur auf, dass der g70 kanten dicker erscheinen lässt als der r520. da ists dann imo kein wunder, dass das aa "besser" wirkt. zur not kann man ja noch auf 6x aa gehn, verlust an fps dürfte niedriger sein wie der, wenn man beim g70 auf hq gehn muss ;)
 
jep.
sieht bei NV imho nur besser aus, weils nicht so scharf und dünn gezeichnet ist.
ich empfinde das ATI-bild als wesentlich sympathischer

edit: netten grasmatsch macht nv da beim bf2-bild ;)
man muss nur mal den boden vergleichen und man sieht nen imho sehr deutlichen unterschied
 
lol ja ich weiss auch nich was die am gras auszusetzen haben *lol* ichs ehe eher das bei nvidia man mehr gras sieht als das von ati aber ok das liegt jetzt auch an der komprimierung des bildes

auf alle fälle bringt 6xx auch nix

und der sinn von AA ist ja das "unscharfe" wirken, was den treppeneffekt verdeckt (für die die photoshop kennen wissen was ich meine )

und lieber "unscharf" als scharfe "treppen" :P
 
der unterschied beim gras:
nvidia: grasmatsch
ATI: einzelne grashalme sind sichtbar.

;)
 
Zurück
Oben