Qualität von ATI schlechter in 3D Anwendungen?

einfachder

Lieutenant
Registriert
Okt. 2005
Beiträge
674
Hallo, ich bin im Besitz von zwei Grafikkarten, einmal eine nVidia GTX 260 und eine ATI HD 5770.
Bei den Tests im Internet ist die 5770 ein paar Prozent langsamer aber das stört mich nicht.

Ich habe früher oft von Leuten gehört, dass nVidia eine bessere Bildqualität in 3D Programmen und beim Rendern erzeugt, ist da was dran? Da ich viel in Richtung 3D mache würde mich das interessieren. Wenn man den Unterschied kaum merkt, dann bau ich mir doch lieber die 5770 ein, da sie sehr viel weniger verbraucht, leise und kühl ist im Gegensatz zum 260 Monstrum.

lg
 
klar ist was dran, ATI schafft es selten AA in einem spiel zu liefern, bei COJ1 bekomme ich nichtmal wasser und feuer angezeigt, hald ein treiberproblem. zudem flimmern die HD4000er und HD5000er serie mehr, als Nvidia grakas.
ich habe momentan eine 5770 drinnen, wenns aber eine vergleichbare graka von nvidia geben würde, hätte ich mir diese geholt.
 
3DsMax, Cinema4D und Konsorten rechnen in Software (mittlerweile vielleicht auch GPGPU, aber das läuft aufs selbe raus), welche Grafikkarte du da hast ist für das Endergebnis völlig irrelevant.
 
Also bei mir wars Anwendungsbezogen und wahrscheinlich eher ein Treiberproblem.

Mit ner GTS8800er 640 und danach ner HD4890 Crysis bei gleichen Einstellungen getestet: Erhebliche Bildqualitätsunterschiede. Die Framerate war bei der 4890 natürlich höher.

Bei anderen Spielen hab ich den Unterschied subjektiv nicht wahrgenommen.
 
soweit ich weiß ist das inzwischen ausgemachter blödsinn. es gab auch glaube ich auf computerbase tests die den ATI/AMD Grafikkarten eine sehr gute Bildqualität bescheinigen. es gibts zwar mit mancher anwendung treiberprobleme, weswegen manche effekte nicht laufen, das ist aber bei nVidia nicht soviel besser. ich kann die von bawde erklärten probleme nicht bestätigen, bei mir gibt es in keinem spiel irgendwelche probleme, dazu zählen alle CoDs, GTA (bis auf 4, das läuft nämlich anscheinend mit AMD Cpus nicht) Supreme Commander (1+2), Age of emires usw
Edit: hier hab ich mal so einen Test gefunden und mir scheint die 5770 eine viel besser Quali zu liefern: http://www.tweakpc.de/hardware/tests/grafikkarten/xfx_ati_radeon_hd_5770/s04.php
 
Zuletzt bearbeitet:
Sorry, aber dass die Bildqualität identisch ist, ist einfach falsch.

Auf der einen Seite hat ATI kleine Vorteile, wenn es um gewisse AntiAliasing-Varianten angeht.

Auf der anderen Seite hat nVidia große Vorteile, wenn es ums Texturen-Filtern geht.
Hier hat ATI mit dem berüchtigten Texturen-Flimmern zu kämpfen, auch in der neuesten Grafikkartengeneration unverändert.
nVidia filtert hier einfach besser, man muss dazu nur im nVidia-Teribermenü von "Quality" auf "High Quality" schalten, das kostet fast keine Leistung (ca. 2%).

Für mich war das der Grund, keine ATI-Karte zu kaufen, denn ich reagiere auf dieses Flimmern absolut allergisch, und in einem meiner Lieblingsspiele (Crysis) ist das Flimmern besonders stark.
Ich verstehe auch nicht, warum ATI seit Jahren nicht in er Lage ist, dieses Problem zu lösen!!!
 
Da ist gar nichts drann.
Wenn du in Unreal Engine Games auch AA bei ATI Karten haben willst, musst du die exe. Datei umbenennen, ganz einfach.
Wenn du ganz genau bist, ist das AF etwas schlechter, was in der Regel aber aber niemanden stört.
Wenn du 3D am Bildschirm haben willst gibts die IzD Treiber.

@ Ice=A= Laut CB wurde das Texturflimmern etwas verbessert.
Und es als einen großen Nachteil darzustellen ist schlichtweg übertrieben und falsch und dass du auf welches Flimmern auch immer absolut allergisch reagierst (hab ich bei langen Hinschauen nur in Crysis ausmachen können), kauf ich dir nicht ab.
 
Zuletzt bearbeitet:
naja da ich sowohl als auch habe ... Beide haben gute Qualität ( wenn was nicht geht stimmt sollte man sich an die eigene Nase fassen) nvidia ist aber trotzdem einen Tick besser, ob das nun ins Gewicht fällt ... muss jeder selber wissen ...

@ Ice=A= Laut CB wurde das Texturflimmern etwas verbessert.
Und es als einen großen Nachteil darzustellen ist schlichtweg übertrieben und falsch und dass du auf welches Flimmern auch immer absolut allergisch reagierst (hab ich bei langen Hinschauen nur in Crysis ausmachen können), kauf ich dir nicht ab.

sag das mal einem Epileptiker in nicht ausgeprägtem Statium, der kann durchaus zocken, aber bei dem Flimmern macht er nen Abgang ...

und das das Leute hier nicht warnehmen wundert mich bei dem (hier überwiegend vorhanden) TN Shice sowieso nicht ... wenn der monitor schon so scheisse ist siehst natürlich auch keine Unterschiede ...
 
Also bei der 8800er Serie war der AF filter von Nvidia um einiges besser als bei ati.
Bei den GTX Nvidias war der af filter acuh noch besser als bei ati .
Mit der neuen 5xxx Reihe is aber ATi fast gleichgezogen . Jetzt soll ATI ja bei AA sogar besser sein als nvidia aber sgsaa is wohl in aktuellen titeln absolut unmachbar, da hier einfach die Leistung gehtl.
Generell würd ich sagen müssten die 260gtx und 5770 was die Qualität angeht gleich sein bei Anisotroperfilterung, AA dürfte die 5770 theoretisch besser sein nur fehlt ihr die Rohleistung dafür.
Performancetechnisch sollte die 5770 aber eigenlich mit der 260 doch gleich sein meine ich ??

Texturefilterflimmer wird in einigen Spielen (gg) von wiederum einigen Spielern (gg) als störend empfunden. wie starkt das bei dir zutrifft kannst nur du wissen .

Also ich würde, auch wenn ich derzeit ne nvidia drinnen habe wenn ich die Wahl zwischen beiden hätte die 5770 nehmen.

Mfg
V
 
Zuletzt bearbeitet:
Natürlich, das TN Panel verhindert das Erkennen des Texturflimmerns. Was für ein Argument...^^
Nvidia hat die etwas bessere Bildqualität, keine Frage, man muss darauf aber nicht rumhüpfen und behaupten der Unterschied wäre rießengroß.
Wenn man sich ne objektive Meinung bilden will, sollte man sich ein CB Fazit durchlesen, was den Sachverhalt korrekt wiedergibt.

In der Peformance nehmensich die Karten nichts.
Das Nvidia HQ AF ist nach wie vor etwas besser, da gibts nichts wegzureden, mich persönlich stört es jedenfalls in keinester Weise.
 
Zuletzt bearbeitet:
Ice =A= schrieb:
Auf der anderen Seite hat nVidia große Vorteile, wenn es ums Texturen-Filtern geht.
Hier hat ATI mit dem berüchtigten Texturen-Flimmern zu kämpfen, auch in der neuesten Grafikkartengeneration unverändert.

Falsch, die anisotropische Texturfilterung ist bei Nvidia und ATI seit der neuesten ATI Generation wieder gleichauf.
Das Texturflimmern gibt es hier nicht mehr.
Ab und zu gibt es natürlich Bugs (wie auch bei NVidia), aber die werden durch neuere Treiber behoben.
 
wie schon gesagt wurde hat NV etwas besseres AF, wobei ati bei der HD5 Gen nach gebessert hat.

AA ist wiederum besser bei Ati.

Wenn du aber kein Unterschied siehst dann ist doch irrelevant, es gibt halt pixelzähler die aus jeder fliege ein Elefanten machen.

wenn du mit professioneller Software arbeitest und diese GPU Beschleunigung unterstützt, kommst du sowieso nicht um eine QUadro / FirePRO karte vorbei!

wobei es bei Ati da einen kleinen Trick gab

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1275899916
 
Thread-Ersteller schrieb:
Ich habe früher oft von Leuten gehört, dass nVidia eine bessere Bildqualität in 3D Programmen und beim Rendern erzeugt, ist da was dran?
Nein. Solange diese Programme keine Spiele mit Raster-Engine sind, sind alle bildqualitativen Unterschiede vernachlässigbar.
Es wäre schön, wenn hier nicht schon wieder so ein leidiges Bildqualitätsgeheule ausbricht, das war nicht der Sinn des Threads. Und Epileptiker da mit hineinzuziehen halte ich für unangebracht und ganz ehrlich auch schwachsinnig; diese werden wissen, welchen und wie viel Videospielkonsum gut für sie ist.
 
noskill schrieb:
Falsch, die anisotropische Texturfilterung ist bei Nvidia und ATI seit der neuesten ATI Generation wieder gleichauf.
Wir wollen doch keinen Unfug verbreiten.

Du könntest es so schreiben, wie Schaffe89 es schreiben wollte:
"Die anisotrope Filterung der HD5 reicht mir, ob es Anderen reicht kann ich nicht beurteilen."


Tinpoint schrieb:
AA ist wiederum besser bei Ati.
Noch so eine Pauschalaussage. Wenn mans in die richtige Richtung lenkt mag es stimmen. Generel ist jedoch vollkommen falsch.

________
Die Faktenlage ist relativ eindeutig, AMD cheatet und die Presse duldet es.
Diese Feststellung hat erstmal überhaupt nichts mit persöhnlichen Wünschen zu tun, man kann das als 16xAF getarnte 8xAF trotzdem als persöhnlich ausreichend betrachten.
Was man nicht tun sollte ist diese Wahrheit zu negieren und die eigene Meinung über die Tatsachen zu stellen. Niemand würde hier dem anderen den Kopf ausreißen, nur weil er sich mit weniger begnügt.
Ebensowenig helfen seltsame Default vs Default Vergleiche, 16xAF ist nicht Default.

Darüber hinaus scheint das nicht die Frage des TE zu sein, er ist um ernsthafte Anwendungen bemüht, wonach sich diese Diskussion erübrigt.
 
hmm danke für die vielen antworten, ich werde meine gtx 260 auf ebay verscherbeln. falls jemand interesse hat, ich würde sie für 99€ zzgl. Versand sofort verkaufen :D
 
NV hat die bessere AF Qualität und durchgängig eingentlich auch fast.
@DX9 hat ATI aber die bessere, wenn man ED-CFAA mit SGSAA (bügelt das Shader und AF-Flimmer weg )Basis nimmt. Ist aber oftmals nicht spielbar, es zuviel Leistung kostet

Ein jedoch großes Nachteil vom schlechten AF ist leider Banding, welches auch mit SSAA noch bleibt.

edit:
Falsch, die anisotropische Texturfilterung ist bei Nvidia und ATI seit der neuesten ATI Generation wieder gleichauf.
Das Texturflimmern gibt es hier nicht mehr.
Nur @default. Ansonsten falsch.
 
Zitat:
Zitat von Ice =A= Beitrag anzeigen
Auf der anderen Seite hat nVidia große Vorteile, wenn es ums Texturen-Filtern geht.
Hier hat ATI mit dem berüchtigten Texturen-Flimmern zu kämpfen, auch in der neuesten Grafikkartengeneration unverändert.

Falsch, die anisotropische Texturfilterung ist bei Nvidia und ATI seit der neuesten ATI Generation wieder gleichauf.
Das Texturflimmern gibt es hier nicht mehr.
Ab und zu gibt es natürlich Bugs (wie auch bei NVidia), aber die werden durch neuere Treiber behoben.
Sorry, aber das is einfach nicht wahr.
Du verwechselst das vermutlich mit der Winekelabhängigkeit des Anisotropen Filters. Der is bei ATI sogar ganz verschwunden (im Gegensatz zu nVidia), hat aber mit dem Texturflimmern erstmal garnichts zu tun.
ATI-Karten können das von der Hardware her einfach (noch) nicht ohne Flimmern.

Und mal generell an alle, die das Flimmern kleinreden:
WARUM KAUFT MAN SICH EINE NEUE GRAFIKKARTE? WEIL MAN EINE HÖHERE BILDQUALITÄT WILL!
UND WARUM KAUFT MAN DANN EINE KARTE, DIE AN EINER STELLE PRINZIPIELL EINE SHCLECHTE(RE) BILDQUALITÄT HAT?!?

Um das klarzustellen: Ich ich hätte mir wegen der höheren Effizienz lieber eine ATI-Karte gekauft, diesen ganzen nVidia-Cuda-Dreck hasse ich wie die Pest. Und unter meinem geliebten Crysis is ATI sogar deutlich schneller! Aber es ging einfach nicht...
 
Zuletzt bearbeitet:
Du verwechselst das vermutlich mit der Winekelabhängigkeit des Anisotropen Filters. Der is bei ATI sogar ganz verschwunden (im Gegensatz zu nVidia), hat aber mit dem Texturflimmern erstmal garnichts zu tun.
Winkelabhängigkeit ist bei ATI besser, aber der Vorsprung zu Nvidia (seit G80 kein wirkliches Problem mehr )ist vernachlässigbar. Man muss ja nicht auf den Mist der GS hören. ;)


BTW
Wer Flimmern nicht sieht, sollte den Monitor tauschen. :lol:
 
Zurück
Oben