ATI vs Nvidia - Bildqualität, Supersampling etc.

Kellergeist

Banned
Registriert
Juli 2008
Beiträge
453
Hallo Leute,

es gibt zwar einen Test der Bildqualität bei Computerbase der ist aber nicht aussagekräftig weil er den RV670 Chip von ATI gegen den GT200 von Nvidia begutachtet und nicht den RV 770.

Hat ATI gegen den Supersampling Mode von Nvidia überhaupt was zu bieten? Oder wird die HD4870 ohne weiteres das gleiche gute Bild machen wie die GTX 260? Oder vielleicht sogar ein besseres?

Gruß
 
Hallo Kellergeist,

also ich kann nur aus eigener Erfahrung sagen, dass ATI bei FSAA die Nase leicht vorne hat.
Nvidia, zumindest bis zum G92, sinkt rapide ein sobald FSAA eingeschaltet ist. Das ist bei dem R670 nicht so schlimm gewesen, daher wundere ich mich über den 'Test vom CB bezüglich des R770. Ich war vom R670 völlig begeistert, gerade im Vergleich zu den Vorgängerversionen, x1xxx.
In Sachen FSAA Qualität hat ATI seit Jahren die Nase vorn.
 
Also im Allgemeinen sind die ATIs dafür bekannt, tendenziell im "Grundzustand" ein besseres Bild zu produzieren. Wenn du dir die ganzen Benchmarks anguckst, wirst du feststellen, dass die HD4870 grade in den hohen Qualitätseinstellungen ordentlich an Boden gewinnt.
Trotzdem wirst du, wenn du schnelle Spiele spielst, eher schwerlich einen deutlichen Unterschied feststellen können. Als Tipp: Schau dir doch mal die Vergleichsbilder, die du angesprochen hattest, nochmal an. Da kannst du den Unterschied zwischen ATI und Nvidia sehen. (oder auch nicht ;) )
 
Leider falsch, meine 2 Vorposter.
Nochmal:

  • AMDs Texturfilter ist schlechter, neigt zum flimmern
  • Gegen Supersampling (+Hybride) gibt es keine Alternative
  • TSSAA ist ebenfalls optisch besser
  • 8xMSAA läuft bei AMD toll schnell, aber es gibt keinen Grund bei Nvidia 8xMSAA zu nutzen
  • 4xMSAA ist bei beiden IHVs absolut identisch, 8xMSAA ist im Allgemeinen gleich gut
 
Ich würde sagen ist Geschmackssache. Sowas wie BMW oder Mercedes, beide haben nahezu identische Produktlinien sind aber dennoch verschieden in tausenden Einzelheiten.
Ich mag ATI, bin mit meiner Karte mehr als zufrieden. Und die verlangen humane Preise. Und in den letzten 10 Jahre hat die ATI Karte immer das klarere Bild auf meinen Monitor gezaubert im Vergleich zur NVIDIA, ganz egal welche technischen Finessen die eine oder andere Karte hatte.
(Quelle: G.Hirn)
 
Also im Allgemeinen sind die ATIs dafür bekannt, tendenziell im "Grundzustand" ein besseres Bild zu produzieren.
das ist falsch. die bildqualität ist mal beim einen, mal beim anderen besser.
mit jeder architektur ändert sich auch die qualität. seit dre radeon 9k wechselt es eigentlich mit jeder generation mal zu ati mal zu nv...
 
achso , falls es der te noch net weiß, unyu is net grad die beste anlaufstelle für sowas, da er hier wohl der bekannteste nvidia fanboy ist, was nicht heißt, das er mit allem unbedingt falsch liegt, nur das man es nochmal prüfen sollte...

lübke hats recht treffend formuliert
 
Kellergeist schrieb:
Hallo Leute,

es gibt zwar einen Test der Bildqualität bei Computerbase der ist aber nicht aussagekräftig weil er den RV670 Chip von ATI gegen den GT200 von Nvidia begutachtet und nicht den RV 770....

Macht nix. Du kannst dir die Tests zum R600 und G80 anschauen. Da hat sich BQ-Technisch nichts getan.

Laut CB bietet ATi minimal besseres AA, während nVidia beim AF Punktet. Tendenziell liegen aber beide auf einem sehr ähnlichen Niveau.
 
Woher weißt du, dass sich nix mehr getan hat wenns niemand mehr getestet hat?
Für mich unverständlich, dass dies bei den neuen tests nicht mehr gemacht wurde.
 
AffenJack schrieb:
Woher weißt du, dass sich nix mehr getan hat wenns niemand mehr getestet hat?
Für mich unverständlich, dass dies bei den neuen tests nicht mehr gemacht wurde.

Schau dir die Tests doch an. Es wurde von CB getestet, doch hat man es sich gespart, das ganze noch mal in die Artikel einzufügen, eben weil sich nichts geändert hat.

Schau mal hier: Klick mich

Dort steht folgendes:
CB schrieb:
...In Sachen Bildqualität hat sich auf dem RV770 nichts getan. Sowohl der anisotrope Filter als auch das Anti-Aliasing arbeiten auf ein und demselben Niveau wie auf einem RV670, weswegen unsere Beobachtungen beim Launch-Review zur GeForce GTX 280 immer noch gelten...

Der RV670 basiert wiederum auf dem R600. Der G92 und der GT200 basieren auf dem G80.
 
Zuletzt bearbeitet:
Ok,dann hamses doch getan,hab den absatz wohl irgendwie überlesen.
 
Gut ATI steht im Allgemeinen für bessere Bildqualität, in das Horn habe ich auch geblasen,
aber trotzdem hat ATI immer wieder Probleme.
Bei meiner 3850 bremst das ganze System sfür ca. 20 sekunden sobald ich den Fernseher anschalte, welcher über die zweite DVI Buchse an die GraKa angeschlossen ist,
zeitweise seltsame Frameeinbrüche bei unzähligen Games, während Nvidia laut Tests hier immer wieder davon braust, wer das Crysis Intro kennt, kann sich das ausmalen.

Leider kenne ich mich noch nicht gut genug mit der Nvidia Karte aus, um mitreden zu können, aber die oben beschriebenen Fehler treten bei meiner G92 nicht mehr auf.
 
Zuletzt bearbeitet:
@ unyu du weißt dass ai für mehr leistung da ist und deshalb soll es ein wenig flimmern. Schalt es aus wenn du die gute Bildqualität willst. Und verwechsle das nicht mit dem andern Zeugs weil du redest den Texturfilter an aber AI is was anderes!
 
Mit AI gibts notwendige Gamefixes und gleichzeitig AF-Optimierungen.
Flimmern gibts dank den Optimierungen, um auf Screenshots die Qualität halten zu können, gewünscht ist das nicht vom Spieleprogrammierer.
Dank ersterem kommt wohl niemand auf die Idee AI abzuschalten, weil AI-off keine Alternative ist.
Gute Idee das zu koppeln!

Mr.Marshmallow schrieb:
Gut ATI steht im Allgemeinen für bessere Bildqualität, in das Horn habe ich auch geblasen,
Das ist so nicht korrekt.
 
Zuletzt bearbeitet:
Mich würde mal eher interessieren wie es um die Videoqualität bestellt ist.

Also von ATI 2600HD auf Geforce 8800 GS sage ich ganz klar Nvidia hat die bessere Video (Film) Qualität und bessere Bildverbesserer-Optionen.
 
@RyoBerlin:
Beide Karten sind schon älteren Semesters, bei Ati wurde der UVD stetig weiterentwickelt was in noch geringerer CPU-Belastung und verbessertem Bild resultieren soll (aktuell UVD2). Bei NVidia hab ich keinen Plan, aber die werden auch nicht schlafen.

Im Vergleich zu Software-Decodern -wie z.B. der in Windows 7 integrierte- bringen beide (gemäß meiner Erfahrung mit ner Skystar HD2) ein schlechteres Bild.
 
JA wäre schön wenns da mal tests geben würde ne ;)

ICh hab be SkyStar HD drinne. Weis jetzt aber nicht was Du mit Softwaredecodern meinst (also den begriff schon, aber sehe jetzt 0 zusammenhang was decodiert werden soll)
 
Zurück
Oben