GTX 260 oder HD 4870/1G

GTX 260 oder HD 4870/1G ?

  • GTX 260

    Stimmen: 45 43,3%
  • HD 4870/1G

    Stimmen: 52 50,0%
  • weder noch

    Stimmen: 7 6,7%

  • Umfrageteilnehmer
    104
Status
Für weitere Antworten geschlossen.
Da steht ja auch nicht gleich, sondern vergleichbar.

Und jeder, der der deutschen Sprache halbwegs mächtig ist, wird aus dem von mir zitiertem Satz garantiert nicht herauslesen, dass damit lediglich gemeint ist, "Q und AI-default sind optisch vergleichbarer als AI-default und HQ".

Also entweder PCGH kann sich nicht akkurat ausdrücken oder sie lügen oder sie meinen es doch so, dass sich AI-default und Q zimindest so ähnlich aussehen, dass sie sich vergleichen lassen.
 
Vergleichbar heißt ähnlich, aber nicht identisch. CB schreibt "in etwa vergleichbar sind (mit leichten Vorteilen für die GeForce-Produkte)" :rolleyes: Das Thema AF und AI haben wir gerade (wieder) ausführlich unter die Lupe genommen, in Crysis oder The Witcher ist selbst AI off gerade mal auf dem Niveau von NV-default - von HQ ist AMD weit entfernt und somit qualitativ schlechter; mal weniger mal deutlich mehr.

EDIT
Ich rate dir mal zu diesem Thread im 3DC. AI ist nicht gerade eine optische Offenbarung :freak:
 
Zuletzt bearbeitet:
y33H@ schrieb:
Vergleichbar heißt ähnlich, aber nicht identisch. CB schreibt "in etwa vergleichbar sind (mit leichten Vorteilen für die GeForce-Produkte)" :rolleyes:
Schon ironisch, dass ausgerechnet du ein rolleyes-Smilie hinter einem geklammerten (mit leichten Vorteilen für die GeForce-Produkte) Satz dranhängst, da könnte man glatt meinen es ist ein sehr dünner Faden an den du dich hängst. Besonders, wenn du Foren praktisch flutest mit Posts like "Zudem unterschlägst du das AF - schlechtere Quali, ergo mehr Fps."

y33H@ schrieb:
Das Thema AF und AI haben wir gerade (wieder) ausführlich unter die Lupe genommen, in Crysis oder The Witcher ist selbst AI off gerade mal auf dem Niveau von NV-default - von HQ ist AMD weit entfernt und somit qualitativ schlechter; mal weniger mal deutlich mehr.
Dann frage ich mich, warum man nicht mal "AI off" mit "NV-default" gegeneinander bencht, wenn man doch so viele Fps mehr bekommt. Uns immer nur mit den selben Posts zuballern, aber keine Taten folgen lassen ist ... naja, langweilig halt.
 
Weil an AI mehr klebt als nur das AF, das ist ja das Miese daran. Mehr mehr BQ will, verzichtet auf alle anderen Spiele-spezifischen Optimierungen – und das kostet verdammt viel Leistung. HQ statt Q kostet dagegen unter 10%. Kauf dir die 08/09 und sieh selbst.
Lonely Shepherd schrieb:
da könnte man glatt meinen es ist ein sehr dünner Faden an den du dich hängst
Wie kommst du darauf? Schau in den 3DC-Thread, da gibts genügend Videos, die zeigen, wie schlecht AI im Vergleich in manchen Spielen ist.
Lonely Shepherd schrieb:
aber keine Taten folgen lassen ist
Schlechter Scherz :rolleyes: Ich habe mehrere GiByte Videos hochgepumpt:

http://www.megaupload.com/?d=P8WK95BK
http://www.megaupload.com/?d=6KBKRHEC
http://www.megaupload.com/?d=5Q4A6O86
http://www.megaupload.com/?d=QBF381K5
http://www.megaupload.com/?d=QR61RRQR

http://www.megaupload.com/?d=7HZ0WECD
http://www.megaupload.com/?d=Q10UA4U9
Lonely Shepherd schrieb:
dass sich AI-default und Q zimindest so ähnlich aussehen, dass sie sich vergleichen lassen
AI sieht teils klar schlechter aus, aber es gibt nichts, was vergleichbarer wäre als Default gegen Default - weil AMD eben das AF (bewusst) an die restlichen Optimierungen koppelt und die Redakteure zu AI-def zwingt!

Traurig, dass es immer noch angezweifelt wird. AMDs AF ist schlechter. Wer das bestreitet, sollte sich jeder Diskussion enthalten, da er bewiesene Tatsachen leugnet.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Weil an AI mehr klebt als nur das AF, das ist ja das Miese daran. Mehr mehr BQ will, verzichtet auf alle anderen Spiele-spezifischen Optimierungen – und das kostet verdammt viel Leistung. HQ statt Q kostet dagegen unter 10%. Kauf dir die 08/09 und sieh selbst.
Also ist es für ATi User im Endeffekt sogar besser AI-default anzulassen? Gut zu wissen.

y33H@ schrieb:
Wie kommst du darauf? Schau in den 3DC-Thread, da gibts genügend Videos, die zeigen, wie schlecht AI im Vergleich in manchen Spielen ist.
Das mit dem dünnen Faden war auch eher in Richtung "viel Lärm machen um wenige Fps" gemeint. Ich hab hier eine Analogie herangezogen: leichte Vorteile = nur ein paar wenige Fps weniger (von NV Sicht aus gesehen).

y33H@ schrieb:
Schlechter Scherz :rolleyes: Ich habe mehrere GiByte Videos hochgepumpt:

http://www.megaupload.com/?d=P8WK95BK
http://www.megaupload.com/?d=6KBKRHEC
http://www.megaupload.com/?d=5Q4A6O86
http://www.megaupload.com/?d=QBF381K5
http://www.megaupload.com/?d=QR61RRQR

http://www.megaupload.com/?d=7HZ0WECD
http://www.megaupload.com/?d=Q10UA4U9AI sieht teils klar schlechter aus, aber es gibt nichts, was vergleichbarer wäre als Default gegen Default - weil AMD eben das AF (bewusst) an die restlichen Optimierungen koppelt und die Redakteure zu AI-def zwingt!
Die Videos hab ich schon (fast) alle angesehen und auch meinen Kommentar dazu abgegeben. Es geht mir hier aber um deine Aussage mit den Fps. Ich hätte gerne gewusst, wieviel Fps NV dazugewinnen würde, wenn ihr AF auf ATi Niveau wäre. Ob es wirklich so viele Fps sind, wie man glatt glauben könnte, wenn man deine vielen Posts darüber liest. Aber anscheinend kann man es ja nicht einfach mal so vergleichen. Trotzdem frage ich mich dann, warum ihr bei euren Benchmarks nicht NV-default für die AF macht. Wäre doch fairer

y33H@ schrieb:
Traurig, dass es immer noch angezweifelt wird. AMDs AF ist schlechter. Wer das bestreitet, sollte sich jeder Diskussion enthalten, da er bewiesene Tatsachen leugnet.
Da ich durchaus sage, das ATi's AF schelchter ist als NV, kann ich also getrost weiter an den Diskussionen teilnehmen. Aber manche übertreiben halt ohne Ende.
 
Lonely Shepherd schrieb:
Also ist es für ATi User im Endeffekt sogar besser AI-default anzulassen? Gut zu wissen.
Nur aus Sicht der Fps. Das ist ja das Ärgerliche: Der Fps-Verlust ist stellensweise so enorm, dass es keinen Sinn hat AI abzuschalten. Bei einer X2, die Rohpower wohl hätte, deaktiviert man mit AI-off aber auch CF. Eine 300€-Karte - AMDs Flaggschiff -, die nicht in der Lage ist gescheites AF darzustellen - nur im" halbierten" Zustand und selbst so nur bedingt. Traurig oder lächerlich?
Lonely Shepherd schrieb:
"viel Lärm machen um wenige Fps"
Wenige Fps? Hochgerechnet sind es 30-40%, die eine HD4k verliert. Wirklich aufzeigen lässt sich das leider nicht, nur indirekt "anpeilen".
Lonely Shepherd schrieb:
Ob es wirklich so viele Fps sind, wie man glatt glauben könnte, wenn man deine vielen Posts darüber liest.
Aktuelle Geforces haben genügend TMUs, diese limitieren selten. Bei AMD dagegen muss die TMU-Leistung kaschiert werden. NV würde wenige Fps gewinnen, wenn Sie mit AMD-Niveau filtern; AMD aber sehr viele verlieren, wenn Sie mit NV-Niveau filtern.
Lonely Shepherd schrieb:
Aber manche übertreiben halt ohne Ende.
Ich benenne Fakten. Der Crysis-Vergleich von Schlammsau und mir zeigt zwar einen Worst-Case, das Banding und das Flimmern mit AI-def gegenüber dem nahezu perfekt filternden HQ ist aber dermaßen schlecht, das es mich als BQ-Liebhaber schüttelt. Ich weiß, vielen geht das sonst wo vorbei - Balken zählen. Man sollte künftig auch die BQ in Balken abbilden und mit den Fps-Balken verrechnen.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Wenige Fps? Hochgerechnet sind es 30-40%, die eine HD4k verliert.
Woran machst du das fest? Wenn, wie du sagst durch AI-Off nicht nur die AF-Optimierungen ausgeschaltet werden, wie wie willst du dann hochrechnen, wieviel Fps die Karten verlieren, wenn es eine Funktion gäbe, die nur das AF auf NV Niveau heben würde? Oder reden wir gerade aneinander vorbei?

Aber ehrlich gesagt, kannst du einem User, der CB-Benches oder PCGH-Benches heranzieht um zu zeigen, dass die HD 4870/1GB leicht schneller ist wie die GTX260/216, nicht anmachen, mit den Argument die ansitrope Filterung bei ATi sei ja auch schlechter, wenn ihr selbst schreibt: "Somit kommt bei Nvidia-Karten "Quality"-Texturfilterung zum Einsatz, welche vergleichbar aussieht wie Atis "A.I. Standard"-Treibereinstellung."

Wie ich schon sagte, kein Mensch wird daraus lesen, dass NV ja doch ne bessere Qualität hat, aber es immerhin noch der passabeleste Vergleich ist, der möglich gewesen ist. Da hättet ihr schon ne andere Formulierung wählen sollen. Es sei denn es ist doch nicht so schlimm, wie alle sagen und die meisten übertreiben nur (was in meinen Augen auch der Fall ist). Dann könnte ich diese Formulierung unterstreichen, aber dann ist es wiederrum nicht redlich jemanden anzumachen, weil er die Benches zum Vergleich heranzieht... usw.
 
Was wir schreiben muss nicht zwingend der aktuelle Stand sein. AI ist schwer zu fassen, BQ-Vergleiche kosten extrem viel Zeit, sind sehr aufwendig und vielen nur schwer begreiflich zu machen. Im Übrigen zeigte der verlinkte Benchmark keinen Vorteil für die HD4870, alleine schon durch die Treiber (außer bei 8x MSAA).
Da hättet ihr schon ne andere Formulierung wählen sollen.
Für diese Generation ist es leider fast schon zu spät, mit GT300 und RV870 sollte sich das aber ändern.

Die Tatsache, dass AI nur vergleichbar, in der Regel aber schlechter ist, bleibt bestehen und wird von PCGH wie auch von CB benannt. Im Falle von CB direkt im Artikel selbst, bei uns in den Kaufberatungen.
Woran machst du das fest?
AI-def gegen AI-off ohne AF benchen bei absolutem Grafiklimit, AI-def gegen AI-off mit 16:1 AF benchen bei absolutem Grafiklimit, Differenz berechnen. Ist nicht 100%-ig, aber kommt der Sache zumindest so nahe, dass man sagen kann, wie viel eine HD4k grob verlieren würde. Real ist der Impact sogar noch größer, da auch AI-off nicht alle Texturfilter-"Optimierungen" lahm legt (sieht man im Vergleich zu HQ).
 
Was ist am AI verwerflich? Es optimierte die Filtermethoden für einige Spiele, sodass unnütze Filter deaktiviert werden können und Performance "frei wird". Es ist wie es Lonley Shepard schon schrieb, du spammst jeden x-beliebigen Threat mit deinen "AF minderer Quallitaät" zu, obwohl das so minimal ist, dass man den Unterschied nur mit der Lupe erkennbar ist und selbst hier nur minimalst. Es muss sowieso unter Default-Einstellungen getestet werden, sprich Q-Filtering gegen AI-Enabled. 99% der User wählen sowieso nichts anderes unter der Performanceverlust zu "Hübscheren" Methoden ist viel zu hoch für die gebotene Bildquallität.
Ich würde dir empfehlen diesen Standardsatz" AF mindere Qualität" einfach in deine Signatur zu packen, dann brauchst du auch nicht den 100ersten Post damit "infizieren". Jeder der die Tests von CB oder PCGH durchließt, wird darauf sowieso aufmerksam gemacht. Fakt ist jedenfalls, dass die Standardeinstellungen AI-On und Q-NV fast exakt gleich gut arbeiten. Und diese minimalsten Unterschiede werden bereits in jedem Test genannt, also braucht man hier nicht in jedem Grafikkartenthreat dieses Thema erneut ufmachen und eine Diskussion über 2 Seiten anfechten.
Woher hast du eigentlch die 10% Leistungsunterschiede von HQ zu Q bei NV? Ich hatte hier viel mehr gemessen... Schreib doch bitte mal nen Link mit Quelle, ansonsten ist diese Behauptung schlichtweg falsch
 
Zuletzt bearbeitet:
So würde ich es aber nicht sagen, ich sehe die Filteroptimierungen teils sehr gut.
Hast du schonmal The Hunter gespielt?
Gerade bei dem "Spiel" fällt mir das Flimmern extrem auf (bei den dunkleren Bodentexturen; Erde, nicht Gras etc.)
Es stört zwar, aber denoch bin ich der Meinung, dass sich der Kauf einer 4870 gelohnt hat, denn mir sind glatte Kanten wichtiger als das AF (steinigt mich dafür^^). Da ich zusätzlich viele ältere Spiele spiele, kann ich dann auch schön mit ED zocken :D; wibei ich anmerken muss, dass SSAA bei den Spielen älterer Generationen auch geil war (hatte eine 7950GT vor der HD (vllt. stören die "Filtercheats" mich daher nicht so...)
Zumal "das Flimmern" auf Screenshots einfach nur genial aussieht...
 
Zuletzt bearbeitet:
Ja das mit der Filterdiskussion findet man fast schon in jedem Thread.
Da es das etwas schlechtere AF ja schon etwas länger gibt, wundert es mich besonders jetzt, dass das soviel aufgebauscht wird.
Wahrscheinlich auch der einzige Grund jetzt bei den Preisen zu Nvidia zu tendieren.
Ich sehe die Filter bei ATI generell als gut an und das CCC für den nicht absolut proffessionellen User als sehr gut gemachte Lösung an.
Sehr gute Geometrieglättung und AAA werden stehts nicht erwähnt obwohl das Filter sind die durchaus mit den von Nvidia mithalten können.
Ich könnt jetzt genauso propagieren, dass es das ED CFAA bei Nvidia nicht gibt und somit die Bildqualität bei Nvidia schlecht ist, davon bekomm ich Augenkrebs usw... Dann kann ich auch noch sagen dass es fakt ist, dass Nvidia lang nicht sone gute Geometrieglättung wie ATI hat und schon ist ein neuer Streit entfacht.^^
Die werden natürlich nicht genannt, es wird ständig auf dem AF herumgehackt.
Aber auf was anderem kann man ja kaum herumhacken. Dewegen...
Zumal die Preise gerade bei ATI exorbitant niedriger sind als bei Nvidia.
 
Zuletzt bearbeitet:
eXEC-XTX schrieb:
Was ist am AI verwerflich?
Das niemand ohne testet.
Das ohne nicht alle Optimierungen deaktiviert werden.
Das ohne nicht immer alles glatt läuft. Obwohl erinnert mich an CoD4 oder UT3, wo es mit AI-off aufeinmal mehr Effekte zu sehen gab.
Das Besitzer der 650€ Flagschiffe keine Möglichkeit haben die 136000 Mtexel/s in eine bessere Filterung zu stecken, weil AI-off nicht alle Cheats deaktiviert und AI-off die 3 übrigen GPUs sinnlos werden lässt.

Es optimierte die Filtermethoden für einige Spiele, sodass unnütze Filter deaktiviert werden können und Performance "frei wird".
Man kann beim AF nicht einfach so sparen und hoffen die BQ leidet nicht.

obwohl das so minimal ist, dass man den Unterschied nur mit der Lupe erkennbar ist und selbst hier nur minimalst.
Dies ist einfach völlig falsch. Vom Wiederholen wird es nicht richtiger.

Es muss sowieso unter Default-Einstellungen getestet werden, sprich Q-Filtering gegen AI-Enabled.
Dann auch bitte 1xAF und 1xAA, ist auch Default. Im Spiel auch nichts anrühren, 99% der User verstellen eh nie irgend etwas.

der Performanceverlust zu "Hübscheren" Methoden ist viel zu hoch für die gebotene Bildquallität.
Unfug, HQ ist spottbillig.
Im übrigen kannst du gar nicht so einfach bemessen, was es kosten darf. BQ in Balken pressen, das endet nicht gut.
Effekt 4711 darf dann wieder x GFLOPs kosten, klar

MSAA kostet auch (nach deiner Meinung) viel zu viel im Vergleich zu CSAA, trotzdem testet alle Welt MSAA. Muss wohl daran liegen das dies nicht an Dinge wie AI gekoppelt ist.

Fakt ist jedenfalls, dass die Standardeinstellungen AI-On und Q-NV fast exakt gleich gut arbeiten.
Wurde wiederlegt.
Da fällt mir ein: 8x/16xCSAA sehen fast so gut wie 8xMSAA aus, können wir in Zukunft AMDs 8xMSAA zusammen mit Nvidias 8x/16xnonQ testen.

Und diese minimalsten Unterschiede werden bereits in jedem Test genannt
Unfug, in fast keinem Test wird auf mehr als die FPS eingegangen.

Woher hast du eigentlch die 10% Leistungsunterschiede von HQ zu Q bei NV?
Da du PCGH nicht traust:
https://www.computerbase.de/2008-06/test-nvidia-geforce-gtx-280-sli/7/#abschnitt_aa_und_afskalierung


Schaffe89 schrieb:
JDann kann ich auch noch sagen dass es fakt ist, dass Nvidia lang nicht sone gute Geometrieglättung wie ATI hat und schon ist ein neuer Streit entfacht.^^
Dem kann man entgegnen, in dem man schreibt das Nvidia die Geometrieglättungsqualität im Vergleich zur GF7 nicht verschlechtert, sondern verbessert hat, ganz im Gegenteil dazu was AMD mit dem AF seit der X1xxx gemacht hat.
Man kann auch schreiben, das Nvidia die AA Qualität nicht an SLI oder "spielespezifische Optimierungen gekoppelt hat.

Man kann auch schreiben, das 16xAF keine Erfindung der 8800 GTX ist. Ergo diskutieren wir hier über einen uralten Modi, der scheinbar immer noch hart umcheatet wird.
Nicht so beim AA, hier herschte zumindest im Aspekt der Geometrieglättung kein Rückschritt, der zudem bejubelt wird, sondern ein enormer Fortschritt.

Man kann auch schreiben, das Geometrieglättung nicht alles ist.
Ja, die wahl ob SSAAA oder MSAAA verwendet wird gibts nicht.
Glättung der miesen Shader oder Texturen per SSAA ist auch ein Punkt unter AA, wird von dir jedoch nie genannt.
Ich sehe die Filter bei ATI generell als gut an
Natürlich gilt dies bei 16xQ nicht mehr, dieser AA Modi glättet die Geometrie viel zu schlecht, gell?
Erzeugt dies auch eine flimmernde Bugwelle?
Klar, 24xCFAA ist besser, aber gerade wenn du bei AF das Lupenargument rauskrammst, wird es hier lächerlich so zu arhumentieren. (gerade auch weil der Rest des Bildes lustig flimmert)
 
Zuletzt bearbeitet:
Jetzt entgegnest du wieder mit dem AF, ja was auch sonst.:rolleyes:

Ich sehe die Filter bei ATI generell als gut an

Natürlich gilt dies bei 16xQ nicht mehr, dieser AA Modi glättet die Geometrie viel zu schlecht, gell?
Erzeugt dies auch eine flimmernde Bugwelle?
Klar, 24xCFAA ist besser, aber gerade wenn du bei AF das Lupenargument rauskrammst, wird es hier lächerlich so zu arhumentieren. (gerade auch weil der Rest des Bildes lustig flimmert)
Nunja das das AF bei ATI etwas mehr flimmert wissen wir ja jetzt bereits.
DAs tut nichts zur Sache, dass die Geometrieglättung einfach besser ist.
Auch mal ein Argument für die ATI-Karte dass du natürlich mit so Floskeln wie: Die Nvidia Karten haben die Geometrieglättung verbessert, und dass ja trotzdem alles so "lustig" flimmert zerschlägst.
Du lässt kein einziges gutes Haar an ATI und den Filtern, obwohls nur einen Punkt gibt wo ATI zurück liegt, das AF.
DAs nervt jetzt schon gewaltig.
Jedes mal das gleiche Thema.
Edit:
Hab vorhin eine 9800gtx gegen eine HD4890 in Far Cry 2 getestet und hab mal die Einstellungen mal default gelassen.
Ich sehe außer einem sehr kleinen Flackern eines Punktes des Gebüschs, äußerst weit weg keinen Unterschied in der Bildqualität.
Werd jetzt noch etwas länger testen in mir die Bildqualis angucken.

Es optimierte die Filtermethoden für einige Spiele, sodass unnütze Filter deaktiviert werden können und Performance "frei wird".

Man kann beim AF nicht einfach so sparen und hoffen die BQ leidet nicht.

MAn hat am AF nicht gespart. Das AF bei ATI ist schärfer, als das bei Nvidia. DAs von Nvidia ist "schwammiger", was aber nicht bedeuten soll dass das "schwammige" AF in der Gesamtheit nicht das richtige ist.
Du unterstellst ATI bewusst das AF wegen Performance zu verschlechtern.
DAs liegt an der Architektur und an anderen Faktoren, sicher nicht daran. Denn ohne Flimmern, wäre das AF von ATI eigentlich besser.
Hoffe das wird mal geändert obwohl es mich, wie sonst auch immer überhauptnicht stört.
 
Zuletzt bearbeitet:
Unyu schrieb:
obwohl das so minimal ist, dass man den Unterschied nur mit der Lupe erkennbar ist und selbst hier nur minimalst.
Dies ist einfach völlig falsch. Vom Wiederholen wird es nicht richtiger.
So bestimmt kannst du das auch nicht sagen. Es ist halt eine subjektive Sache. Es gibt Dinge, die sind bei der Qualität des Bildes deutlich schlimmer, aber niemand redet darüber. Was wohl auch daran liegt, dass dort niemand so einen riesen Terror macht.

Mal ein kleines Beispiel am Rande: Nen Kumpel von mir hat in der Frontscheibe so kleine kurvige Drähte drinne, die bei beschlagener Frontscheibe aktiviert/erhitzt werden können. Ich hab die Teile erst gesehen, als er mirs gesagt hatte. Da dachte ich, solche Teile will ich nicht in meinem Auto haben, die hatten mich von dem Zeitpunkt an auch irgendwie richtig gestört. Ich hab ständig draufgeschaut. Seitdem bin ich schon häufiger mit im gefahren und erst heute ist mir wieder in den Sinn gekommen, dass da vorne ja diese Drähte drinne sind und das mich das seltsamerweise überhaupt nicht mehr gestört hat die ganzen Fahrten, in denen ich gar nicht mehr dran gedacht habe. Naja, den Bezug zur AF kannst du dir ja denken. Es ist schon interessant, wie die menschliche Wahrnehmung manchmal arbeitet.

Unyu schrieb:
Dann auch bitte 1xAF und 1xAA, ist auch Default. Im Spiel auch nichts anrühren, 99% der User verstellen eh nie irgend etwas.
Im Treiberprog verstellen sicher wenige etwas, aber im Spiel sinds dann doch schon deutlich mehr, die an den Einstellungen werkeln. Also ich kenne so ne handvoll Gamer und keiner von denen verändert etwas im Treiberprogramm, aber alle drehen an den Qualieinstellungen im Game.

Schaffe89 schrieb:
Ich sehe die Filter bei ATI generell als gut an und das CCC für den nicht absolut proffessionellen User als sehr gut gemachte Lösung an.
Da hast du recht, für den Normalo-User ist das CCC sicher gut, aber ehrlich gesagt finde ich die ATT für Anwender, die sich trauen ein bisschen herum zu experimentieren, deutlicher besser. Mit den ganzen Einstellungen hat man irgendwie so richtig das Gefühl Herr über seine Karte zu sein. Klingt zwar komisch, aber ich denke ihr versteht, wie ich das meine.

Wobei ich nicht weiß, ob die ATT für die HD-Serie immer noch so gut einsetzbar sind.
 
gtx260:
- hohes übertaktungspotential
- sparsamer, besonders im idle
- cuda, physx
- bessere bildqualität
- ...

4870:
- sound über hdmi
- schneller unter 8 x aa
- dx 10.1
- ...

du hast noch was vergessen..

GTX:
-besseres Kühlsystem (leider selten heatbugs, bei denen zu wenig WLP vom Hersteller aufgetragen wird..

Ist völlig egal , es sei denn du hast vor SLI / CF zu nutzen ..


wenn du einen 19" monitor hast , mit 1280 x 1024 zockst , und dir 4x msaa und 16 AT reichen , dann würde ich zur Gtx greifen , da diese dann von P/L her besser ist , außerdem ist die Bildqualität minimal besser bei nVidia .

Und mal ganz ehrlich ssaa, aaa, qsaa, tmsaa, aa mit edge detection und wie die alle heißen sind nur was für echte freaks:freak::freak:

außerdem sieht dann je nach anwendung das eine mal besser , mal schlechter aus ;)
 
Du sagst es @ Ccleaner.
Die meisten Anwender bleiben dabei, nur Einstellungen im Spiel vorzunehmen.
Im Treiber tun das wenige.
Deswegen plädier ich einfach dafür für das ganze Fachgesimpel nen eigenen Thread aufzumachen und nicht immer einfache Kaufberatungen mit dem Gequatsche vollzuflamen.
Einbessere Kühlsystem kann ich jetzt nicht unterschreiben, außer du meinst die Spawas, die können schon ziemlich heiß werden, was aber kein Problem ist.
Wenn ne HD4870 dann würd ich eher zur VaporX greifen.
 
würde die GTX260 nehmen, da bei meinem PC die Nvidia Karten einfach besseres Gaming haben und man hat jetzt auch gleich PysiX dabei. Ich weiss einfach immo noch nicht wieso die Games mit ATI bei mir manchmal stottern(vor allem Tombraider Legend). Nvidia Karten nehmen jedes Game gerne an, sogar die ganz alten :-)
 
Nö die haben nicht besseres "Gaming" und alte Spiele funzen in der Gesamtheit auf ATI Karten genausogut.
 
Schaffe89 schrieb:
Nunja das das AF bei ATI etwas mehr flimmert wissen wir ja jetzt bereits.
DAs tut nichts zur Sache, dass die Geometrieglättung einfach besser ist.
Ich habe die bessere Geometrieglättung nie bestritten. :rolleyes:
Ich habe nur geschrieben, das:
- sich die Geometrieglättung seit der GF7 verbessert hat, nicht so das AF der HDs
- Geometrieglättung nicht alles ist, dabei auf TSSAA und SSAA und AF verwiesen

Ich mache CFAA nicht schlecht, es wundert mich höchstens das jemand der schreibt "ich will doch nur zocken, nicht mit der Lupe suchen" auf 24xCFAA pocht.

MAn hat am AF nicht gespart.
AMD spart Samples, das nenne ich sparen. :)

Du unterstellst ATI bewusst das AF wegen Performance zu verschlechtern.
DAs liegt an der Architektur und an anderen Faktoren, sicher nicht daran.
AMD muss sparen, weil die GPUs mit zu wenig TMUs bestückt wurden. Eine Entscheidung, die bereits vor x Jahren getroffen wurde, die seit der HD2 nicht mehr geändert wurde.
Bei ordentlicher Filterung hätten diese GPUs ein Problem, hübsch viele FPS (im Vergleich) auszuspucken.

Ärgerlich für die, die gerne überschüssige Leistung in bessere Filterung stecken würden, einen Schalter gibt es jedenfalls nicht, warum nur?

Denn ohne Flimmern, wäre das AF von ATI eigentlich besser.
Nur hängt die "Schärfe" direkt mit dem Flimmern und dem Sparen zusammen.

Deswegen plädier ich einfach dafür für das ganze Fachgesimpel nen eigenen Thread aufzumachen und nicht immer einfache Kaufberatungen mit dem Gequatsche vollzuflamen.
Ja immer weg damit, damit es nicht groß rauskommt, sondern in der Versenkung verschwindet.
Die einzige Hoffnung, das mit HD6 oder HD7 endlich mal, nach all den Jahren eine einwandfreie Filterung verfügbar wird lag darin, das wenigstens HD5 entsprechend untersucht wird.
So wird das natürlich nichts, Nvidia lernt auch aus dem Fehler 8800 GTX, 7900 GTX war im Nachhinein doch die bessere Karte. :rolleyes:

Lonely Shepherd schrieb:
Im Treiberprog verstellen sicher wenige etwas, aber im Spiel sinds dann doch schon deutlich mehr, die an den Einstellungen werkeln. Also ich kenne so ne handvoll Gamer und keiner von denen verändert etwas im Treiberprogramm, aber alle drehen an den Qualieinstellungen im Game.
Alles klar, viele Spiele bieten keine direkten AA oder AF Schalter, bzw nicht so ausgeprägt wie der Treiber also zb kein 8xMSAA.

Andere Spiele wie Crysis bieten direkt CSAA, dann kann dies absofort in Zukunft genommen werden, es nutz doch niemand MSAA, wenn CSAA schneller ist. :rolleyes:

So bestimmt kannst du das auch nicht sagen. Es ist halt eine subjektive Sache. Es gibt Dinge, die sind bei der Qualität des Bildes deutlich schlimmer, aber niemand redet darüber. Was wohl auch daran liegt, dass dort niemand so einen riesen Terror macht.
Meinst du damit etwas bestimmtes?

Es ist schon interessant, wie die menschliche Wahrnehmung manchmal arbeitet.
Allerdings.
Dann können wir uns in Zukunft auch FPS Vergleichstests sparen, wenn man die Unterschiede nicht kennt, dann macht es auch nicht heiß.

Übel erscheint mir dieses Argument, kennt ja keiner, deshalb egal.
Seit Jahren gibt es die Möglichkeit 16xAF zu aktivieren, seit Jahren wird hin und her optimiert, jetzt nachdem etliche Artikel erschienen sind, nachdem AMD AF mit AI gekoppelt hat, ist es egal.
Man könnte gleich dahergehen und sein 4xAF in 16xAF umbennen, merkt doch keiner, bis auf die Performance, da streicht man noch Lob ein.

Ccleaner##50fps schrieb:
Und mal ganz ehrlich ssaa, aaa, qsaa, tmsaa, aa mit edge detection und wie die alle heißen sind nur was für echte freaks:freak::freak:
Na dann, auf zu den 1xAA, 1xAF Benchmarks, alles andere ist doch für Freaks.
 
eXEC-XTX schrieb:
Es optimierte die Filtermethoden für einige Spiele, sodass unnütze Filter deaktiviert werden können und Performance "frei wird".
AF arbeitet bereits adaptiv. Einsparungen, wie sie AMD nutzt, senken die Bildqualität.
=eXEC-XTX schrieb:
obwohl das so minimal ist, dass man den Unterschied nur mit der Lupe erkennbar ist und selbst hier nur minimalst.
Hast du dir die Videos angeschaut? Du hast das doppelte Banding und das massive Flimmern nicht gesehen? Glückwunsch, du kannst viel Geld sparen :rolleyes: :freak:
eXEC-XTX schrieb:
Fakt ist jedenfalls, dass die Standardeinstellungen AI-On und Q-NV fast exakt gleich gut arbeiten.
Die Videos beweisen das Gegenteil und unter Leuten die sich auskennen, wird die Frage ob AMD schlechter filtert schon gar nicht mehr diskutiert.
Schaffe89 schrieb:
Das AF bei ATI ist schärfer, als das bei Nvidia. DAs von Nvidia ist "schwammiger", was aber nicht bedeuten soll dass das "schwammige" AF in der Gesamtheit nicht das richtige ist.
Das AF ist nur auf Shots schärfer weil Samples eingespart werden - Qualitätsverlust. Daher flimmert es auch in Bewegung.
Schaffe89 schrieb:
Denn ohne Flimmern, wäre das AF von ATI eigentlich besser.
Würde es nicht flimmern, wäre es weniger "scharf" :freak: Mir scheint, du weißt nicht, wie AF technisch funktioniert.
Lonely Shepherd schrieb:
Wobei ich nicht weiß, ob die ATT für die HD-Serie immer noch so gut einsetzbar sind.
Sind sie :) Nur die HD4770 ist noch nicht (voll) implementiert.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben