Test Test: 17 Grafikkarten im Vergleich

You are correct, Sir!
I assumed you have compared Nvidia vs AMD as per supersampling settings provided in the menus of their corresponding driver software; however both brands employ different sample algorithms as default. Unless Nvidia inspector is run to select FSSGSAA(full scene supersampling), Nvidia's algorithm employs either an alpha texel, or a supersampled texel. Supersampled texels take longer to compute, but they also sample color more than alpha texels thus represent the scene and reflections better.
I am, of course, speculating so far, if you have indeed used Nvidia Inspector to bring both brands to terms.
http://www.tomshardware.com/reviews/anti-aliasing-nvidia-geforce-amd-radeon,2868-3.html
 
Zuletzt bearbeitet:
Wow, endlich mal aktuelle Treiber!
Schöner test, immer wieder interessant, wie nach ner Weile der Stand der Dinge ist.

Schade nur, dass jede Seite etwas andere ergebnisse bekommt....
Hier ist ne GTX 660 ti gleich auf mit ner 7950, dort ist die 660 ti gerade mal 2% schneller als ne 7870...
Sollte ja eig unmöglich sein, dass solche unterschiede rauskommen, und man weiß nicht, welche Seite zugunsten von welchem Hersteller an den Treiber-settings gedreht hat.

Optimal wäre es, wenn sich ALLE Testseiten darauf einigen würden, dass zwar aktuelle Treiber genutzt werden, aber dort grundsätzlich immer nur die Standart-settings genutzt werden. Denn leider kann man mit nur einem kleinen setting die end-tabelle so verfälschen, dass ein Hersteller besser dasteht, als er eigentlich ist

(Der letzte teil ist aber keine direkte Kritik an CB, sondern ist eher allgemein gemeint)
 
Der Hauptgrund ist ja eher die Benchmarkauswahl, beeinflusst diese das Ergebnis größtenteils mit. Daher sollte ein Test-Parcours auch dementsprechend ausgewogen sein. Die Treiber sind wie eine andere Frage.
 
Darkseth88 schrieb:
Schade nur, dass jede Seite etwas andere ergebnisse bekommt....
...
Optimal wäre es, wenn sich ALLE Testseiten darauf einigen würden, dass zwar aktuelle Treiber genutzt werden, aber dort grundsätzlich immer nur die Standart-settings genutzt werden. Denn leider kann man mit nur einem kleinen setting die end-tabelle so verfälschen, dass ein Hersteller besser dasteht, als er eigentlich ist
Naja ... wenn man nur die Standard-Settings verwenden würde, könnten die Hersteller selbst ziemlich schummeln, indem "standard" einfach gleich bedeutend mit "maximal schlecht" ist.
 
Emploi schrieb:
big_rofl.gif
Dann bezahlt ja keiner mehr.

Meine Erfahrung lehrt: Egal wie eine Newsseite ihre Hardwaretests gestaltet, von mindestens einer Fan-Seite kommt immer ein "BUUHUHUHU DIE NEWSSEITE IST GEKAUFT!!!!!", manchmal sogar von beiden Fan-Seiten bei ein und den selben Test :freak:

Und noch ein kleiner Nachtrag dazu: Benchmarks sind nie 100% fair noch können sie wegen ihrer Allgemeinheit spezifisch für einen bestimmten Benutzer ermitteln welche Hardware für diesen am besten ist. . . .
 
Unless Nvidia inspector is run to select FSSGSAA(full scene downsampling), Nvidia's algorithm employs either an alpha texel, or a downsampled texel.
I dont think custom setting are used besides turning on SSAA. At least, nothing is mentioned.

Test schrieb:
Da mittlerweile sowohl AMD als auch Nvidia über eine automatische LOD-Anpassung bei der Nutzung von SSAA verfügen, hat keiner der beiden einen generellen Vorteil bei der Bildqualität.
translates roughly to:
Because AMD as well as nVidia use an automatic LOD-adaption while using SSAA, none of them has a general advantage regarding picture quality.
 
translates roughly to:
Because AMD as well as nVidia use an automatic LOD-adaption while using SSAA, none of them has a general advantage regarding picture quality.
Thank you for your reply.
They may utilise automatic Level of Detail adjustments. I don't know anything about that.
Supersampled texels still have more color data than alpha textures. I suppose the visual impact is evident. If the difference is present, there has to be some performance deficit to supersampling in my opinion, thus creating a bias to the faster algorithm software. I'm recommending gtx660 & HD7870 according to your data, but I'm wary of such a circumstance.
 
Zuletzt bearbeitet:
Well a basic test of many cards isnt exactly able to cover all those circumstances. There are - sometimes - different kinds of reviews on Computerbase. Those do actually cover image quality while measuring performance.
But those havent been around for a while, because the standard quality settings are starting to become somewhat more equal.
That being said Computerbase cannot test all settings, if you wish for it, the best choice would be to do complementary tests of your own. Actually, if you recommend those graphic cards anyway, why not just use of them for some quick benching? :p
 
Bin ja immer wieder erstaunt wie wenige Rechtschreibfehler doch möglich sind wenn man mal eine andere Sprache als die eigene schreibt ;)
 
Wenn das an mich ging, war das Kritik an meinem Deutsch? :p
Er hat sich immerhin die Mühe gemacht und vermutlich versucht, die Seite nach einer Google-translate-"Vergewaltigung" zu lesen :)
 
Zum Thema: Das Problem der aktuellen Grafikkarte ist einfach, wofür die ganze Graphikpower? Ich meine wohin damit?
Es gibt kein aktuelles PC Spiel das auch nur ansatzweise die volle Rechenkraft einer 660 Ti oder höher braucht.
Diese Karten sind einfach hoffnungslos unterfordert, leider.

Das PC Spiel mit dem größten Hardware-Hunger ist erstaunlicherweise immer noch Crysis-Warhead (Add-On zu Crysis) aus dem Jahre 2009!!

Um hier auf höchsten Graphiksettings (alles auf Enthusiast stellen) zu spielen, reicht ne alte 470, 480 GTX bzw. 560 Ti, 570 vollkommen aus! Sogar die Vorgängergrakas waren nicht voll ausgelastet!

Die aktuelle Generation gähnt am laufenden Band und wartet sehnsüchtigst darauf, das nach gut 3,5 Jahren! endlich mal ein PC-Spiel erscheint, dass auch die Rechenpower der aktuellen GraKas oder der Vorgängergeneration ausnutzt!

Bisher 3,5 Jahre grafische Stagnation auf dem PC-Spielemarkt. Vielleicht ändert sich das mit Crysis 3.
 
Zuletzt bearbeitet:
Deswegen ja der ganze Humbug mit drei Monitoren, Leistungsfressenden AA-Modi
und Grafik/Texturen-Mods. :D
 
Weltenspinner schrieb:
Deswegen ja der ganze Humbug mit drei Monitoren, Leistungsfressenden AA-Modi
und Grafik/Texturen-Mods. :D

Richtig, ich kann das nicht verstehen.
Wer ne 460-er Graka hat (Vor-Vorgeneration von Nvidia) oder besser, braucht wirklich (momentan) keine Neue kaufen. Ist rausgeschmissenes Geld, finde ich.
 
Zuletzt bearbeitet:
Nur, weil du es nicht verstehen kannst, nicht brauchst, willst oder sonstwas, heißt das nicht, dass andere das nicht brauchen ;)

Ach komm, mit einer 460er läuft doch heute kein grafisch anspruchvolles Spiel in FullHD-Auflösung mit AA/AF flüssig. Meine 560Ti kommt auch schon an ihre Grenzen, obwohl "nur" 1 Monitor.
 
exoplanet schrieb:
Richtig, ich kann das nicht verstehen.
Wer ne 460-er Graka hat (Vor-Vorgeneration von Nvidia) oder besser, braucht wirklich (momentan) keine Neue kaufen. Ist rausgeschmissenes Geld, finde ich.

Was kann man tun, um an deinem Verständnis zu arbeiten?
 
@TheManneken
dann nenne mir nur ein PC-Spiel wo deine 560 Ti ins stocken gerät.

Crysis - Warhead hat den größten Hardware-Hunger und das läuft mit meiner 560 Ti flüssig auf höchsten Settings mit durchschnittlich 40 fps. Habe aber noch ne relativ schwache CPU (E8500).
Ergänzung ()

CD schrieb:
Was kann man tun, um an deinem Verständnis zu arbeiten?

dazu müsste die Gamestar ihren Artikel zurücknehmen und sagen das dieser falsch ist.
 
Zuletzt bearbeitet:
CD schrieb:
Verlink den doch bitte mal.

Dieser steht im Vorwort der Gamestar-Ausgabe 01/2013.
Denke nicht, dass dieser im Internet veröffentlicht wurde.

Habe gelesen das "Metro: Last Light" bzw. "Crysis 3" endlich mal wieder
einen technischen Grafikschub geben soll.
Wird auch mal endlich Zeit nach 3,5 Jahren grafischer Stagnation.
 
Zuletzt bearbeitet:
TheManneken schrieb:
Nur, weil du es nicht verstehen kannst, nicht brauchst, willst oder sonstwas, heißt das nicht, dass andere das nicht brauchen ;)

Ach komm, mit einer 460er läuft doch heute kein grafisch anspruchvolles Spiel in FullHD-Auflösung mit AA/AF flüssig. Meine 560Ti kommt auch schon an ihre Grenzen, obwohl "nur" 1 Monitor.
Eben, drum. Man kann viele Sachen schlecht reden, die man nicht kennt.

Meine 3 Monitore möchte ich nicht mehr missen. Ein unvergleichliches Spiel (leider mit Abstrichen) und Arbeitserlebnis. Leider gibt es auch keine Grafikkarte die bei vollen Settings alles schafft, auch die Titan nicht. :(
Ergänzung ()

Ich habe in meinem Rechner die EVGA GTX 560, und Spiele zb NFS über HDMI an meinem 47" TV, und dem Logitech Z906 Audio System, und da reicht die Power vom Rechner Alleweil, desshalb verstehe ich es nicht, wieso mann 2, oder 3 GK's, und 3 Bildschirme dafür braucht!

Ich habe auch Auto, und einen Sym MaxSym 400i Roller, und noch ein Motorboot! Na und? Ich könnte es mir leicht Leisten so eine Riesenkiste Zusammenzustellen, aber ich brauche nicht mehr als es den Nutzen hat!
Nun frage ich mich aber ernsthaft, wer hier gerade protzt! Sei es drum. Ich kann weder mit einem 47" noch mit einem Motorboot etwas anfangen. Gegönnt sei es dir ;) ohne neidisch zu sein.
 
Zurück
Oben