Und in welcher Realität soll das so sein? Also in unserer nicht. Wenn dieser rhyn keinen Unterschied merkt, was ja durchaus sein kann, reicht ihm auch ein Pentium G oder ein Athlon X2. Nur kann man doch nicht harte Messergebnisse anzweifeln, nur weil es eben so Leute gibt. Ich geh ja auch nicht als totaler Weinbanause her und behaupte, es ist völlig egal, was man nimmt, alle Sorten schmecken gleich
Es werden immer so gerne die Benchmarks in niedrigen Auflösungen kritisiert, dabei wird aber überhaupt nicht nachgedacht und über den Tellerrand geschaut. Das "Schlimmste", was passieren kann ist, dass die CPUs durch ein GPU-Limit gleichaufliegen - aber selbst das nicht in allen Spielen und allen Szenen.
Beispiel:
Serious Sam 3, was ja weithin als GPU-limitiert gilt, fällt stellenweise selbst auf einem i7 mit 4,3GHz auf knapp 50fps CPU-bedingt. Ich kann da noch soviel AA und Auflösung erhöhen, ich kann die Grafikeinstellungen rauf- und runterändern - es ändert an der Tatsache nichts. Mehr fps werden es nicht, höchstens
weniger.
Der Punkt ist: Das reicht nicht jedem. Wenn ich in 1080p mit AA benchen würde, würde ich da mit Intel- und AMD-Systemen im GPU-Limit vielleicht 35fps erreichen. Dann ist nicht ersichtlich, dass durch leichtes Senken der Einstellungen das Intel-System besagte 50fps schafft, das AMD-System aber bei den 35fps verharrt. Und wer spielt schon gern einen Shooter, der auf 35fps dropt...
Nicht jeder gibt sich mit den fps-Raten zufrieden, die in den fast immer falsch gemachten Benchmarks rauskommen. Ob und wieviel man da rausholen kann, damit den eigenen Ansprüchen Genüge getan wird, diese Informationen fehlen fast immer.
Deshalb sage ich schon immer: Richtig gemachte CPU- und GPU-Benchmarks getrennt anschauen, Grips einschalten und kombinieren. Problem gelöst.