Bericht Bericht: GPU braucht CPU

Also das meiste aus dem Artikel ist ja inzwischen totdiskutiert hier und das Fazit soweit klar.
Aber wundert sich eigentlich sonst niemand wie schlecht die Starcraft2-Engine mit mehr als 2 Kernen skaliert? Ich mein das Spiel ist ja nicht gerade uralt und nochdazu ein weltweiter e-Sports AAA-Titel. Und dass gerade Echtzeitstrategiespiele mit zunehmender Anzahl an Spielern und Einheiten einen gewissen Rechenhunger haben ist ja auch bekannt. Das machen andere Titel wie das letzte Anno oder Civ5 doch wesentlich bessser - letzteres skaliert gar mit bis zu 12 Threads. Irgendwie find ich das ein wenig enttäuschend von Blizzard, da sie selbst ja inzwischen ihrem Dino und cash-cow WoW beigebracht haben von mehr als 3 Kernen spürbar zu profitieren.
Das war zwar jetzt alles ein wenig OT, aber am Intel/AMD-Hickhack wollt ich mich jetzt nicht beteiligen oder gar noch Öl ins Feuer gießen - man möge mir verzeihen :p
 
Interessanter Test.
Er zeigt das man mit derzeitigen Mittelklassekarten idR im GPU-Limit hängt.

Allerdings denke ich jetzt mal ein bischen weiter. Anfang 2012 sollen die neuen 28nm Grafikkarten von Nvidia und AMD kommen.
Von den Single-Gpu HD7970 und GTX 680 erwarte ich das sie mind so schnell sind wie die Dual-GPU HD6990 und GTX590.
Mit diesen Grakas oder den kaum langsamer zu erwartenenden 7950 oder 670 wird man dann deutliche Unterschiede in den FPS zahlen von AMD zu Intel sehen, wie dieser Test offenbart.

Falls also jemand vorhat später irgendwann auf die neuen 28nm Grakas aufzurüsten und derzeit vor nem CPU-Kauf steht, für den bleibt eig. nur die Intel Sandy Bridge als vernünftige Auswahl.

Ob die Bulldozer was daran ändern können wird sich zeigen, nach den cherrypicked AMD-Folien die gelakt sind habe ich aber meine Zweifel daran.
 
@Cey123

das mag sein, aber CB hat Jahre lang immer auf 1680er Auflösung getestet. Genau wie diesen Test zuletzt:

https://www.computerbase.de/2011-09/test-amd-radeon-hd-6750-und-hd-6770/4/#abschnitt_leistung

Der Unterschied 1680-> 1920 ist auch nicht so groß wie er scheint da 1680x1050 16:10 ist und 1920x1080 16:9.
Wie bereits gesagt, dier Unterschied würde geringfügig geringer ausfallen, was man ja auch ohne groß weiter nachzudenken selbst erörtern kann.

Wenn die CPU bei 1680 limitiert wird sie das auch bei 1920...

Ja man hätte Full HD nehmen können, allerdings bleibt die Kernaussage beim Test exakt dieselbe und ich würde CB dahingehed keine bösen Absichten unterstellen...
 
|MELVIN| schrieb:
@Deleo,
Solche Aussagen habe ich auch schon zur Genüge vor dem Erscheinen andere Spiele wie Far Cry 2 oder Prototype gehört. Da hieß es dann immer reißerisch, dass die Spiele "massiv" von mehr als zwei Kernen profitieren und ein Dualcore nicht mehr ausreichen würde. Nun ja was soll ich sagen, bei Spiele liefen bei mir einwandfrei. Und ich bin mir ziemlich sicher, dass auch BF3 vernünftig bei mir laufen wird (wenn auch nicht mit maximalen Details, was aber an der Grafikkarte und nicht an der CPU liegt).

Da gebe ich dir ja eigentlich recht, laufen wird es sicherlich, aber schon alleine wegen DX11 lohnt sich eine neue Graka, da ich zu einer gtx580 greife Spare ich jetzt nicht beim CPU, aber mehr als ein i5 wird es bei mir auch nicht, soviel hat der E8400 damals auch gekostet und ist im ramen.
Ich möchte BF3 schon auf Max spielen, von daher denke ich nach 3 Jahren kann man sich einen neuen gönnen.
 
alkaAdeluxx schrieb:
Warum sollten alte CPUs getestet werden?

Um die Aufrüst-Unentschlossenen aufzuklären, und das sind nun mal momentan sehr oft die Leute mit Core2Quad-CPUs.
Finde den Test trotzdem gut gemacht, jedem kann man es nicht recht machen. Ein paar Sachen sind mir aber hier bei den Kommentaren (habe alle durchgelesen) aufgefallen, und zwar dass hier viel zu einseitig gedacht wird:
- Man liest in den hunderten Kommentaren nur von "MHz" und "Kernanzahl", von der Effizienz einer CPU-Architektur schreibt in den mittlerweile 15 Seiten kaum jmd etwas. Genau das würde Besitzer eines C2Q usw interessieren, z.B. inwieweit sich der FSB der "Alten" auswirkt, welche Vorteile der IMC bringt usw...
Genau das kehrt der Test nämlich hervor. Deshalb liegen die CPUs von "x" auch trotz fehlender Kerne wg effizienterer Strukturen halt mal weiter vorn.
- Man zockt ja nicht ausschließlich mit einer CPU, und wenn ich sehe, wie der 2600K meines Kollegen bei Handbrake meinen Q9550 abzieht (1:35h statt 3:40h), dann bekommt man trotz vorhandener GPU-Limitierung Lust auf "was Neues".
- Warum glauben hier so viele, einer Firma (Intel oder AMD) etwas schuldig zu sein, nur weil sie ein Produkt von denen besitzen? Nehmt n Kredit auf und kauft Euch einen Hunderterblister von deren CPUs... damit nützt Ihr Eurer angebeteten Firma mehr als mit sinnlosen Fan-Posts. :D
Hier Gerechtigkeit und Richtigstellung für "sein Produkt" zu fordern, ist imho kontraproduktiv und OT; darum ging es den Autoren sicher nicht.
 
Visualist schrieb:
Hier mal was mit SLI.
3,5GHZ 2600K 8Threads 1920*1080 8*MSAA 110 FPS für meinen 120Hertz Moni ist das nicht Ideal.


5.0GHZ selbse Settings 140 FPS

Jedes mal waren 24 Mann auf dem Server.
Wenn ich mich an meinen X6 @4,2 GHZ vom Januar erinnere hätte ich da wohl 85FPS gehabt.
Mann erwartet von einem SLI ja nicht nur Bildqualität vor allem nicht in Multi Playern .

Und das sind Full HD Settings mit 8*MSAA.

Bei der Quallität würden mich auch keine 300FPS wundern ^^
Deine bilder sehen schlechter aus als meine gtx260, die ersten beiden die du gepostet hast, sehen mehr nach einer 580 aus.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Der Unterschied 1680-> 1920 ist auch nicht so groß wie er scheint da 1680x1050 16:10 ist und 1920x1080 16:9.
Es sind immerhin gute 17%
Krautmaster schrieb:
...
Wenn die CPU bei 1680 limitiert wird sie das auch bei 1920...

ne eben nicht, vielleicht sogar garnicht mehr, aber wir wollen doch das cpu limit sehen.

je eher die GPU limitiert, je weniger unterschiede gestalten sich bei den CPU´s, das würde sich bei 1920 ... eher ergeben, somit wäre das ja eigentlich blöd so zu testen, man will ja wissen was die CPU´s machen, und der der noch mehr Auflösung und AA und AF bis zum kotzen einschaltet, für den rücken die balken alle näher zusammen ...
weniger auflösung ist aber auch wieder blöd, weil sich die balken dann schon entfernen und das möglicherweise zu weit um schlussfolgerungen nach oben zu ziehen, und 290 benchmarks wiederholt man nicht mal eben so weil man sich vorher in der auflösung verschätzt hat.
somit hat man die auflösung ganz gut gewählt
 
Hätte mich schon mal interessiert wie sich der uralte Q6600 in dieser Kombi geschlagen hätte^^.

Trotzdem schöner Test...Danke CB!
 
@Deleo
Habe den Monitor nicht kalibriert nach dem ich Heute morgen den neuen Beta instaliert habe das macht schon ne Menge aus.
Fand schon immer das bei mir die Bilder schlechter aus sehen als das was ich auf den Screen sehe.
Mit Fraps geschossen und paint auf JPG umgewandelt.
 
Plastikman schrieb:
Battlefield Bad Company 2 hat auch Probleme mit 2 Kernern. Das läuft auch mit niedrigen Einstellung nicht immer 100%ig flüssig.

Das -denke ich- kann ich so bestätigen. Spiele BC2 auf 1920x1200 unter höchsten Qualitätseinstellungen (inkl 32xAA) ,bei voll ausgelasteter GPU (GTX570@900/2200) und einem Q9550@4GHz welcher in diesem Szenario eine Auslastung über alle Kerne von ~60-70% ausweist (das ganze liegt dann so um die ~70FPS).Geht man auf moderates 8xAA -bei sonst gleich bleibenden Einstellungen- gehen die ~FPS auch über 100.

Die einzigen Spiele die sich bei mir bisher an diese Prozessorauslastung herantasten konnten waren GTA VI und Anno1404 (nach einem Langzeitspiel von ~35 Stunden).


Interessant finde ich -bezogen auf BC2- das ein Bekannter mit seiner nagelneuen unübertakteten Kombi aus GTX580 und k2600 bei gleichem BS und GraKa-Treiber ein gutes Stück weniger FPS (~ - 10-15) hat.
 
Zuletzt bearbeitet:
Sehr interessanter Artikel, nicht zuletzt weil ich selbst schon oft vor der Frage gestanden bin, welche CPU und welche Grafikkarte geben ein gutes Paar ab?

Ich hätte dennoch eine Anregung:
Wenn ihr das nächste Mal neue Grafikkarten (im Referenzmodell) vorstellt, nehmt doch diese Testdaten gleich mit in den Test rein. Einfach die Leistung mit ein paar aktuellen CPU's testen und das ganze dann in einer Tabelle wie in diesem Artikel mit in den Testbericht schreiben.
Ist zwar mit mehr Arbeit verbunden, dennoch würde es einer Menge Leute helfen, die genau vor dieser Frage stehen.
 
Wurde ja schon mehrfach geschrieben.

Da das Ergebnis ist, das solange keine absolute High End Graka im System ist, das ganze GPU-limitiert ist, wären ein paar aeltere CPUs im Test sehr hilfreich.
Vielleicht reicht ihr das ja als Teil 2 nach?
 
ExcaliburCasi schrieb:
Es sind immerhin gute 17%


ne eben nicht, vielleicht sogar garnicht mehr, aber wir wollen doch das cpu limit sehen.

je eher die GPU limitiert, je weniger unterschiede gestalten sich bei den CPU´s, das würde sich bei 1920 ... eher ergeben, somit wäre das ja eigentlich blöd so zu testen, man will ja wissen was die CPU´s machen, und der der noch mehr Auflösung und AA und AF bis zum kotzen einschaltet, für den rücken die balken alle näher zusammen ...
weniger auflösung ist aber auch wieder blöd, weil sich die balken dann schon entfernen und das möglicherweise zu weit um schlussfolgerungen nach oben zu ziehen, und 290 benchmarks wiederholt man nicht mal eben so weil man sich vorher in der auflösung verschätzt hat.
somit hat man die auflösung ganz gut gewählt

wollen wir wirklich das GPU Limit sehen? Was habe ich davon...? Das GPU Limit sehe ich auch bei den Benchmarks der kleineren, üblichen GPU wie GTX 460 sogar sehr deutlich (was ja auch gut so ist).

Hätte man nun ausschließlich in 2560er Auflösung gebencht stände jede CPU wie diese GTX 460 da. Das wiederrum raubt dem Test auch die Aussagekraft.

Ich denke auch, dass die Auflösung als auch die GPU Spannweite gut gewählt wurden.

Warum?

Weil wir den 800x600 Test bei den CPU Benches haben, genau wie die hohe Auflösung. Zwar nur für die GPU des jeweiligen Testsystem, aber das ist ausreichend. =)
Genauso haben wir jür die verschiedenen GPU auch ein Test im absoluten GPU Limit mit 2560er Auflösung.
1680x1050 ist doch schön in der Mitte =) passt doch :D

Wenn die CPU bei 1680 limitiert wird sie das auch bei 1920...

mit der Aussage meinte ich übrigens, dass wenn die CPU bei 1680x1050 keine spielbaren Frameraten liefert, sie das auch bei 1920x1080 nicht schaffen wird, egal ob da eventuell auch noch die GPU limitiert ;)
 
Zuletzt bearbeitet:
@ Fantom
bei den benches auf alle fälle. ^^

@ Wolfgang

THX 4 Test ... lass Dir den Urlaub nicht vermiesen u. es gibt wie immer einen schönen, schmackhaften Keks dafür. ;)

- Die Krönung / Sahnestück wären halt noch Test's mit der Penryn-Generation.
Will aber mal nicht klagen, denn umso mehr Komponenten, desto mehr Zeit wird veranschlagt.
 
Vielen Dank an die CB-Redaktion!
Das ist wirklich mal ein sehr interessanter und hilfreicher Test.
Gerade in Hinblick auf die momentan stattfindenden Prozessor-GPU-Diskussionen bezüglich BC3.
Hier könnte / sollte man vielleicht nach Erscheinen von BC3 nochmal testen, wie sich die Performance entwickelt.
Bis jetzt jedenfalls *thumbsup*
 
Oh man was läuft hier wieder für ein Affentanz? :rolleyes:
Der Test spiegelt vergleichsweise gut die derzeitige Situation wieder, denn kaum ein Spiel kann effektiv etwas mit der hohen Anzahl an CPU Kernen anfangen.

Werden nur 2 von 4 Kernen genutzt, dann ziehen der kleine i3 und der i5/i7 bei gleicher Taktfrequenz praktisch gleich. Gleiches Spiel ist dann beim Phenom X6 vs. i3 Vergleich.
Nutzt das Spiel z.B. nur 2-3 Kerne zum Rendern, dann liegen 50% - 66% der Leistung des X6 (vom Spiel nicht nutzbar) brach und der kleine i3 zieht gleich oder kann den X6 sogar überholen.

Nix mit Bestechung und Illuminaten......das ist die Unzulänglichkeit der Spiele Software.
 
jou na ich würde sagen das eigentlich jeder der in seinem - GAMER - PC - einen Quad Core Prozessor von AMD oder Intel hat eine Single GPU gut befeuert.

Was die CPU sonst noch so berechnen muss is ja auch wieder wichtig aber ne andere Sache.

Krass finde ich aber das der INTEL i3 den den AMD X6 voran is.

schade das Sie nich noch einen QX9770 ins Rennen genommen haben.
Da die INTEL Core to Quad Serie 9xxx in Spielen den i5 2500K nich viel nach steht.
 
Zuletzt bearbeitet:
wadenbeisser schrieb:
... denn kaum ein Spiel kann effektiv etwas mit der hohen Anzahl an CPU Kernen anfangen.
Eine wahre Aussage, aber trotzdem sehe ich das so: Ein "Quad" ist "besser"! Man benötigt ihn zwar nicht unbedingt für Spiele, aber trotzdem freue ich mich, dass ich Reserven habe. Denn es gibt durchaus Anwendungen, die mit > 4 Kernen etwas anfangen können.
 
Mir fehlt eine Angabe darüber wieviele CPU Kerne bei den Spielen genutzt wurden.
Die durchschnittliche Mehrleistung von des X6 entspricht schließlich in etwar dem Turbo Takt Vorteil des X4 und wenn nicht alle Kerne genutzt werden loegt ein Großteil der Leistung brach.

Das kommt auf das Spiel an! Es gibt tatsächlich Spiele bei denen die Leistung einer CPU mit 6 Kernen brach liegt, siehe auch die Ergebnisse eines Gulftowns, der wegen seiner "schlechten" Spieleleistung so gern als BD Opfer hingestellt wird.

@Wolfgang:
Schönen Urlaub noch!
 
Zurück
Oben