Bericht Bericht: GPU braucht CPU – Zweiter Teil

Domi16 schrieb:
Höherer Takt rendiert sich bei anderen CPUs ja auch nicht wirklich (vgl. BF3 Benchmarks!!!)...

Der FX8150 ist auch bei Standardtakt kaum schneller als der Core i3 und der Core i3 ist ein Dual-Core, wogegen der FX 8150 ein Octacore ist.
 
allerdings schafft es der Prozessor nicht annähernd, in die Leistungsregionen des Core i5-2500K vorzudringen – der obendrein preiswerter und stromsparender ist.

ich weiß warum ich vor einem halben jahr den i5-2500k gekauft habe :)
 
Die Stromverbräuche dazu wären jetzt noch überaus interessant gewesen!
 
@AMDprayer: Metro spiel ich ned, deswegen kann ich da nix sagen, aber z.B. BF3 läuft im Preset "Hoch" bei etwa 40fps, Starcraft2 läuft mit ~60fps (alles auf Anschlag gedreht), GTAIV läuft in ziemlich hohen Einstellungen... joa also ich denk das ist doch was oder?
 
@Marius
Keine Ahnung was jetzt daran auszusetzen wäre?! Interessiert doch den Gasmann wieviel die Ivy zulegt. SB ist schon gut unterwegs und das was man derzeit kaufen sollte;) Die Frage ist was hat man sich bei AMD mit der Architektur gedacht? Eier kochen ab 4 Ghz?
Genau das meinte ich übrigens mit Kinderkacke;) oh mein two core sticht deinen eight core volle Kanne aus^^
Who Cares?
 
wtf mein AMD 965 ist besser wie der 8 Core Bulli????

ich glaube sobald es eine 8 Kern unterstützende Software gibt hat der noch was raus AMD ist doch nicht doof und baut einen Prozessor der schlechter ist wie der Vorgänger zumal er noch in einer kleineren Struktur gefertigt wurde und eig schneller sein müsste.
 
Ganz anders sieht es hingegen aus, wenn eine Dual-GPU-Karte oder eine „Next-Gen“-Grafikkarte, ..., zum Einsatz kommen soll. Diese können mit einem FX-8150 deutlich zulegen.

Hää? Raff ich jetzt nicht ganz. Hat jemand anders das Fazit geschrieben als der der den Test gemacht hat?

Nehmen wir mal die Dual GPU Karte GTX 590. Wo kann dann bitte der BD gegen den X6 zulegen? Der BD ist im Rating 0,4% langsamer als der X6 und mit der HD 6990 gleich schnell. Nur mit 4,5GHz ist er schneller, was man aber nun wirklich nicht vergleichen kann da ein X6 auch meinst auf 4GHz geht.

Der Phenom II ist einfach besser fürs Gamen, wenn man einen Phenom II BE sei es X4 oder X6 auf 4GHz übertaktet kann selbst ein BD mit 4.5GHz nicht mithalten.

Atm ist der Phenom II X4 955 für 90,- € einfach noch DER Gamer CPU. Mit etwas mehr VCore kommt dank des inzwischen sehr guten 45nm Prozess quasi jeder der CPUs auf 4GHz. Damit schlägt er auch alle Intel i3 welche sich nunmal nicht takten lassen. Klar der Stromverbrauch ist deutlich höher, wer also sehr lange zockt kommt wohl auf dauer mit einem i3 besser.
 
F: Warum wird kein BF3 gebencht?

A: Dort sind für viele hauptsächlich die Leistungswerte im MP von Interesse, aber gerade den kann man nicht benchen.
 
Im Fazit liest es sich so, als wäre CB schon ziemlich sicher, dass die NextGen-Grafikkarten schneller werden. Zuletzt hieß es da immer noch, es wäre nichts über die neuen Karten bekannt.

Auf jeden Fall schön zu wissen, dass ein Bulldozer auch zum Spielen nicht lohnt^^
 
AMDprayer schrieb:
Das wage ich doch zu bezweifeln da das nichtmal meine HD5850 mit Core i5 750 (Quad Core) schafft. Spiel mal Metro 2033 auf Full HD mit maximalen Details, die 5770 wird das nicht 100% flüssig schaffen. Ich musste selbst auf 1680 x 1050 ein paar Effekte runterschrauben da es nicht 100% Reibungslos lief (es war zwar Spielbar aber die fps waren hart an der Grenze so dass es nicht ganz flüssig wirkte). Es gibt sicher auch noch andere Spiele die eine 5770 in Full HD überfordern wenn man maximale Qualitätseinstellungen wählt. Insbesondere AA und AF reißen die fps in den Keller.

Naja - ich fahr momentan mit ner 4870 1GB in derselben Leistungsklasse wie ne 5770/6770 rum. Spiele laufen bei mir fast alle auf 1920x1200. Klar - man muss in der Konfig auf die ganz hohen Einstellungen für AA/AF verzichten. Allerdings sind die Qualitätsverbesserer zum großen Teil sowieso nur Augenwischerei weil man davon beim Spielen an sich recht wenig mitbekommt.
Titel, bei denen man mit so ner Karte tatsächlich fehlende Performance bemerkt gibt es extrem wenige. Ganz aktuell wäre das BF3 sowie das von dir genannte Metro 2033. Sonst fällt mir grad eig. nix ein. Möglicherweise noch Crysis 2.

Zum Artikel: Ich hab immer den Eindruck, dass vor allem CF/SLI Konfigurationen ein schnellerer Prozessor gut tut - und zwar ganz unabhängig von der absoluten Leistung der Grafikkarten. Das hätte man eigentlich auch mal genauer untersuchen können (Stichwort: Kleinere CF/SLI-Gespanne).
 
Fetter Fettsack schrieb:
F: Warum wird kein BF3 gebencht?

A: Dort sind für viele hauptsächlich die Leistungswerte im MP von Interesse, aber gerade den kann man nicht benchen.

Und für BF:BC2 gilt das also nicht? :freak:

Ich meine, ich erwarte sicher keine Wunder hinsichtlich der Verbesserung der Multi-Core-Auslastung von Frostbite 1,5 -> 2, aber schlechter ist sie bestimmt nicht geworden, was dem Bulli ja tendentiell entgegenkommen würde.

Gruß
 
Vergesst bei euren Test doch bitte nicht den LGA 1366!
Wäre wünschenswert wenn Ihr von diesem Sockel auch je Vertreter z.b. 990X und 940 testen würdet.

Wozu? für die <1% der Leser, die den Sockel nutzen? Ist doch kaum verbreitet, zumal der 990x nur minimalst besser als ein 2600k ist... Also nimm doch einfach die Werte vom 2600k.
 
Leute ihr vergesst die Grundlegende Architektur des Bulldozer.

Er hat 4 FPU's ... das bedeutet genausoviele wie der Phenom II X4 ... 2 Weniger als der Phenom II X6. Also ist es in meinen Augen schon eine Leistung, etwas schneller als der PII X6 zu sein.
 
Ich bin echt kurz davor den i3 zu kaufen. Jeder schreit nach Quadcore, aber es ist einfach nur erstaunlich was der kleine Dualcore mit der TDP leistet...
 
Hallo, ja ich vermisse auch den BF3 Benchmark - es solle ja 8 Kerne untersützen also endlich mal ein Spiel das die Techniken ausnutzt
 
Toms schrieb:
Leute ihr vergesst die Grundlegende Architektur des Bulldozer.

Er hat 4 FPU's ... das bedeutet genausoviele wie der Phenom II X4 ... 2 Weniger als der Phenom II X6. Also ist es in meinen Augen schon eine Leistung, etwas schneller als der PII X6 zu sein.
... was das Gesantprodukt aber auch nicht besser macht :]
Immerhin kostet er deutlich mehr und verbraucht auch einen ganzen Haufen mehr Strom.
 
hm

Also ich fasse mal als nicht-fanboy zusammen
was ich für mich als Erkenntniss erhalten habe.

gesucht wird eine cpu für spiele

1:single gpu = PII x4/core i3
(bulli/i5/i7 zu teuer für 2-3% mehr)

2:dual gpu = core i5
(amd abgeschlagen/core i7 zu teuer für 2% mehr)

3: oc bei spielen kaum erwähnenswert

Das sagt mir folgendes:
PII x4/core i3 ist zum spielen die beste wahl
core i5 nur sinnvoll bei dual gpu

Bulldoozer/core i7 nicht sinnvoll für Spiele

Alles rein auf spiele ausgelegt

gruss digger
 
Sollte ja bekannt sein dass der Bulli ein schuss in den Ofen war. Ws ich nicht verstehe, ist warum in 1680*1050 gebencht wird. Das ist eine Auflösung, die bei den getesteten Grafikkarten / CPUs kaum verwendet werden wird. Noch dazu sorgt sie für eine Vermischung von GPU und CPU-Limit. Drum sind die Benches durch die Bank aussagelos. Bei den DualGPU-Karten kommt euer System ausm Grafikkartenlimit raus. Da merkt man dass der Bulli bei 4,5GHz 10-15% langsamer als der i5 2500k ist, das wars auch schon. Darunter? OK, man sieht das Sandy+Geforce aus irgendeinem Grund in BFBC2 langsamer ist als die anderen Kombinationen.

Interessant sind auch Resultate wie das, dass eine HD6990 beim i3 langsamer ist als eine HD6970.

Alles in allem bleibt aber für den FX-8150 kein Argument mehr übrig, wenn man von Spielern spricht. Das Teil ist unnötig wie ein Kompass am Nordpol. Dass er bei 4,5GHz um die 200W verbrät, er sich in Spielen aber teilweise nichtmal mit dem Phenom II X4 messen kann, setzt dem Ganzen die Krone auf.

Eigentlich kann die Empfehlung nach diesem Test nur lauten, dass der i5-2400 das Maß der Dinge für Spieler ist. Der Dualcore Sandy kann zwar oft mithalten, aber eben nicht immer. Dazu ein günstiges Board, denn Übertaktungsfunktionen sind zwar toll, aber bei der Leistung von Sandy für Normalspieler (=GTX 570 oder HD6970, oder kleiner) völlig sinnlos. Und da bekommt man für 160€ einen Prozessor, der die Konkurrenz schon heute im Regen stehen lässt. Und noch dazu in der Zukunft seinen Vorsprung wohl vergrößern wird. Oder: BLEIBT BEI EUREN X4! Umrüsten lohnt absolut nicht! Weder X6, Bulli, noch Intel sind nennenswert schneller. Meistens. Bulli Eigentlich nie, wenn man vom Taktwahnsinn absieht.

mfg
 
Zurück
Oben