Bericht Bericht: GPU braucht CPU – Zweiter Teil

Ich weiss jetzt nicht, was der Test jetzt eigentlich bedeuten sollte? Will jetzt CB nochmal aufmerksam machen, wie gut Intel immer noch da steht?
Wie ich das Fazit las mußte ich mal laut lachen:

Laut AMD soll sich die „Bulldozer“-Architektur in zukünftigen Spielen besser schlagen als mit der heutigen Software. Unter anderem soll „Battlefield 3“ solch' ein Kandidat sein. Jedoch gibt es selbst dann das Problem, dass die Leistung eben längst nicht in allen Spielen vorhanden ist.

Aha.... CB erwähnt wohl das AMD bei BF3 wesentlich effektiver arbeitet, aber das war es auch schon. Test? Warum auch, könnte ja kritisch für Intel werden. Ich hoffe CB reicht den Test nach oder?
Ja und nach dem BF3 Hinweis aber gleich die Ansage von CB:
....dann das Problem, dass die Leistung eben längst nicht in allen Spielen vorhanden ist
in jetzigen Spielen vermutlich nicht CB, aber AMD sagt klar: in zukünftigen Spielen!

CB und ihr wollt neutral sein? Nie und nimmer.
 
....dann das Problem, dass die Leistung eben längst nicht in allen Spielen vorhanden ist
in jetzigen Spielen vermutlich nicht CB, aber AMD sagt klar: in zukünftigen Spielen!

Könntest du dann vielleicht erklären, wie man zukünftige Spiele benchen soll? Oder erwartest du allen Ernstes, dass man die Benchergebnisse der jetzigen Spiele ignorieren und ins Fazit schreiben soll: "In gegenwärtigen Spielen vermag sich BD nicht an die Spitze zu setzen, aber in zukünftigen Spielen wird er grandios sein."?
 
Fetter Fettsack schrieb:
aber in zukünftigen Spielen wird er grandios sein."?
Das wär doch mal was :D


War der BD eigentlich übern Multi übertaktet? steht vermutlich irgendwo nur ich habs überlesen xD ... weil es ja da offensichtlich ein paar kleine unterschiede gibt ...

aber eigentlich total egal, der Test zeigt, das irgendwie alles ausreicht ... selbst 20% wären eigentlich latte ...
 
Fetter Fettsack schrieb:
F: Warum wird kein BF3 gebencht?

A: Dort sind für viele hauptsächlich die Leistungswerte im MP von Interesse, aber gerade den kann man nicht benchen.

Battlefield Bad Company 2 wurde auch von CB in den Testpark aufgenommen. Für mich ist deine Antwort unbefriedigend !

EDIT: Damals zu BF2 Zeiten hat CB auch BF 2 im Testpark gehabt ! https://www.computerbase.de/2006-12/bericht-nvidia-geforce-8800-gtx-sli/6/#abschnitt_battlefield_2

EDIT 2: Ok muss mal zurückrudern, BF2 hatte ein spezielles Bench Tool.
 
Zuletzt bearbeitet:
Dann schaut mal auf anderen Sites die haben mit BF gebencht und dort kam raus das auch da der Bulli kein Land sieht. Einfach mal googlen.

Das sich einige immer so an BF3 festbeißen :D

Ich hab das Game selbst und nen I7 2600k mit na 6970 und da limitiert definitiv die Grafikkarte. Die CPU langweilt sich eher.
 
Vernichtend für AMD, sehr schade :freak:

Wenn ein i3 Dual Core dem Bulldozer paroli bieten kann dann erscheint es mir fast so, als würde sich AMD vom Consumer/Gamer abseilen.
 
Kapier ich nicht warum alle über diese CPU meckern: der BD ist mit 4 Modulen schneller als der Sechskerner im eigenen Haus und hat darüber Features die heute kaum eine Home-Software unterstützt (das betrifft auch Games!), im Serversegment spürt man die Vorteile der neuen Architektur deutlich besser. In zwei Jahren würde ein Vergleich von Sandy-Bridge und BD deutlich anders ausehen.

Aber egal, Gamer brauchen den nicht kaufen und das Geld macht AMD eh mit den APUs und die gehen weg wie geschnitten Brot. Die Paar Hardcore-Gamer spülen eh kaum Geld in die Kasse. Die Masse der Menscheheit brauch net mehr als nen Dualcore, wenn überhaupt - nen Atom tuts ja auch schon für viele. Architekturmäßig/Featuremäßig finde ich den BD allerdings deutlich Zukunftssicherer als den Sandy Bridge, allerdings schläft Intel auch nicht. Highend ist halt zum testen neuer Features da und manchmal kommen die eben schneller als die Software - so wie die DX 10 Grakas - ewig hats gedauert bis es mehr als ein Dutzend Titel dafür gab.
 
Zuletzt bearbeitet:
@Hooki
CB hat diesen Test schon wesentlich neutraler bewertet als manch einen zuvor.

@CB
Auch das ihr den BD übertaktet und das auf 4,5GHz nicht wie sonstige werte von 3,8 oder max 4GHz finde ich toll.

Glasklar bleibt dennoch, dass der BD jetzt schwach ist und die Kern-Leistung Pro Takt schwächer ausfällt als beim 1100t.

Das ist schade, denn ich hätte dem BD gerne eine Chance gegeben.

Was dennoch zu berücksichtigen ist, wäre das auch der Mainboard Preis für eine AMD CPU wesentlich günstiger ist, als der eines Vergleichbaren i7 Boards.

Abgesehen vom hohen OC Potenzial des BD ein wichtiger Aspekt für mich!
 
Ameisenmann schrieb:
das hättet ihr nicht unbedingt testen brauchen aber vielleicht hilft es dem einen oder anderen Fanboy wenn er es schriftlich hat. BD=>Fail

Pardon, eigentlich möchte ich mich nicht im Ton vergreifen, aber was soll dieser grundsätzlich dämliche Kommentar bezwecken?

Man benötigt einen Compiler der die neuen Befehlssätze des BD - AVX, XOP, FMA4 (alias SSE5) - unterstützt. Mit Stand vom 17.10.11 wären das die aktuellsten Versionen der GCC und des Open64. Dann sollte auch auf die Nutzung geeigneter Compileroptionen sowie die auf die Verwendung der optimierten ACML geachtet werden. Andernfalls bricht die Leistung der BD-Mikroarchitektur um bis zu 50% ein.

http://user.cscs.ch/news/2011/10/17...w-interlagos-compiler-flags-for-xop-and-fma4/

Wieviel der aktuell verfügbaren Software für Desktops wurde für BD optimiert?

Nachtrag:
Dazu summieren sich noch weitere Kleinigkeiten, wie z.B. das Scheduling auf Betriebssystemebene. Funktioniert der Spaß korrekt erzielt man mit BD einen Leistungszuwachs von 10 bis 20%.

http://techreport.com/articles.x/21865/2

Auch wenn BD noch gehörig der Feinschliff fehlt, macht es unter Verwendung aktueller Software keinen Sinn ein endgültiges Fazit über das Leistungspotential von AMDs neuer Architektur zu ziehen.
 
Zuletzt bearbeitet:
Bulldozer -> Langsam & hoher Verbrauch

Wie die Dinger auf der Baustelle...
 
Aquila83 schrieb:
Wieviel der aktuell verfügbaren Software für Desktops wurde für BD optimiert?

Wie viel der aktuell verfügbaren Software wird für den BD optimiert sein, bevor Intel IvyBridge (oder gar dessen Nachfolger) auf den Markt bringt oder der Bulldozer einen Nachfolger bekommt?

Ein Bulldozer kostet 50€ mehr als ein Core i5 1320/2400 und 110€ mehr als ein Core i3 2120 und wird gerade in Spielen von beiden deklassiert, einzig bei Dual-GPU-Karten reicht der SandyBridge Dualcore nicht mehr so ganz aus.

JETZT 50+ Euro mehr ausgeben in der Hoffnung auf Optimierung in ferner Zukunft ist lächerlich und vergleichbar mit dem Kauf einer GTX 590 für einen 1280x1024 19" Monitor, bei dem sich die Karte zwar jetzt total langweilt und sinnlos 200 Watt zusätzlich gegenüber angemessenen Karten verbrät, aber 2013 wird die Karte dann sicher so langsam besser sein als eine GTX 560 Ti die man sich ansonsten jetzt holen könnte.
 
Was soll der Test nun aussagen ?

Alle CPU bis auf AMD 2 Kerner sind für die Grafikkarten schnell genug und unterscheiden sich nur in der Messgenauigkeit ?

Dann kann man ja wohl klar nach CPU- Preis kaufen.

Wieso fehlten eigentlich bei einem Bulldozer-Grafikkartentest der FX 4100 und der FX 6100 ?
 
Zuletzt bearbeitet:
@ Silence

Habe ich eine Kaufempfehlung abgegeben oder BD in den Himmel gelobt? Definitiv nicht. Es interessieren mich auch keine Preise oder andere Prozessoren, geschweige denn Grafikkarten, sondern ich bezog mich nur auf die Aussage BD sei ein "Fail" - was bei näherer Betrachtung nicht stimmt.
 
Zuletzt bearbeitet:
Ameisenmann schrieb:
das hättet ihr nicht unbedingt testen brauchen aber vielleicht hilft es dem einen oder anderen Fanboy wenn er es schriftlich hat. BD=>Fail

Sehe ich eben so. Ich war immer aus Gründen wie "Made in Germany" (zumindest die Chipherstellung) sowie dem guten Preis-Leistungs-Verhältnis AMD-Sympathisant. Aber der Bulldozer ist echt ein Witz. Wenn meinen Phenom nicht mit Standardtakt sich auf 1,2 Volt undervolten ließe, hätte ich vermutlich den Takt weiter runtergeschraubt. Der Stromverbrauch ist garnichtmal das, was mich so sehr stört. Viel Schlimmer ist die damit verbundene Wärmeabgabe, die im Sommer echt einige Nerven kosten kann, wenn einem die Hitze zu Kopf steigt. Bulldozer hat hier nichts weiter geschafft, als einen neuen Negativrekord auzustellen...
Aber mal sehen was die Zukunft bringt. Der Phenom II 955 hält sicher noch einige Jahre.
 
Nun ist die Sache mit dem Bulldozer auch geklärt, nach dem in dem Originaltest sich viele beschwert haben , dass der Test vor dem Bulldozer Release veröffentlicht wurde. Wie sich das neue Flagschiff von Amd im Vergleich zu SB verhält, konnte man eigentlich schon erahnen.

Da bedanke ich mich bei ComputerBase, nun kann euch nichts mehr unterschlagen werden.

MfG

Maksym
 
Zuletzt bearbeitet:
@Marius

Der ist schon nächstes Jahr altmetall, wurde ja schon bei der Veröffentlichung angekündigt ;)
Und wie war es zu anfang mit MMX, SSE und 3dNow? Die ersten damit sind immer die gears**ten, aber ohne gibt es auch keinen Fortschritt. Muss sein, sollen sie alle meckern - Einfluß haben sie Gott sei Dank eh keinen, sonst wüssten wir heut noch nicht was Metall ist. :evillol:
 
hm

warum ist es hier immer wider das selbe?

Die 3 jährigen gehen mit blauen und grünen
förmchen aufeinander los.....

Hier gehts nicht um die Frage AMD oder Intel,
sondern darum welche (Preis)klasse brauch ich
für welche Graka in Games.

x4/i3= singlegpu
i5 = dualgpu

alle anderen x6/bulli/i7 fallen durchs Raster,
da sie kaum bis keine (-5 - 3%) Mehrleistung
bieten im vergleich zu den kleineren Klassen

sogesehen muss man klar sagen, dass
von ganz wenigen Ausnahmen abgesehen,
der x6, der Bulli und der core i7 für spiele unnötig sind


gruss digger
 
freut mich zu hören das mein 2500k besser abschneidet als die bulldozer :-).
ich hätte gern eine battlefield 3 benchmark und würde mich darüber freuen wenn ihr doe gtx580 aufnehmt.
ist natürlich bitter für alle amd fans aber sich so emotional hinzugeben ist einfach nur kindisch ^^.
 
Ich bin nach wie vor gegen den Gedankengang, der in diesem Artikel verfolgt wird, weil er die Praxis nicht wiederspiegelt.

Es muss keine Beziehung zwischen Leistung CPU und GPU hergestellt werden, an beide gibt es spezielle Ansprüche, die von den Anwendungen bestimmt werden, nicht von dem jeweils anderen. Man kauft eine CPU nicht dafür, dass sie die Leistungsentfaltung einer GPU ermöglicht, was brächte es einem auch. Man kauft eine GPU und eine CPU zum Zocken (und mehr), dabei muss die CPU den Ansprüchen des Spiels und der Einstellung genügen und die GPU muss es ebenfalls. Es nützt natürlich nichts eine GPU zu kaufen, für eine Leistung, die man aufgrund anderer Flaschenhälse nicht abgreifen kann. Ob das passiert ist aber nicht rein von der CPU abhängig, sondern von allen Bauteilen und der betrachteten Anwendung. Bei GTA IV ist das eine ganz andere Frage als zum Beispiel bei Crysis.

Die sinnvolleren Fragen wären also: CPU - was brauchen moderne Spiele? und GPU - was brauchen moderne Spiele?
Die Frage die sich einem User stellt ist doch, ob er ein Spiel in den gewünschten Einstellungen ausführen kann. Falls ja, spielt es dabei keine Rolle, ob ein Gerät nur zum Teil ausgelastet ist. Dessen Leistung könnte zum Beispiel bei einer anderen Anwendung gebraucht werden, die dieser Test garnicht erfassen kann. Zum Beispiel gibt es für die CPU noch andere Belastungsszenarien. Auch gibt es exotische Auflösungen, andere Einstellungen oder Spiel, die dieser Benchmark nicht erfassen kann. Belastungsprofile für einzelne Bauteile sind zu persönlich, als dass man sie so allgemein hier festmachen könnte mit der Frage "GPU braucht CPU". Wertvoller für das Verständnis des Lesers wäre es an dieser Stelle denke ich, die Mindestanforderungen für die betrachteten Anforderungen (Spiel und Einstellung) auszuloten und festzuschreiben (an 24 Min-FPS zum Beispiel), dann kann jeder gucken, was er dabei braucht und immer noch ein Gefühl dafür kriegen, was aktuelle CPU- und GPU-Anforderungen sind.
 
@Whoozy

Schmier dem Kind nicht Honig ums Maul.

Schau dich mal in anderen Foren um.
 
Zurück
Oben