Bericht Bericht: GPU braucht CPU – Zweiter Teil

bergboss schrieb:
Ich halte es für Quatsch, bei aktuellen Spielen Prozessoren mit mehr als 4 Kernen zu testen. Meist werden maximal 2 Kerne genutzt ... und selbst "genutzt" heisst nicht automatisch AUSgenutzt. Auch an den Ergebnissen sieht man ja schon, dass die Auswahl der Kandidaten und des Settings schlecht ist, weil man sich offensichtlich schon in dem Bereich befindet, in dem es keinen wirklichen Unterscheid mehr macht. Und dann noch den Bulldozer, der ja absichtlich eine langsamere architektur hat, damit man mehr Kerne draufpacken kann?!

Nette Idee, aber leider absolut nicht hilfreich. Danke für die ganze Mühe, aber es ist Schade drum.

Wenn ihr gerne etwas mit dicken Multi-Core Prozessoren testen wollt, dann testet doch mal mit der passenden Software ... am liebsten Blender (mit fluid simulator, wenn es noch nicht reicht). Dafür muss ich nähmlich demnächst einen Rechner zusammenstellen ;)

Dies hier ist aber kein grossangelegter CPU Test 2011, sondern GPU braucht CPU - Zweiter Teil:rolleyes:

Wie im Test gesehen, langt momentan fast jeder 4 Kerner zum 1A zocken, nur die Dualcore's sterben (ENDLICH!!!) langsam aus! Ich hoffe das die Spiele welche gegen Ende 2012 erscheinen werden, alle User mit weniger als 4 Kernen mit schlechten FPS Werten bestrafen werden. So langsam sollten 6 Kerne als Minimum angesehen werden! Die Entwickler blieben auch viel zu lange bei dem Dualcoresupport! *gähn*
 
Öhm, 6 Kerne als Minimum, nur damit du deinen Hexacore rechtfertigen kannst?

Für was 6 Kerne?

Der PC ist auf dem Spielemarkt eh schon ziemlich zu vernachlässigen und mehr als 70% aller PCs sind Notebooks, wie hoch schätzt du da die Wahrscheinlichkeit, dass Hexacores aktuell oder auch im nächsten Jahr auch nur irgend eine Rolle spielen?
 
Warum kein BF3 Benchmark, wenn es doch damit besser funktionieren soll...
Da die Battlefield-3-Frage öfters gekommen ist:
Wir haben den Artikel absichtlich so gehalten, dass dieser identisch mit dem "ersten Teil" ist und damals gab es eben noch kein BF3 - und nun auch nicht. In Zukunft werden wir sicherlich generell viel auf BF3 setzen. Ich kann nur für mich, also das Grafikkartentestsystem, sprechen. Dort wird BF3 im nächsten Testparcours mit drin sein, der sicherlich noch dieses Jahr erscheinen wird.

Einen kleinen Teaser gebe ich (gemeinerweise) jetzt mal bezüglich FX-8150 und BF3. Ja, der FX-8150 rückt näher an Sandy-Bridge heran. An welchen verrate ich jetzt aber nicht. Und überholen tut er ihn auch nicht.

F: Warum wird kein BF3 gebencht?

A: Dort sind für viele hauptsächlich die Leistungswerte im MP von Interesse, aber gerade den kann man nicht benchen.
Dort muss ich meinem Kollegen jetzt mal wiedersprechen. Wir werden BF3 in Zukunft eifrig mittesten, aber eben nur den Singleplayer-Modus. Der Multiplayer lässt sich nicht wirklich repdouzieren.

Ich weiss jetzt nicht, was der Test jetzt eigentlich bedeuten sollte? Will jetzt CB nochmal aufmerksam machen, wie gut Intel immer noch da steht?
Wie ich das Fazit las mußte ich mal laut lachen:

Laut AMD soll sich die „Bulldozer“-Architektur in zukünftigen Spielen besser schlagen als mit der heutigen Software. Unter anderem soll „Battlefield 3“ solch' ein Kandidat sein. Jedoch gibt es selbst dann das Problem, dass die Leistung eben längst nicht in allen Spielen vorhanden ist.

Aha.... CB erwähnt wohl das AMD bei BF3 wesentlich effektiver arbeitet, aber das war es auch schon. Test? Warum auch, könnte ja kritisch für Intel werden. Ich hoffe CB reicht den Test nach oder?
Ja und nach dem BF3 Hinweis aber gleich die Ansage von CB:
....dann das Problem, dass die Leistung eben längst nicht in allen Spielen vorhanden ist
in jetzigen Spielen vermutlich nicht CB, aber AMD sagt klar: in zukünftigen Spielen!

CB und ihr wollt neutral sein? Nie und nimmer.
Manche Leute verstehe ich nicht. Als wir den urpsünglichen Artikel rausgebracht hatten (vor dem Bulldozer-Launch) wurde uns unterstellt, Pro Intel zu sein, da wir nicht auf BD gewartet haben. Jetzt machen wir den geforderten Nachtest mit BD und uns wird unterstellt, Pro Intel zu sein, weil jeder schon weiß, dass BD langsamer ist. Verstehe ich nicht...

Erneut zur BF3-Frage: Ein Test wird für diesen Artikel nicht nachgereicht. Und es wird nicht kritisch für Intel. Nur um manchen Spekulationen direkt mal Einhalt zu gebieten. Und bei Herstelleraussagen ala "mit zukünftiger Software wirds besser" sind wir sehr vorsichtig. Um bei AMD zu bleiben, das haben sie auch für R600 und DX10 behauptet. und alle wissen was draus geworden ist :)
 
Zuletzt bearbeitet:
Ich habe mir zwar auch einen Test zu den damals aktuellen AMD CPUs gewünscht...aber das ist für mich kein Grund, CB "pro Intel" zu nennen. CB kann nichts dafür wenn die Dinger noch immer schneller sind.

Ich habe erst vor knapp einem Monat von einem AMD Phenom II X4 965 gewechselt auf einen i5-2500K...und ich bereue den Kauf absolut nicht. Falls AMD jemals wieder Intel überholen sollte, werde ich auch wieder wechseln. Für mich ist das keine Glaubensfrage sondern eine reine Frage der Performance.
 
"GOTT LOB" ich bleibe bei meinem Phenom II 1090T BE.Habe zwar 2x HD5870 GPU`s dran hängen und weis nun das die CPU bissel ausbremst, aber es ist nur ein bischen....FREU

und wenn AMD demnächst nix besseres zu bieten hat, dann wird der nächste Proz wohl nen Intel.
 
nebulein schrieb:
In der Praxis hat die CPU dann alles weg gebasht, was in meinem Clan war. Selbst die Quad Cores und das bei Supreme Commander, was Multicoresupport hat. Man kann bei dem Game nen Graph einblenden der das Simulationsspeed zeigt, ich verstehe bis heute nicht wieso dieses Game nicht mehr für CPU Benchmarks benutzt wird.
SupCom nutzt maximal zwei Kerne und freut sich über Leistung pro Takt und MHz - so wie zB auch Starcraft 2. Daher sind hier Wolfdales auf dem Level oder vor den Phenom II und die Sandy Bridges drehen Kreise.
 
der Bulldozer kackt momentan in mindestens 80% der Fälle gegen eine gleichteure/billigere Intel CPU ab.

das ist einfach mist was du da verzählst..

bei auflösungen von 1680x 1050 kann das zwar gelten lassen,
aber jeder der eine cpu und graka über 200€ kauft und dabei "nur" niedrige auflösung hat,
der investiert zu wenig, also neues monitor muss her, oder sollte weniger für cpu + graka zahlen.

viele die hier amd schlecht machen haben selber höhere auflösungen und da ist der unterschied um die 5% zwischen dem 8150 BD und dem i7-2600k..

wieso CB immernoch auf 1680x 1050 festhällt, kann ich nicht nachvollziehen,
auch wenn sie behaupten dass die meisten "noch" diese auflösung hätten aber mit tendenz zu größeren auflösungen..
dann stellt sich die frage, warum die vergangenheit messen
und nicht die zukunft ?
gegenwart? nein, weil das eine fehlinvestition wäre, teure graka bei niedriger auflösung.

fakt: der unterschied zwischen dem BD und SB ist bei höheren Auflösungen viel geringer als hier oft dargestellt wird.
 
Zuletzt bearbeitet:
y33H@ schrieb:
SupCom nutzt maximal zwei Kerne und freut sich über Leistung pro Takt und MHz - so wie zB auch Starcraft 2. Daher sind hier Wolfdales auf dem Level oder vor den Phenom II und die Sandy Bridges drehen Kreise.

Supcom nutzt definitiv mehr als 2 Kerne. Es kann sein das es den 4. Kern nicht voll ausnutzt aber das Game nutzt definitiv mehr als 2 Kerne. Denn der Phenom 1 eines Kollegen leistet dort immernoch sehr gute Dienste und ist im Simulationsvergleich nicht weit hinter meinem Wolfdale gewesen.

@DerGraf1

Es ist aber definitiv so das diese Auflösung die mit Abstand noch meist genutzte ist. Das liegt daran, dass viele LCD das lange Zeit als native Auflösung hatten.
 
@Computerbase
Wie immer gute Ananlyse, aber es wäre für mich als Technik interessierter Leser auch sehr wichtig zu wissen wie es denn mit der Auslastungen von GPU und CPU aussieht und diese wiederum in Relation setzt.
Es würde mich freuen wenn man diesen Ansatz aufnehmen würde :)


Zum Thema BF3. Da teile ich die Meinung dass nur der Multiplayer von Relevanz ist. Und ich war ja einer der ersten der bereits die BETA Benchmarks mit Argusaugen betrachtete, da diese mitnichten reproduzierbar sind und daher nicht mehr als ein "Indiz" von mir wargenommen wurden. Ich hoffe dies wird durch ein Patch seitens DICE mittels Savegame oder dergleichen ermöglicht. Denn wie wir allle (hoffentlich) wissen, schlägt sich Havok auf die CPU durch....

Evtl. auch ein Grund warum die Destruction noch nicht in dem Ausmass zu geniessen ist wie man sie erwartet hat ;) Nehmen wir noch die neuerliche Erkenntnis dazu, dass man mitten in der Produktion von Lead PC auf Console schwenkte, wäre man wieder bei der üblichen 3 Kernen unterstützung. Was wiederum durch den BF3 SP ComputerBase Test "belegt" wurde.
 
Zuletzt bearbeitet:
der test schließt sich nahtlos an die schlechte bewertung der fx-prozessoren des ersten tests an. es scheint mir, ihr seid hier mit dem potential der fx-cpus überfordert... zum glück machen es andere seiten teilweise deutlich besser! manchmal ist halt mehr gefordert als bissl hardware-bastelei, standard-software-schleifen drehen und zahlen zusammenziehen...
instessant wirds mit win8. mit kern-pingpong braucht man nicht wirkich messen..
 
Zuletzt bearbeitet:
Ameisenmann schrieb:
das hättet ihr nicht unbedingt testen brauchen aber vielleicht hilft es dem einen oder anderen Fanboy wenn er es schriftlich hat. BD=>Fail

Du generalisierst. Bulldozer konnte in wissenschaftlich angehauchten Anwendungen mit dem richtigen Compiler zeigen, daß er es sehr wohl mit einem Intel i7-990X aufzunehmen vermag - A. Stillers c't-Artikel in der letzten Ausgabe ist aufschlußreich.

Allerdings zeigt sich, daß, sofern die Novitäten XOP (aus AES2 vorgegriffen) und FMA4 zur Anwendung kommen, Bulldozer in Sachen Leistung deutlich vor allen Intels pro Kern liegt. In puncto Division hat AMD wieder einmal traditionell so viel Optimierungsarbeit geleistet, daß man Sandy-Bridge um den Faktor zwei(!) schlägt. Solche "Kleinigkeiten" sind in einigen sehr wichtigen und ernsten Anwendungsgebieten der Forschung und Medizin tragende Elemente.

Die Frage ist am Ende nur: Welcher Hersteller wird sich die Kosten und Mühen machen, Laufzeibibliotheken einmal für AMD Bulldozer mit den AES2-Erweiterungen, die AMD-spezifisch sind und zusätzlich geiemsam nutzbare Intel-AMD-Bibliotheken anbieten? Entwicklung, Optimierung und Evaluierung kosten Zeit und spielen in der Bilanz letztlich eine tragende Rolle - denn vor Qualität kommt noch immer der Profit!

Und Spiele ... das erinnert mich so an "Western von gestern". Auf einem modernen Farbfernsehgerät werden Schwarz-Weißfilme gezeigt. oder: auf einem herkömmlichen 2D-Fernseher schaut man sich 3D-Filme an. Bulldozer legt ein Desgin an den Tag, das sicherlich für aktuelle Software gar nicht geeignet ist. Aber ohne einen Schritt nach vorne gibt es keinen Progress. Und solange diese starre "Kompatibilität" der x86-Archaika dominiert, wird es auch keine Entwicklungsschübe geben, wie man sie noch zwischen 1990 und 2000 erleben konnte. Die Monokultur killt sich langsam selber. Innovationen können ihr Potential gar nicht zeigen, weil sie mit rückwärtig orientierter Software getestet und bewertet werden. Und Taktgeber ist ein Monopolist, dem es ferne liegt, innovative Hochleistung oberhalb des absolut Notwendigen anzubieten.

Noch schlimmer ist die Windoof-Chipzilla Allianz: Ein vergattertes Betriebssystem, dessen innovativen Aspekte allenthalben Hobby-Informatiker aus dem BILD-Zeitungsklientel entzücken lassen und dessen Vorzüge ausschließlich in bunten Werbeanzeigen existieren läßt einfach keine Innovation zu, die einen BD erblühen ließen.

AMD hat einen Spagat versucht und sich dabei die Eier geprellt - so sieht es für mich aus. Aber dieses Problem hätte wohl auch jedes andere Unternehmen, das sich in dieses Fahrwasser begäbe.

Compute schrieb:
Ich find's viel unglaublicher, dass ein FX 8150 selbst bei 4,5 GHz kaum Performancevorteile gegenüber einem i3 2130 hat. Eigentlich ist das schon sehr bitter für AMD. Das ist ne richtig herbe Enttäuschung.

Das zeigt wiederum, daß Intel mit der Sandy-Bridge Architektur einen Schritt nach vorne gemacht hat. Allerdings nicht weit genug, denn für wirklich 64Bit lastige Anwendungen sind die Caches und Puffer des SB zu klein. Hier könnte der BD Vorteile schöpfen - wenn man sowas testen täte.
Aber die meiste "Anwendersoftware" bewegt sich ja noch im Zeitalter 32Bit. Da hätten selbst 64Bit RISC Boliden ihre Probleme, da die Architektur viel Rechenkraft durch Halbierungen verpulvern würde.
 
fakt: der unterschied zwischen dem BD und SB ist bei höheren Auflösungen viel geringer als hier oft dargestellt wird.

Weil sich die CPUs dort in einem GPU-Limit befinden. Das ist so und bleibt auch so, ganz gleich, wie lange du gegenteiliges behauptest.
 
der test schließt sich nahtlos an die schlechte bewertung der fx-prozessoren des ersten tests an. es scheint mir, ihr seid hier mit dem potential der fx-cpus überfordert... zum glück machen es andere seiten teilweise deutlich besser! manchmal ist halt mehr gefordert als bissl hardware-bastelei, standard-software-schleifen drehen und zahlen zusammenziehen...
instessant wirds mit win8. mit kern-pingpong braucht man nicht wirkich messen..
Dann viel Spaß bei unserem nächsten Artikel über BD, ich kenne das Ergebnis.
Und nenne mir bitte ein paar Spiele, wo Bulldozer so viel besser als Sandy-Bridge ist, ich finde keins - bin aber vielleicht nur überfordert zu suchen.
Warum sollen wir unbedingt Software testen, mit der Bulldozer gut abschneidet? Dürfen wir das dann auch für SB machen, die Software gibts nämlich auch ;)
 
SILen(e schrieb:
Für was 6 Kerne?

ähm ... ein Spiel und paar Programme parallel auf einem PC laufen zu lassen! Das Spiel nützt 2.Kerne aus und die restliche Kerne nützen die Programme. SSD + Hexacore sag ich nur :p ;)
 
mambokurt schrieb:
Fakt ist einfach, dass der 2120 bis zum Erscheinen der nächsten Konsolengeneration und dem darauffolgenden Sprung in der Spielegrafik wohl noch locker reichen wird. Ob dann Spiele eher multicoretauglich sind muß man sehen, im Moment sehe ich persönlich jedenfalls nicht ein über einem 2120 zu kaufen. Klar hat der 2500k die besseren Leistungswerte, aber 80€ mehr für die eine Minute im Monat wo die bei mir zum Tragen kommen wäre es mir nicht wert....

Kann ich nur zustimmen. Ich bin froh, dass ich mir meinen Rechner mit einem i3 2100 gebaut habe und (falls tatsächlich nicht mehr ausreichend nächstes Jahr) dann einfach auf Ivy Bridge satteln kann :)
 
Marius schrieb:
@Wolfsrabe
In Relation zu einem i3 schon.
[...] braucht auch um 150W mehr als dieser(OHNE OC!!!), bei ählicher Leistung für Spiele. [...]

Aha, ein i3 produziert unter Vollast also 25W an Strom.
Genial! Dann baue ich mir doch drei davon ein und
betreibe damit eine HD5770. Dann habe ich den 0W
Gamingrechner. ^.^

Hört doch auf, auf den Bulldozer herum zu trampeln!
Ja, in Spielen reißt er nichts. Scheinbar ist er dafür
auch nicht gedacht oder seiner Zeit voraus, obwohl er
viel zu spät kam. Es hilft leider nur, auf Win8, bessere
Software und die nächste Generation zu warten.
Der aktuelle Bulldozer taugt heute eigentlich nur
für extremes Multitasking. Deswegen sollte man
die Architektur nicht jedes mal als Fail abstempeln.
Denn das ist sie nicht, da steckt noch einiges Potential
drin. Nur leider nicht mehr dieses Jahr.
 
Der Test ist nett, aber auch nur ein grober Anhaltspunkt.

Es gibt so viele Spiele, und in den Jahren, die nach dem CPU-Kauf folgen, noch unzählige weitere. Getestet wurden nur 7. Man deckt damit nicht unbedingt einen großen Bereich ab. Das ist natürlich nur verständlich wegen dem Aufwand, aber man sollte keine voreiligen allgemeinen Schlussfolgerungen ziehen. Vielleicht spielt man gerne RTS oder Simulationen, die hier kaum bis gar nicht vertreten sind. Einfluss auf Lade- und Rundenzeiten, die je nach Spiel sehr nervig sein können - Fehlanzeige. Oder man kauft sich spontan eben doch eine neue Grafikkarte und will gerne möglichst durchgehend 60fps haben.

Deshalb finde ich Tests im GPU-Limit eigentlich total bescheuert. Weiß echt jeder Leser, was er mit dieser CPU vorhat? Klar, es gibt Leute, die spielen fast ausschließlich gpu-limitierte Shooter. Ob das die Minderheit oder die Mehrheit ist - keine Ahnung. Aber mein Standpunkt ist: Ich habe ein gewisses Budget für CPU+Board und das reize ich auch aus. Ist doch blöd, jetzt aufgrund so eines Tests zu geizen und am Limit zu fahren, nur um sich nachher evtl. zu ärgern, weil ein Szenario von dem naturgemäß beschränkten Test nicht abgedeckt wurde. Ein bisschen Reserve ist nie verkehrt, solange man sein Budget nicht sprengt. Man darf halt der Versuchung nicht erliegen und dann gleich übertreiben. Aber jetzt einen i3 oder einen X3 aufgrund des Ratings zu kaufen, halte ich für definitiv keine gute Idee.
 
Zitat von Weltenspinner
Deswegen sollte man
die Architektur nicht jedes mal als Fail abstempeln.
Denn das ist sie nicht, da steckt noch einiges Potential
drin. Nur leider nicht mehr dieses Jahr.

schön gesagt!:daumen: Sehe ich genauso. Hardware ist immer nur so gut wie die Software
die sie nutzt der Bulldozer bzw. die grundlegende Architektur wird sich schon früher oder
später als sehr leistungsfähig beweisen.
 
„Bulldozer“ als Architektur und der FX-8150 als ihr derzeitiges Manifest mag in Zukunft möglicherweise zwar dieselbe Leistung abrufen können
Diese Aussage ist meines Erachtens schlichtweg falsch, da man an Software, die Bulldozer optimiert ist, wie WinRAR oder Kryptologie Software sieht, dass Bulldozer mit Sandy den Boden wischt. Also wird es, falls Spiele sauch zukünftig so programmiert werden sollte, das gleiche Bild ergeben, also wird Bulli dann nicht gleich schnell sein, sondern sogar viel schneller. Wer jetzt viel mit Verschlüssekungen zu tun hat, sollte bereits auf jeden Fall zu Bulli greifen, sonst ist Bulldozer halt ein Risiko: Sollte Software demnächst auf Bulldozer angepasst werden, erhälst du mit Bulldozer deutlich mehr Leistung zum geringeren Preis (heute reicht Bulli so wie so für alle Spiele aus). Sollte es allerdings nicht dazu kommen, fährst du mit Sandy (Ivy) in Zukunft besser.
 
Zurück
Oben