Test Test: AMD FX-8350 „Vishera“

Da brauche ich also keine Angst zu bekommen und kann mit meinem I5 2500 noch zufrieden sein.
 
Julz2k schrieb:
Der AMD ist mindestens 20% langsamer in Spielen wo die Grafikkarte nicht limitiert als der 2500k.

AMD ist nicht einmal auf dem Leistungsstand in Spielen von einem Gulftown vom Stromverbrauch brauchen wir garnicht reden.
AMD sollte für Deutschland Verträge mit Stromanbietern abschließen, immerhin müssen wir 10% mehr bezahlen.

Außerdem ist der Preis totaler Wucher! 140 Euro wären Realistisch.

mimimi, was vollast bedeutet ist dir wohl kein begriff?

dein rechner dümpelt etwa 80% seiner betriebszeit im idel herum. zu einem intel der gleichen leistungsklasse rechnet sich der höhere anschaffungspreis eines intels dabei nach ~2-4 jahren. den es kommt nicht nur der preisunterschied der cpu zum tragen, sondern auch ebenso der des gleichwertig ausgestatteten mainboards ;)

und zweitens, dann nenne mir doch mal ein spiel bei dem die grafikkarte nicht limitiert? mal abgesehen von tetris und solitär, die du ja offenbar favorisierst.
 
Zuletzt bearbeitet:
Ich will niemandem zu nahe treten, aber ich finde es ehrlich gesagt einen schlechten witz, dass AMD mit seinem "Flaggschiff" in etwa in der Liga eines i5 ivy bridge spielt. Da ist ja noch sehr viel Luft nach oben, wie wärs denn mal mit Konkurrenz für die i7 oder gar die Sockel 2011 Monster von Intel? Dann könnten die mal nicht mehr monopol-preise verlangen wie sie es jetzt tun ;-)
 
Zuletzt bearbeitet:
Krautmaster schrieb:
wow, das schon übel. So derb hätte ich die CPU Limitierung bei Multi GPU gar nicht eingeschätzt.

Interessant, gibt es eigentlich ne Erklärung warum man bei fast jeden Spiel gnadenlos hinterherhinkt, bei Batman Arkham City aber plötzlich auf einem Niveau mit dem Intelsystem ist?
 
Das Fazit dieses Artikels für mich -

Dies ist der Prozessor, der Bulldozer hätte sein sollen. Piledriver vs. Sandy Bridge, das wäre für den Kunden interessant und für den Markt gesund gewesen. Schade, das es erst in zweiten Versuch geklappt hat, denn den Patzer hat Intel gnadenlos ausschlachten können.

Nebenbei: Ich freue mich über die Rückkehr des klassischen Preis/Leistungs-Ratings in Prozent. Zusammen mit dem verbesserten, interaktiven Streudiagramm hat man nun das beste beider Welten!
 
Link_Iceblader schrieb:
Ich will niemandem zu nahe treten, aber ich finde es ehrlich gesagt einen schlechten witz, dass AMD mit seinem "Flaggschiff" in etwa in der Liga eines i5 ivy bridge spielt. Da ist ja noch sehr viel Luft nach oben, wie wärs denn mal mit Konkurrenz für die i7 oder gar die Sockel 2011 Monster von Intel?

Dank schau bitte auch auf den Preis eines i7 und des FX8350 ;)
 
Arkham City ist die CPU ziemlich egal, mit DX11 lastet das die GPU bzw. GPUs ziemlich gut aus. Ich hätte das bei Alien vs Predator auch erwartet.
 
die CPU ist tatsächlich vergleichsweise ein großer Stromfresser,
weil Intel mit 22nm Fertigung ein nur ca. halb so großes DIE hat,
beim IvyBridge i7-3750. Ich würde die CPU gerne in Intels 22nm Fertigung sehen,
aber das läuft so leider nicht. Hoffenltich kann Globalfoundries in Zukunft
noch ein paar Tricks aus dem Ärmel schütteln und damit einen sparsameren Vishera aus dem Hut zaubern.

Selbst für HighEnd-Spieleanwendung müsste eigentlich ein ähnlich hoch getakteter Vierkerner (also 2-Modul Vishera) als Grundausstattung auch ausreichen, und dabei etwas sparsamer im Verbrauch sein.
Vom Bulldozer-Vorgänger gab es ja schon ein besonders hoch getaktetes Vierkern-Modell FX-4170,
das wäre vom Vishera IMHO. der Sweet-Spot für preisbewusste Spieler die AMD CPU verwenden wollen.
 
Zuletzt bearbeitet:
CB hat ja Windows 7 als Test-OS verwendet. Weiß jemand, ob vielleicht auf einer anderen Seite bereits Win8 benutzt wurde?
 
Vielen Dank an die Redaktion für den wie üblich ausfühlichen Test :).

Im großen und ganzen hat AMD meiner Meinung nach alles richtig gemacht. Insbesondere die Spielebenchmarks liegen weit über meinen Erwartungen. Mal ehrlich, mehr konnte man bei den doch relativ bescheidenen Mittels seitens AMD nicht erwarten. Und in Anwendungbenchmarks, welche massiv auf MT setzen ist der 3770k gar nicht mal so weit vorne. Für einen Preis von 195$, mal schauen wie sich das in ein paar Wochen einpendelt, wäre der Prozi IMHO eine gute Wahl.

Wäre? Tja, wäre da nicht der wirklich zu hohe Verbrauch. Wobei ich hier noch differenzierte Vergleichtests abwarte. P3D und Heise schreiben von teilweise noch höheren Verbräuchen als ihr, während es bei THG mit knapp 50 Watt mehr als ein 3770k gar nicht mal so übel aussieht.

Da ich für einen Freund demnächst ein Komplettsystem zusammen stellen werde (möglichst preiswert) kommt ein FX-8320 definitiv in die engere Auswahl. 4GHz Dauertakt bei moderatem Undervolting wären ne feine Sache.

Merci nochmals für den Test,

Alex
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Kommt das nur mir komisch vor, oder wurde tatsächlich bei FX8150 und FX8350 die Variante mit und ohne Turbo vertauscht? Kann doch nicht sein, dass die mit Turbo langsamer sind?

Alles in allem liefert der 190€ Prozessor weniger Leistung als ein 150€ Prozessor von letzem Jahr... Klar haben siw aufgeholt, aber rein über den Takt. Taktbereinigt sind sie nur wenige % schneller.

und ich glaube, der Stromverbrauch braucht keine weiteren Erklärungen mehr. Das ist auf Northwood-Niveau, nur das heute die Kühlung besser ist als damals...

mfg
 
Der Ahnsinnigew schrieb:
die tests von tomshardware deuten nun darauf, dass cb falsche oder irreführende ergebnisse liefert.

Äh ne. Das ist ein Beispiel. Es gibt aber noch mehr, die unser Ergebnis untermauern:
1_8350-max44.png

power-load.png


Nimmt man dazu Anandtechs
51142.png

und vergleicht es mit unserem dbPoweramp Benchmark ( https://www.computerbase.de/2012-10/test-amd-fx-8350-vishera/9/ ), kommt man doch auf nahezu exakt das gleiche. Deren Test geht mit 4 Watt zugunsten des 8350 aus, bei uns sind es 2 Watt zu Ungunsten. Letztlich haben wir da 192 Watt mit dem 8350 im realen Einsatz bei einem Programm raus und Anandtech 195 Watt.

Am Fazit ändert sich nix: das Ding ist und bleibt ein Stromfresser. Natürlich ist es effizienter geworden, wenn der Verbrauch etwa gleich bleibt aber die Performance deutlich zulegt. Aber gewinnt man damit einen Blumentopf? Nein. Denn wenn man ganz weit im negativen Bereich startet ist es leicht besser zu werden.
 
Zuletzt bearbeitet:
Ich hatte nun jahrelang Intel Hardware, wollte kürzlich jedoch AMD mal wieder ausprobieren, (FX-8150, Sabertooth 990FX R2.0.)

Es ist richtig und unbestritten, dass Intel effizienter ist u. also weniger Energie verbraucht.

Für mich pers. ergibt sich jedoch folgende Beisp.rechnung. Mein FX-8150 läuft täglich durchschn. 4h (was zu hoch gegriffen ist) und verbraucht im Mittel ca. 60 W/h (bei mir läuft nicht ständig Prime im Hintergrund :) )mehr als eine Intel-CPU; das ergibt bei ca. 25c/kwh 22 EUR im Jahr.

Den FX-8150 habe ich gebraucht für 110 EUR erstanden, (CPU's neu zu kaufen ist im Hobbybereich doch Quatsch, MB dagegen kaufe ich nur neu) Intel's i5, i7 sind auch gebraucht ca. 80 EUR (i5) bzw. 100 EUR (i7) teurer. Auch ein vergleichbares, aktuelles Intel-Mainboard kostet ca. 50 EUR mehr (hier: Sabertooth).

Man sollte also auch die Gebrauchtpreise im Hinterkopf behalten, die ja gerade hier in Forumskreisen eine nicht unbeachtliche Rolle beim Systembudget spielen.

Im übrigen muss an dieser Stelle sicher auch auf eines hingewiesen werden: Wer, wie ja wohl viele hier, eine Krachergrafikkarte installiert hat, deren Energiehunger jenseits von Gut und Böse liegt, muss sich um die Energiekosten der CPU die wenigsten Sorgen machen.
 
Zuletzt bearbeitet:
derChemnitzer schrieb:
wer will schon ein Heizkraftwerk wo der Strom immer teurer wird im PC???
Wem der Stromverbrauch zu teuer ist, der testet erstmals alle Hausgeräte mit einem Strommessgerät und hat schon längst begonnen seine meisten Glühbirnen auf LED und Worst-Case Energie-Sparlampen umgestellt. Selbst an diesem Wochenende habe ich mit 20 Euro zwei 25W-LED (330 lumen) sogar bei 0,17 Euro/kWh gekauft, und ersetzte damit die zwei 25W-Glühbirnen.
Diese beiden LED machen genauso fast 50W Unterschied aus, was fast der Unterschied zwischen 125W-TPD Vishera & 77W-TDP Ive-Bridge ist.

Klar, wer heute eine CPU (heute Programme & heutige Performance) braucht, wird wohl eher zu Intel greifen.

Aber wer die AMD oder CPU-Zukunft mit dieser Entwicklung betrachten will sollte sich die hohen Spannungen von 1,35 Volt in betracht ziehen, während Intel in diesem Bereich so 0,2 Volt weniger benötigt und es somit in Notebook & Server-Bereich wieder komplett anders aussieht.

AMD hat es immer noch nicht geschaft die TDP zu senken was sehr schade ist aber damit bleibt AMD im Gamereinsat uninteressant
Ehrlich gesagt sehe ich keinen Grund die 125W-TDP-CPUs aufzugeben, auch wenn ich mir sowas nie kaufen würde und eher 65W-TDP-CPUs/Versionen nehmen würde.
Wer eine Game-CPU benötigt und höchste Leistung will, wird sich eher 180 bis 240W-GPUs nehmen, welches erheblich mehr verbraucht als die CPU.

Wenn es um die Performnace-Krone geht, wird der TDP dann zweitrangig. Diese Aussage bestätigte sich dann auch bei den GPUs, wo man in der Pre-GF100-Zeit schon fast an einen Rückgang bzw. Steigerungs-Stopp der maximal TDP glaubte.

Schu3 schrieb:
Meinst du das jetzt wirklich so?
Ausm CB-Test - dbPoweramp (16Threads):
8350 - 185W * 308s = 56980Ws
8150 - 190W * 347s = 65930Ws

Sowohl die Leistungsaufnahme, als auch der Verbrauch sind beim 8350 geringer und das obwohl die Leistungsfähigkeit größer ist.
Versteh also nicht, wieso du das behauptest.
Diese Rechnung ist nicht ganz richtig, weil der Energie-Verbrauch des Gesamt-System den eigentlichen CPU-Verbrauchs-Abstand verkleinert, aber davor wurde er erhöhte Stromverbrauch primär durch die Spannungs-Erhöhung erreicht, sodass es sehrwohl Einsparungen gibt, wenn es um Performnace-pro-Watt bei gleichem Takt & Spannung geht.

Und das ist entscheidend, da diese CPU genauso in (Notebooks &) Servern eingebaut werden. Und in den Servern sollen ebenfalls solche Takt- und Performnace-Steigerungen bei gleichem Stromverbrauch bzw. ACP/TDP erreicht werden.

Wer die Viserha schlechtreden will, der wird immer was finden, weil Vishera natürlich nicht an Intels CPUs vorbeigezogen ist.
Zwar hatte man (letztes Jahr) mehr Verbesserungen erwartet, aber für diese "wenigen" Verbesserungen hat Bulldozer erstaunlich viel erreicht. Insgesamt wirkt Vishera viel besser als Bulldozer. Primär weil der Turbo-Modus viel besser funktioniert.

Insgesamt liegt das im Bereich den Erwartungen & meinen Erhoffnungen, obwohl die Verbessungern an anderen Stellen aufgetreten sind.
Da können die Leute Vishera noch so schlechtreden, wie sie wollen. Vishera machte einen gesunden Schritt nach vorne. Man muss einfach bedenken, dass keine Fertigungsverbesserungen wie ULK oder 22nm stattfand.

Wenn AMD in Zukunft weiter mit solchen Schriten geht und bei kleineren Nodes entsprechend Strom einsparen können, dann wird AMD in Zukunft immer weiter aufholen.

Dass bei Vishera nur Bulldozer-Optimierungen durchgeführt wurde, zeigt, dass AMD in diesem Breich (Big-CPUs) aufgrund des Hand-Desgins immer noch recht langsam entwickelt. Interessant wird es, wenn dieses CPU-Desgin irgendwann komplett auf automatische Entwicklung wie die GPUs umgestellt hat.

PS: Diese Vishera-Verbesserungen werden sicher nicht zu deutlich erhöhten Gewinn-Sprüngen verhelfen, sondern sie diehnen viel viel eher zur Finanz-Stabilisierung. Wobei man da nicht vergessen darf, dass sich die ersten Großen positiven Auswirkungen grundsätzlich ab dem übernächsten Quartal stattfinden, da die OEMs (Server & Game-PCs) üblich erst Monate nach dem Start ihre Produkte anbieten.
 
Zuletzt bearbeitet:
Matzegr schrieb:
Interessant, gibt es eigentlich ne Erklärung warum man bei fast jeden Spiel gnadenlos hinterherhinkt, bei Batman Arkham City aber plötzlich auf einem Niveau mit dem Intelsystem ist?

öhm die Erklärung ist recht simpel. Das eine Game ist CPU Lastiger als das andere. Batman scheint wohl ein Kandidat zu sein, bei dem wohl die GPU Limitiert, also die CPU nicht den Flaschenhals bildet.
 
~DeD~ schrieb:
mimimi, was vollast bedeutet ist dir wohl kein begriff?

dein rechner dümpelt etwa 80% seiner betriebszeit im idel herum. zu einem intel der gleichen leistungsklasse rechnet sich der höhere anschaffungspreis eines intels dabei nach ~2-4 jahren. den es kommt nicht nur der preisunterschied der cpu zum tragen, sondern auch ebenso der des gleichwertig ausgestatteten mainboards ;)

und zweitens, dann nenne mir doch mal ein spiel bei dem die grafikkarte nicht limitiert? mal abgesehen von tetris und solitär, die du ja offenbar favorisierst.

Oh ja, Vollast auf einem Kern :p
Außerdem hast du mein Beispiel nicht verstanden. Die CPU muss nicht auf allen Kernen voll ausgelastet sein.
Es reicht schon wenn ein Kern voll ausgelastet ist. Der Intel ist trotzdem sparsamer.

Jetzt schreibst du mir also vor wie ich meinen Rechner benutze?
80% IDLE? Dann brauche ich meinen Rechner garnicht anschalten.

Du bekommst hier schwarz auf weiß benches abgebliefert, ob CB oder von usern auf externe Seiten verlinkt.

Übertrage den VR Test doch einfach mal in die Realität, anstatt nur in Bench Szenen.
http://vr-zone.com/articles/amd-fx-...hz--multi-gpu-gaming-performance/17494-2.html

Da kommst du in BF3 selbst mit einem Intel auf 50fps ;) Egal ob SLI oder Crossfire.
 
@alyano

Zwar hatte man (letztes Jahr) mehr Verbesserungen erwartet, aber für diese "wenigen" Verbesserungen hat Bulldozer erstaunlich viel erreicht. Insgesamt wirkt Vishera viel besser als Bulldozer. Primär weil der Turbo-Modus viel besser funktioniert.

Da stimm ich dir zu, gerade der gute Zuwachs bei Spielen signalisiert, dass der Turbo weit besser greift als dies bei den vorherigen Steppings der Fall war / ist. Hier scheint der Mehrtakt und die etwas besser IPC perfekt zu greifen.
 
Zuletzt bearbeitet:
Zurück
Oben