Test Test: AMD FX-8350 „Vishera“

Bis zum Test des Verbrauchs sah alles wirklich ganz gut aus. :(

So bleibt unterm Strich nicht allzuviel über.
Ca. 11% mehr Rechenleistung bei ca. 8% mehr Lastverbrauch.

Klar ist der Verbrauch nicht für jeden wirklich relevant, aber irgendwie bleibt dadurch doch das Gefühl, dass Vishera in gewisser Weise nur sowas wie ein etwas übertakteter Zambezi ist. Zumindest schöpft er in manchen Situationen seine Mehrleistung wohl hauptsächlich aus den 10% mehr Basistakt und der macht sich auch direkt beim Verbrauch bemerkbar.

Wenn AMD es geschafft hätte, den Verbrauch bei 10-15% mehr Leistung zumindest etwas unter den des Vorgängers zu drücken, dann hätte ich gesagt: "Mission erfüllt." Dann wäre der Vorsprung von Intel wenigstens nicht weiter angewachsen.
Aber so sehe ich Intels Schritt von Sandy Bridge auf Ivy Bridge doch als den etwas größeren, denn auch wenn dort die Rechenleistung nicht so stark zugenommen hat wie von Zambezi auf Vishera, ist bei Intel doch der Verbrauch deutlich runter gegangen. (So dass es zumindest den Käufern der "K"-Varianten und auch der dank Turbo in Grenzen übertaktbaren i5 frei steht, die Sparsamkeit durch maßvolles Overclocking ganz- oder teilweise wieder in mehr Rechenleistung umzusetzen.)
 
Matzegr schrieb:
Komischerweise ist Intel auch um min. den Faktor 10 größer als AMD, kann sich nebenbei mehrere Entwicklungsteams leisten und hat eine eigene Fertigung, wohingegen AMD auf GF angewiesen ist.

haha DIE ausrede lass ich nicht gelten, schliesslich hats beim athlon64 damals auch ganz gut geklappt, die scheinbar übermächtige konkurrenz leistungs-/preis-/verbrauchstechnisch abzuhängen
 
Eigentlich wollte ich beim Prozessorkquf ja auf diesen Test warten, aber der Umstieg auf Intel war wohl doch nicht unnötig.
Freue mich für AMD. Seit dem Sockel A hatte ich in meinen Hauptrechnern nur AMD verbaut.
Hoffe sie schaffen es endlich wieder Prozessoren auf Augenhöhe, was Leistung und die Leistungsaufnahme angeht, zu produzieren.
Will ja nicht ewig bei Intel bleiben ;-)
Das bei Last fast das Doppelte aus der Steckdose gezogen wird, wie bei meinem 3770k ist schon heftig.
 
haha DIE ausrede lass ich nicht gelten, schliesslich hats beim athlon64 damals auch ganz gut geklappt, die scheinbar übermächtige konkurrenz leistungs-/preis-/verbrauchstechnisch abzuhängen

Ja es hat mal geklappt, aber tendenziel musst du bei der "kleinen" Firma davon ausgehen das es eher die Ausnahme als die Regel bleibt.
 
Perry S. Hilton schrieb:
haha DIE ausrede lass ich nicht gelten, schliesslich hats beim athlon64 damals auch ganz gut geklappt, die scheinbar übermächtige konkurrenz leistungs-/preis-/verbrauchstechnisch abzuhängen

Ja, da hatten sie vor 9 Jahren eine richtig gute CPU und weiter? Dank Intels Marktmacht und AMDs auch nicht gerade tollem Marketing war weiterhin fast überall Intel verbaut und die konnten halt irgendwann davon ziehen.

Man sollte sich evtl. von dem Gedanken verabschieden, dass die paar Enthusiasten hier im Forum eine spürbaren Einfluss auf die Marktsituation eines Herstellers haben.
Selbst wenn hier jeder CB-User einen A64 gekauft hätte, wären bei Mediamarkt und Co. fast überall Intel.CPUs verbaut gewesen...
 
Ich suche immer noch den eklatanten Rückstand der bisherigen Bulldozer in Spielen, den der Redakteur hier als gegeben fabuliert.
Aber die Mehrheit spielt sicher in 640x480 und hat keine limitierende Grafikkarte.

Tests sollten sich auf aktuelle Gegebenheiten beziehen und keine Kaffeesatzleserei sein.

Wäre dieser faux pâs nicht, man könnte den Test als das bezeichnen, was er sonst eigentlich ist, als gut.
 
Zuletzt bearbeitet:
Danke für den Test, sehr spannend.

AMD macht es richtig. Jetzt noch beim Leistungshunger schrauben und schon bekommt Intel wieder eine echte Konkurrenz bei Desktop CPUs.
 
Williams87 schrieb:

M.E. ist es nicht sehr glücklich, die Leistungsaufnahme nur bei Prime95 zu messen. Hier im CB-Test beträgt die Differenz zw. 3770K und 8350 100W und immerhin noch 39W mehr als der X6 1100T. Im TH-Test hingegen wurde bei einem Benchmark Durchlauf gemessen und man kommt im Schnitt auf eine Differenz von gerade mal 53W (3770K vs. 8350), zum X6 1100T sind es gerade mal noch 5W Unterschied.

Aber viel interessanter finde ich noch, dass über den gesamten Testlauf der 8350 sparsamer als der X6 1100T war! Hier zeigt sich also ein gegenteiliges Bild zum CB-Test.

energy%20used.png


Hier sollte CB neben Prime95 und dbPoweramp auch in anderen Szenarien messen. MMn verfälscht man so das Ergebnis, denn im Alltagsgebrauch ist es scheinbar nicht so wild. Je nach Einsatz ist der Energieverbrauch nämlich weitaus weniger schlimm als CB bzw. das Testverfahren es darstellt.

Und das man ohne große Änderungen an der Architektur und ohne Veränderung der Strukturbreite, aber mit Erhöhung der Taktrate keine sonderlich große Energieeinsparung erwarten kann, sollte klar sein. AMD hatte hier ja zuvor schon kein glückliches Händchen, ohne große Veränderungen können sie dann auch keine Wunder vollbringen.

Preislich bewegen wir uns ja jetzt schon bei rund 190€, denke da wird sich recht schnell was tun. Und im Bereich von 160-170€ wird es dann wieder interessant. Vorallem wenn dann entsprechend der 4170, der jetzt knapp über 100€ kostet, Richtung 90€ abrutscht, wird es im Budget Bereich auch wieder interessant.
 
Zuletzt bearbeitet:
Also ich finde es garnicht so schlecht was AMD mit dieser neuen Revision geschafft hat.

Performancetechnisch 10% Leistung mehr (Ok durch Steigerung der Frequenz, aber warum nicht) bei 10% reduzierte Leistungsaufnahme.
Bietet der FX-8350 etwa die gleiche Leistung wie ein i5-3470 und wird preislich in etwas das Gleiche kosten.
Einzig und alleine der Mehrverbrauch machen den großen Unterschied. Wobei auch hier erwähnt werden sollte: Ich besitze z.B. ein AM3+ fähiges Mainboard - wenn ich nun die Plattform wechsel, benötige ich ein neues Mainboard, welches wiederum mindestens 50,- € kostet (eins mit schlechter Ausstattung).
Läuft mein Rechner maximal 3 Stunden am Tag bei maximal 70 Watt (THW) bzw. 100Watt (CB) pro Stunde mehr Leistungsaufnahme(unter Last) - so müsste der Rechner mehr als 2.5 Jahre laufen, damit sich eine entsprechende Neuanschaffung wirtschaftlich rentiert. Und dies auch nur bei Volllast - läuft der Rechner mal eine Stunde pro Tag im Idle so wären dies schon mindestens 3.5 Jahre damit sich eine Neuanschaffung "lohnt".
 
Zuletzt bearbeitet:
Wird wieder Spannend hier, Popcorn ist schon am knallen :D

Hoffentlich wird AMD bald gekauft und richtig viel Geld in die Entwicklung gesteckt.
Der Stromverbrauch unter Vollast geht mal garnicht. Da braucht ihr auch garnicht mit average Werten oder Ausreden zu kommen, ihr encodet sowieso nicht die ganze Zeit.
Ich möchte garnicht daran denken, wie viel Strom die AMDs in den Rechnern von meinen Freunden verbraten, die zocken nämlich die ganze Zeit.
Besonders Spiele wie Wow, League of Legends, Spiele die von Millionen Leuten gespielt werden haben kein Grafikkarten limit. Die CPU kann sich voll entfalten solange man keinen fps limiter am laufen hat und das sind höchstens 10%.
 
knuF schrieb:
Ich verstehe ehrlichgesagt AMD nicht.
Wenn man doch was neues bringt, dann muss ich mich doch im Markt behaupten können, also sollte der nicht nur besser/schneller/effizienter sein als der Vorgänger im eigenen hause, nein auch besser/schneller/effizienter als die Konkurenz.

Wenn ich das nicht schaffe, dann muss ich weiter entwickeln und nicht nur über die Schiene des Preises an meine Käufer kommen. Im Vergleich liefert Intel stets ordentliche Ergebnisse ab, die zwar ihren Preis haben aber dennoch eine Weiterentwicklung darstellen.

Komischerweise schafft Intel das immerwieder, besser/schneller/effizienter zusein als die Konkurenz von AMD und auch aus eigenem Hause - zumindest im Desktopsegment.

Es schüttelt mich, dass AMD ca. 700 MHz mehr Takt, 89% mehr Strom (Last) bei 10% höhere Tempertur benötigt um in etwa die Leistung des i5-3570K hinzubekommen.

Du bist mir ja ein Spassvogel:freak: AMD generiert pro Jahr weniger Umsatz als Intel über Entwicklungsgelder verfügt! Glaubst Du AMD würde nicht gerne auch einen besseren, effizienteren und schnelleren Prozessor auf den Markt bringen als Intels Spitzenmodelle?! Sie können es nun mal nicht weil sie nicht ansatzweise über die Mittel verfügen welche Intel hat.

Im Serversegment sehe ich Zukunft für AMD denn 1. Sind die neuen Bullis hier ungeschlagen und 2. sauffen die Xeon's genau gleich viel Strom! Nur kaufen wird es wohl trotzdem keine Sau, weil in den Köpfen der Leute AMD ja schlecht ist:freak:

btw: was 89% mehr Strom? Wie kommst Du denn auf so einen Wert? Die Werte "TPD" "maximale Stromaufnahme" und "Intel's Watt Angabe (was am ehesten einem Durchnittsverbrauch ähnelt, LOL)" nicht einfach 1:1 vergleichen!
 
Perry S. Hilton schrieb:
haha DIE ausrede lass ich nicht gelten, schliesslich hats beim athlon64 damals auch ganz gut geklappt, die scheinbar übermächtige konkurrenz leistungs-/preis-/verbrauchstechnisch abzuhängen

Das war vor 9 Jahren. In den 9 Jahren danach hat Intel 347,23 Mrd. US-$ Umsatz gemacht, AMD 50,3 Mrd. US-$. Beim net income hat Intel mehr als 68 Mrd. US-$ mehr eingenommen als AMD. Wenn man in den letzten 9 Jahren 68 Mrd. US-$ mehr Gewinn macht, dann muss sich das irgendwie in besseren Produkten zeigen, oder?

Herdware schrieb:
Bis zum Test des Verbrauchs sah alles wirklich ganz gut aus. :(

Der FX-8350 ist 13% effizienter als der FX-8150 und 7% effizienter als nen Phenom II x6.
 
Ich kann das Fazit nicht nachvollziehen.

Der 8350 kostet mit 190€ genausoviel, wie der i5-3570.

Im Gesamtrating ist der Intel i5-3570 10% schneller.
Im Abschliessenden Performancerating 13%.
...

Es gibt kein Rating, in dem der AMD schneller war.

Bei der Leistungsaufnahme verbraucht der Intel 1Watt mehr (Idle).
Unter Volllast verbraucht der Intel 110 Watt weniger. Das ist pervers weniger.

Beim Intel gibt es sogar noch eine integrierte Grafik "umsonst".

Ich verstehe nicht, waum man den AMD kaufen sollte. Es spricht (aus meiner Sicht) gar nichts für den AMD.

Höchstens das Gefühl, einen 8Kerner zu haben.
 
Held213 schrieb:
.

Aber viel interessanter finde ich noch, dass über den gesamten Testlauf der 8350 sparsamer als der X6 1100T war! Hier zeigt sich also ein gegenteiliges Bild zum CB-Test.

energy%20used.png



ähm. Was erwartest du bei 32nm vs 45nm... nur logisch dass der FX da weniger braucht. Wäre auch fatal wenn nicht. So schon fatal genug ^^

Schau ich mir die Differenz Idle / Vollast an frag ich mich wie das Teil jemals innerhalb der TDP bleiben soll o.O

Der FX-8350 erkauft seine Mehrleistung 1:1 mit höherem Verbrauch.
 
a-u-r-o-n schrieb:
Mein fast 2 Jahre alter 2500k ist immer noch schneller und der Verbrauch bei diesem neuen AMD CPU ist ja der Wahnsinn. Die Hitze wo hier entsteht muss auch erst mal abgetragen werden, denke mal ein leises System bekommt man nur sehr schwierig hin.

Sorry AMD aber wieder FAIL auf der ganzen Linie.

Bbig schrieb:
Ja, die CPU verbraucht mehr als Intel-Vergleichs-CPU ~ aber ihr tun immer so als würden eure PCs 24 Stunden am Tag, jeden Tag in der Woche das ganze Jahr über auf 100% Power laufen. Klar ihr macht alle nur Video-Encoding, :rolleyes:.

Die CPUs sind preislich gut gesetzt (ich denke auf dem Markt bald für unter 180 Euro), man darf auch nicht vergessen, was ein Intel-Mobo kostet und ein AMD-Mobo, eventuell hat man ja auch noch ein AM3+Mainboard.

Lass es, gegen Marketingsprech sind viele nicht immun.

Selbst wenn deren Computer 24h am Tag Videoencoding betreiben (so wie meiner derzeit, Batchkonvertierung für Heimserver) ist der finanzielle Unterschied so gering, dass es praktisch völlig egal ist, wenn am Ende auf der Stromrechnung 5 Euro mehr stehen. Möchte wissen, ob diese Leute sonst auch so sparsam sind und auf einen Döner verzichten, wenns eine selbstgemachte Stulle auch tut.

Stromverbrauch ist, wenn es nicht gerade um den Serverbereich geht, eines der letzten Punkte, die beachtet werden sollen.

Und die Hitze bekommst du sogar mit dem mitgelieferten Lüfter weg, sonst würden sie den nicht beilegen. Du willst ein leises System? Dann denke ich am wenigsten an die CPU sondern dämme mein Gehäuse.

Insofern: AMD hat mit Vishera alles richtig gemacht. Ich bin nun auf Steamroller gespannt, ich denke, da wird der Stromverbrauch angegangen und noch ein wenig Leistung draufgelegt.
 
Julz2k schrieb:
Besonders Spiele wie Wow, League of Legends, Spiele die von Millionen Leuten gespielt werden haben kein Grafikkarten limit. Die CPU kann sich voll entfalten solange man keinen fps limiter am laufen hat und das sind höchstens 10%.

Keines dieser Spiele hat es bisher jemals geschafft, meinen X6 auch nur annähernd an 100% Last zu bringen. Und die Spiele haben natürlich ein Grafikkartenlimit, nämlich das der Karte selber. Wenn da kein SLI-Gespann werkelt bringen die selten die CPUs zur vollen Last.

Und deine willkürlich geschätzten Zahlen zur FPS-Limitierung lasse ich mal komplett außen vor.
 
Danke für den Test ;). Ich denke, dass es ein richtiger Schritt für AMD ist, wäre da nicht der hohe Stromverbrauch :|. Ich hoffe nur das Steamroller bezüglich Leistungsaufnahme wesentlich besser wird und gleichzeitg nochmal an Performance zulegt, denn wie sagt man so schön, Konkurenz belebt das Geschäft :p.
 
Krautmaster schrieb:
ähm. Was erwartest du bei 32nm vs 45nm... nur logisch dass der FX da weniger braucht. Wäre auch fatal wenn nicht. So schon fatal genug ^^

Ähm, der 8150 ist aber auch 32 nm und trotzdem verbraucht der über den gesamten Testlauf mehr als 8350 und X6 1100T.

Außerdem steht der X6 1100T im CB-Test dank Prime95 besser dar, als der 8350. Darauf wollte ich hinweisen.
 
neo-bahamuth schrieb:
Keines dieser Spiele hat es bisher jemals geschafft, meinen X6 auch nur annähernd an 100% Last zu bringen. Und die Spiele haben natürlich ein Grafikkartenlimit, nämlich das der Karte selber. Wenn da kein SLI-Gespann werkelt bringen die selten die CPUs zur vollen Last.

Und deine willkürlich geschätzten Zahlen zur FPS-Limitierung lasse ich mal komplett außen vor.

Die wenigsten Spiele können Quadcored voll ausnutzen. Nicht einmal BF3 schafft das.

Deswegen habe ich mit einer 4870 auch 250 frames in League of Legends :-) Der Prozessor machts möglich. Sprich Spiele wie League oder Wow profitieren von schnellen CPUs, die Grafikkarte wird fast garnicht benötigt.
Aber ich wiederhole mich.
 
Zurück
Oben