Test Test: AMD FX-8350 „Vishera“

Williams87 schrieb:

nach dem test des verbrauchs habe ich genau nach solchen kommentaren gesucht. laut cb-test sind es 51 W unterschied zum phenom 2 X6 und 62 W unterschied zum X4 - ein sehr unrealistisch erscheinendes ergebnis. entweder ist mit den tests etwas nicht in ordnung oder die 125 W cpus von amd verbrauchen plötzlich 60 W mehr strom. so oder so müsste der autor sich mit dem ergebnis sehr kritisch auseinander setzen, was jedoch nicht geschieht. die tests von tomshardware deuten nun darauf, dass cb falsche oder irreführende ergebnisse liefert.

neo-bahamuth schrieb:
Keines dieser Spiele hat es bisher jemals geschafft, meinen X6 auch nur annähernd an 100% Last zu bringen. Und die Spiele haben natürlich ein Grafikkartenlimit, nämlich das der Karte selber. Wenn da kein SLI-Gespann werkelt bringen die selten die CPUs zur vollen Last.

Und deine willkürlich geschätzten Zahlen zur FPS-Limitierung lasse ich mal komplett außen vor.

spielst du denn spiele, welche 6 kerne nutzen? wenn nicht, dann kannst du eine 100 %-ige auslastung logischerweise auch nicht erwarten. dann laufen eben 2 kerne am maximum und der rest im idle.
 
@Matzegr & Schu3

Wohl wahr, ich hatte nur das Prime Bild im Kopf das wohl eher Worst Case entspricht (auch wenn es noch schlimmere Tools gibt als Prime).

Wenn man die Tests von THG liest dann merkt man, dass die Leistungsaufnahme zwar steigt, die Effizienz aber leicht zunimmt dank etwas mehr IPC.

Sieht man auch ganz gut in der Anandtech Grafik, wie ich finde die beste Darstellung bisher.
 
Krautmaster schrieb:
Was bedeuten 21% konkret in W? Ohne Festplatten, die saugen bei mir am meisten ;)

Bei 1200VA(670W) laut Hersteller der USV, waeren das 154W bzw 140W. (hab allerdings 9 HDDs und eine SSD drin)

Der BD hat gegenueber jedem alten Phenom noch eine weiteren gewaltigen Vorteil, Hardware-AES. Waehrend du mit der alten CPU massig Rechnleistung (und gleichzeitig Strom) verlierst, macht das der BD nebenbei ohne ins Schwitzen zu kommen. Bei insgesamt 8 Kcrypto Threads, macht das schon einen gewaltigen Unterschied. ;)
 
werde erst im februar die cpu wechseln. diese ergebnisse sind schon mal ganz ok von leistung her aber eine cpu von intel wie der 3570k (die im augenblick gleiches kostet) hat noch um einige meilen mehr leistung in spielen. leute die jedoch viel mit anwendungen arbeiten (video oder bildbearbeitung) werden mit der cpu mehr wie glücklich. bei spielen ist sie zwar noch voll ausreichend aber es gibt in dieser preisklasse gibt es halt besseres.
und wie viele schon geschrieben haben - die leistungsaufnahme im volllast ist zu hoch - leider.

trotzdem hat amd soweit (bei deren kapazitäten) ziemlich gute leistung abgeliefert.
nur mir ist es nicht ausreichend um meinen opa von 1055er auszutauschen. ich warte noch bis nächstes jahr bis steamroller und haswell rauskommen und dann entscheide ich mich erst.
 
Der Ahnsinnigew schrieb:
spielst du denn spiele, welche 6 kerne nutzen? wenn nicht, dann kannst du eine 100 %-ige auslastung logischerweise auch nicht erwarten. dann laufen eben 2 kerne am maximum und der rest im idle.

Ähm das war ja auch meine Aussage, dass die Spiele die CPUs nie und nimmer ausnutzen.

Julz2k schrieb:
Zwischen IDLE 1600Mhz Ruhezustand und 25% Auslastung sprich volle Auslastung auf einem Core und maximalen Takt 4Ghz liegen Welten.

Eine Kilowattstunde kostet bei mir 28 Cent.

.

Ich wechsel den Stromanbieter eigentlich jährlich, kaufe immer einen Paketpreis für so 2200kWh und rechne den Neukundenbonus mit ein (die Zahl stimmt nicht ganz, da man den Bonus erst nach 12 Monaten bekommt und noch 3 Monate Kündigungsfrist hat, realistischer sind demnach so 22cent). Sind dann so 385€ im Jahr bei 2200kWh.
 
Zuletzt bearbeitet:
Ich finde das Ergebnis beachtlich.

Schließlich werden hier 22nm CPU`s mit 32nm CPU`s verglichen. Da steckt ja auch noch viel Potential drin um "Strom" zu sparen bzw. GHZ raus zu kitzeln.

Weiß eigentlich jemand wieso AMD im nächsten Schritt nur auf 28nm geht? Wegen dem GPU Anteilen in Ihren geplanten APU`s ?
 
Novasun schrieb:
Ich finde das Ergebnis beachtlich.

Schließlich werden hier 22nm CPU`s mit 32nm CPU`s verglichen. Da steckt ja auch noch viel Potential drin um "Strom" zu sparen bzw. GHZ raus zu kitzeln.

Weiß eigentlich jemand wieso AMD im nächsten Schritt nur auf 28nm geht? Wegen dem GPU Anteilen in Ihren geplanten APU`s ?

Dann vergleich bitte mit der Sandy Bridge.
 
Für mich ist der FX kaum ein Grund um von meinem 1090t umzusteigen. Er mag etwas schneller sein, aber ist es mir das Wert - wohl eher nicht. Der 1090t sollte diese Generation noch überleben und zur nächsten wird dann getauscht.

Das der FX8350 die Intel Riege in Sachen Stromverbrauch und Leistung nicht schlagen kann, sollte vorher jedem klar gewesen sein - gerade deshalb hat AMD hier eine gute Arbeit abgelegt und sollte doch mehr Käufer finden als der FX8150!

Derzeit kitzelt es mich in den Fingern schon ein wenig und ich überlege auf Intel umzusteigen - was mich allerdings bei meiner Kombination (Asus Maximus und 3570k) knapp 450€ kosten würde - nein danke. Dann vlt doch wenn es weiter kitzelt mit dem Crosshair V auf einen FX8350 umsteigen :D
 
ich versteh grad nicht warum hier einihe schreiben "Leistung gut". Also bei mir ist die cpu fast gleich auf mit der 2500k. Und das ding hat doch jetzt auch schon was aufm buckel.
 
Novasun schrieb:
Weiß eigentlich jemand wieso AMD im nächsten Schritt nur auf 28nm geht? Wegen dem GPU Anteilen in Ihren geplanten APU`s ?

Weil weder GF noch TSMC kleinere Strukturbreiten liefern können. AMD fertigt im Gegensatz zu Intel nicht selber. Falls jetzt Fragen auftauchen warum. Alleine die R&D Kosten für 22nm Fertigung betragen 2,1-3 Mrd. US-$ sowas kann sich AMD nicht leisten.
 
Ulukay schrieb:
Bei 1200VA(670W) laut Hersteller der USV, waeren das 154W bzw 140W. (hab allerdings 9 HDDs und eine SSD drin)

Der BD hat gegenüber jedem alten Phenom noch eine weiteren gewaltigen Vorteil, Hardware-AES. Waehrend du mit der alten CPU massig Rechnleistung (und gleichzeitig Strom) verlierst, macht das der BD nebenbei ohne ins Schwitzen zu kommen. Bei insgesamt 8 Kcrypto Threads, macht das schon einen gewaltigen Unterschied. ;)

Hardware AES hat mein 2,5 jahre alter i5 auch :p

Ich hab 5x 2 Tb drin im Raid5 (Intel) + AES Truecrypted. last Werte hab ich so gar nicht im Kopf.

Durchsatz aufm Raid unverschlüsselt hier:
R5
http://www.abload.de/img/raid5stripe16kcluster657e9.jpg
R0
http://www.abload.de/img/intelridojur.jpg´
(Trotz damaligem DMI Flaschenhals)
Lan Durchsatz auf / von R5 mit AES und R5
http://www.abload.de/img/pc-serverhubz.jpg

Idle mit drehenden Platten um die 40-45W.

Eig. hab ich mir vorgenommen sobald es 5 TB Platten gibt auf 3x5 zu wechseln und den 8TB Server für meine Ellis stehen zu lassen.
;)

Aber genug OT :)
 
Ich bin mir nicht ganz sicher wie zuverlässig und korrekt diese Website arbeitet, aber dieser Artikel versucht wenigstens ein paar Probleme AMD's zu erklären:

http://semiaccurate.com/2012/10/15/...-management-doesnt-understand-semiconductors/



"[...]
One thing that several people credit Mr Seifert with is something called “Project Win”. This is described by some AMDers as basically putting the development pipeline on hold to balance the books.
[...]"
 
Zuletzt bearbeitet:
Krautmaster schrieb:
wow, das schon übel. So derb hätte ich die CPU Limitierung bei Multi GPU gar nicht eingeschätzt.

Ich auch nicht, selbst bei GPU lastigen Games bzw. Benches ist die Limitierung mehr als deutlich.
 
irgendwie ändert sich mein persönliches fazit bei prozessoren nicht mehr.
Option A: 200€ zum fenster raus werfen um nen leicht schnelleren prozi zu bekommen
Option B: den 955 behalten und warten bis am3 ganz tod ist und noch nen restposten für wenig geld holen
 
Ist immer noch nicht die Northbridge im Die eingebaut? Bei Intel ist schon der Fall oder? also eigentlich noch stromhungriger!
 
Zurück
Oben