News AMD stellt Opteron 3300 und 4300 offiziell vor

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.339
Nachdem die gestrige Roadmap die Opteron 3300 und 4300 noch für dieses Jahr vorausgesagt hatte, lässt AMD den Ankündigungen jetzt Taten folgen und stellt die CPUs offiziell vor. Insgesamt neun Modelle auf Basis der „Piledriver“-Module schickt der Hersteller ins Rennen um ein paar zusätzliche Marktanteile im Server-Segment.

Zur News: AMD stellt Opteron 3300 und 4300 offiziell vor
 
also mal erlich, der abstand zur nächsten generation ist schon verdammt groß! oder kommt mir das nur so vor?
 
Wird sicher für AMD übel enden. So lange keine große Verbesserung. Sogut wie niemand wird die Teile kaufen. ARM wird sicher auch nicht genug Leistung in den nächsten Jahren bieten.
 
G2xPQRmHnT
Dir ist aber schon klar, dass das Piledriver-cores sind oder ? Hoffe dass du das bei deiner Beurteilung auch schon mit eingeflossen hast.
Da es um Opteron handelt, würde ich diese Prozessoren auch (als Privater) eher für Home_Server verwenden. Hier finde ich CMT ziemlich interessant.
Mit den richtigen Programmen kann AMD hier schon etwas anbieten, auch die Preise passen, lass mich aber gern eines besseren belehren ^^
Mich würde es interessieren, ob es hier zu Lande auch eine Verfügbarkeit haben werden.
Denn bei Zurich hab ich leider vergebens warten können...
 
Zuletzt bearbeitet:
pmkrefeld schrieb:
Gibt es weitere Unterschiede zu den FX CPUs außer Multi-Sockel Kompabilität?

Soweit mir Bekannt ist, haben die Opterons vier Kanal* DDR3 und mehr PCIe Lines, zudem können sie ECC RAM. Ansonsten sind wohl keine Unterschiede vorhanden.
*Sehe grade erst ab sockel G34 ist Quad DDR3, also kannste dat für die AM3+ Opterons so wieso Streichen.

mfg

Zum Thema:
Oh oh oh... 2014 erst!? Intel bringt doch seine neue Generation Hasswell? Anfang 2013. 2014 kommt dann dessen Zwischenschritt schätze ich mal.
Kann mir dass nur so Erklären dass AMD nun endlich eingesehen hat dass die Modulbauweise, zumindest in der jetzt Form für die breite Masse der Kundschaft, Unwirtschaftlich und Unrentabel ist. Sie werden wohl noch mal bei Null anfangen, zumindest den Chip fast Komplett neu Aufziehen, um dann mit Intels 18 oder 16nm? CPUs mithalten zu können. Alleine 28nm Bulk hilft da nicht viel, da muss die Hauptverbesserung durch das Chipdesign kommen.
Ich kann mir vorstellen dass die die Pipelines am Modul umbauen und zumindest jedem Modul nun seine eigene FPU ect. spendieren daran hapert es ja, evt. werden noch ARM Kerne angehängt/integriert für die Idle und unteren Lasten um massig Energie zu sparen.
Könnte ich mir gut Vorstellen, würde zumindest Sinn machen, denn AMD sagte ja man möchte ARM mit rein nehmen, anders würde es keinen Sinn machen. Denn für Große Rechenaufgaben nutzt ein ARM Kern alleine nix.

mfg
 
Zuletzt bearbeitet:
C4rp3di3m
Anfang 2013. 2014 kommt dann dessen Zwischenschritt schätze ich mal.
Wenn man den Gerüchten glauben darf, wird bis 2014 HSW für dem Desktop sein. Der 14 nm Shrinke wird wohl für Ultrabooks und co sein. Intel hat aber auch genug Raum um einfach den Takt zu steigern ^^

Thema AMD und Steamroller
https://www.computerbase.de/2012-08/amds-steamroller-architektur-und-der-kleine-schwenk-zurueck/

GF 14nm Finfet
http://www.3dcenter.org/news/globalfoundries-will-die-14nm-fertigung-bereits-im-jahr-2014-erreichen
Da die Araber ja neue Märkte suchen, da ja das Öl nicht für die Ewigkeit reicht, kann man hoffen, sie stecken mehr und mehr in GF ^^
Gibt zwar eine interessante Einschätzung von 3DCenter, was auch völlig nachvollziehbar ist, aber man sollte das Budget des Geldgeber nicht unterschätzen. Vermute dass man mehr hat als die Firma Intel. Immerhin sprach man damals noch von einer größeren Zeitspanne.

Was die Am3+ Prozessoren angeht, finde ich den 8 Moduler sehr interessant :D wobei dieser mit 200 Mhz mehr, eher zusagen würde. Somit werde ich noch auf ein Update warten ^^
 
Zuletzt bearbeitet:
Die <65W-Teile wären echt eine Bereicherung fürs AMD-Portfolio.

Wegen des Namens Opteron suggerieren sie aber eher als Homeserver-CPUs oder so. Das ist nicht das, was der durchschnittliche 0815-Benutzer will...

Aber evtl. will AMD keine "echte" Konkurrenz zu seinen APUs.

Dass die Marketingabteilung von denen nichts taugt, ist leider seit über 10 Jahren bekannt...ich weiss nicht, wieso man da nichts macht...und Studien könnte man da relativ einfach aufstellen, die diesen Missstand beweisen würde.
 
dass die 65W Version vom Achtkerner @2,6/3,6 GHz besonders wertvoll ist, sieht man auch am höchsten Preis, der dafür verlangt wird. Wenn man die Taktfrequenz weiter zurück dreht, um noch ein paar Watt mehr einzusparen, muss der Prozessor für eine Rechenaufgabe dann eben umso länger rechnen, und nicht nur die CPU verbraucht Strom, sondern auch die restlichen Server-Komponenten. Von der Energie-Effizienz her hat das dann kaum noch einen Sinn.
 
News schrieb:
Mit diesem dürfte man klar auf Intels Xeon-Prozessoren zielen, die in Form des E3-1220L v2 in TDP-Regionen von 17 Watt agieren
Zielen ja, treffen nein.

Die 1,9 Ghz Base und 2,5 GHz Turbo-Takt sind schon niedlich, wenn man bedenkt, dass der Xeon E3-1220L V2, der ohnehin schon bei der Pro-Takt-Leistung ungleich schneller agiert, mal eben mit 2,3 GHz Base sowie 3,5 GHz Turbo auch noch deutlich höher taktet und nochmals 30 Prozent weniger TDP besitzt. :freak:
 
C4rp3di3m schrieb:
Soweit mir Bekannt ist, haben die Opterons vier Kanal* DDR3 und mehr PCIe Lines, zudem können sie ECC RAM. Ansonsten sind wohl keine Unterschiede vorhanden.
Vier Kanal RAM bieten nur die Modelle für den G34, bei denen ja zwei Chips im Gehäuse stecken.
ECC unterstützen auch alle Desktop FX, das hat AMD im Gegensatz zu Intel für die Desktops nicht beschnitten. Viele MB unterstützen es auch, vor allem die von ASUS und Gigabyte, was es erlaubt einen günstigen Home-Server mit ECC zu bauen, denn bei Intel ist man dann schon auf die teuren Xeons angewiesen und muss diese in einem Board mit Serverchipsatz verbauen. Bei den heute möglichen und üblichen RAM Größen wird ECC immer interessanter, denn RAM Fehler werden nicht gerade seltener.
Die AM3+ Opterons sind eigentlich FX oder umgekehrt. Das ist bei Intel SB-E ja eigentlich nicht anders, nur werden die Desktop Modelle bei Intel eben beschnitten und bieten kein ECC und keinen zweiten QPI.
 
Simon
Kann mir gut vorstellen, dass der Intel schneller arbeitet, besonders wenn es um Desktop Anwendungen geht.
Doch vergleichst du da schon Äpfel mit Birnen, besonders was dem Turbo angeht. Denn beim Opteron sind es immerhin die Häfte der Threads. Der 3,5 ghz Turbo bei Intel betrifft einen Thread und ich wage mich zu erinnern, dass bei Intel der Turbo die TDP kurzzeitig übersteigt, was beim Turbo 3.0 bei AMD nicht der Fall sein soll. :freak:
Aber ja ich gebe dir recht, schade dass AMD nicht auf 22nm FinFet zurückgreifen kann :(
 
C4rp3di3m schrieb:
Kann mir dass nur so Erklären dass AMD nun endlich eingesehen hat dass die Modulbauweise, zumindest in der jetzt Form für die breite Masse der Kundschaft, Unwirtschaftlich und Unrentabel ist. Sie werden wohl noch mal bei Null anfangen, zumindest den Chip fast Komplett neu Aufziehen, um dann mit Intels 18 oder 16nm? CPUs mithalten zu können. Alleine 28nm Bulk hilft da nicht viel, da muss die Hauptverbesserung durch das Chipdesign kommen.
Ich kann mir vorstellen dass die die Pipelines am Modul umbauen und zumindest jedem Modul nun seine eigene FPU ect. spendieren daran hapert es ja, evt. werden noch ARM Kerne angehängt/integriert für die Idle und unteren Lasten um massig Energie zu sparen.
Könnte ich mir gut Vorstellen, würde zumindest Sinn machen, denn AMD sagte ja man möchte ARM mit rein nehmen, anders würde es keinen Sinn machen. Denn für Große Rechenaufgaben nutzt ein ARM Kern alleine nix.
Also du sitzt da fast sämtlichen halbwahren Gerede auf, dass so über gut das letzte Jahr verzapft wurde.
Orochi (also das 32nm DIE, dass z.B. in Zambezi, Vishera usw. steckt) hat im Prinzip nur einen großen Nachteil, gegenüber Intels Sandy- und Ivy-Bridge - die massiv höhere Leistungsaufnahme unter Last. Und genau diesen eindeutigen und großen Nachteil (vorallem für das Serversegment relevant, da in diesem Gebiet die Prozessoren, im Gegensatz zum Desktopsegment, oft und hohe ausgelastet sind) kann man NICHT so einfach auf das Bulldozer- bzw. Modulkonzept zurückführen, da es eben noch einen weiteren Aspekt gibt - nämlich den Prozess, indem der Prozessor gefertigt wurde. Somit ist es nichts anderes als eine (die gravierend unwahrscheinlichere) Möglichkeit, dass es am Modulkonzept liegt - bei weitem wahrscheinlicher ist der benützte und offensichtlich äußerst suboptimale 32nm SOI Prozess. Denn dies zeigt eindeutig Llano, der eben nicht auf dem Bulldozerkonzept basiert und TROTZDEM hinsichtlich der Last-Leistungsaufnahme schlecht abschneidet.
Dass Orochi bei gutem Multithreading auf einer Ebene mit den Quadcore i7 usw. ist, sollte ja einigermaßen unbestritten sein. Die anderen Punkte, auf denen oft herumgeritten wird, wie z.B. die "niedrigere Singlethreadleistung" sind zwar vorhanden, aber bei weitem nicht von der Relevanz, wie es gerne von vielen hingestellt wird. Hohe Singlethreadleistung (also höhere, wie sie z.B. Zambezi liefern kann) braucht man heute für eine Hand von Spielen und ein paar weiteren exotischen Ausnahmefällen - für den absoluten Großteil der Fälle, wo hohe CPU-Leistung gefordert wird, ist dies absolut niedrigrangig. Eine kleine Ausnahme stellen dabei z.B. die 17W TDP Trinitys dar, die so niedrig getaktet werden müssen um in der TDP bleiben zu können, dass die höhere Singlethreadleistung der Intelprozessoren bei ähnlichem Takt sich nennenswert positiv auswirkt - aber auch dass ist mit ein Problem des Herstellungsprozesses! Denn ein optimalerer Prozess würde höheren Takt bei gleicher Leistungsaufnahme bedeuten und so logischweise zu höherer Singlethreadleistung führen.
Und dann noch der lustige Punkt mit dem "viel zu wenig FPU-Leistung". Für den absoluten Großteil der Anwendungsfälle spielt es kaum eine Rolle, dass die Flex-FPU nicht ganz die theoretische Performance z.B. zweier K10 FPUs erreicht, weil eben der Code meist im Bereich von 80% Integer-Code aufweist - genau deshalb shared man ja die FPU (die übrigens massiv aufgebohrt wurde, gegenüber einer einzelnen K10 FPU und somit oft auch mit zwei K10 FPUs mithalten kann). Ich meine, so dumm kann man AMD nicht halten, als dass sie einfach etwas wegrationalisieren, was von so essentieller Bedeutung wäre, wie es oft dargestellt wird.
Zusammengefasst kann man mMn eindeutig sagen, dass das Bulldozer-/Modulkonzept alles andere als schlecht ist - selbst in seiner ersten Inkarnation konnte man dies -realistisch betrachtet- nicht behaupten. Vishera macht schon einiges besser - und dass trotz des immer noch alles andere als optimalen 32nm SOI Prozesses.
Auch kann man sagen, dass ganz offensichtlich noch sehr viel Verbesserungspoential in der Architektur steckt, da selbst z.B. die (Integer-)IPC eines K10 Kernes noch nicht erreicht wurde - es sind also noch zahlreiche Handbremsen vorhanden, die gelöst werden können und so für erheblich mehr IPC sorgen können.
Nein, das Orochi unbestrittenerweise suboptimal gelungen ist, kann man nicht auf dass Bulldozerkonzept zurückführen, bzw. ist es absoluter Blödsinn, das Modulkonzept als offensichtlich gescheitert hinzustellen.

LG
 
Zuletzt bearbeitet: (haufen Tippfehler ausgebessert)
Die einzig interessante CPU für den Desktop wäre der Opteron 3350 HE weil er preislich nicht so stark aus dem Rahmen fällt, ein hohen Takt hat und konkurenzfähiger im Verbrauch ist, dafür aber ohne Grafik.
Eine Alternative zum i3 ?
Der Opteron 3380 ist zu teuer .
 
pipip schrieb:
Simon
Kann mir gut vorstellen, dass der Intel schneller arbeitet, besonders wenn es um Desktop Anwendungen geht.
Doch vergleichst du da schon Äpfel mit Birnen, besonders was dem Turbo angeht. Denn beim Opteron sind es immerhin die Häfte der Threads. Der 3,5 ghz Turbo bei Intel betrifft einen Thread und ich wage mich zu erinnern, dass bei Intel der Turbo die TDP kurzzeitig übersteigt, was beim Turbo 3.0 bei AMD nicht der Fall sein soll. :freak:
Aber ja ich gebe dir recht, schade dass AMD nicht auf 22nm FinFet zurückgreifen kann :(
Das ist in der Tat korrekt, die 3,5 GHz gelten nur für einen Kern. Bei zwei Kernen zieht der Turbo aber dennoch bis immerhin 3,3 GHz hoch, also nur geringfügig weniger. ;)
 
Kommen die TDP-Angaben tatsächlich von AMD? :D
Kenne ich so gar nicht von denen... Fände ich aber sehr interessant, was aus dem 3380 noch herauszuholen ist. Vom Preis ist der ja auch gut.
 
Beim Opteron 3320 EE hätte ich persönlich etwas mehr Takt erhofft, wenn man den A10-4655M (2 Module, 2,0GHz Basistakt) zum Vergleich heranzieht. Dieser muss zusätzlich noch einige GPU-Shader mit dem selben thermischen Budget (25W) durchfüttern und hat eben schon 100MHz mehr. Einzig die 8MiB L3 Cache gehen beim Opteron noch zusätzlich mit ein, aber die dürfen ja kaum so stromhungrig bzw. noch stromhungriger sein, wie die GPU-Shader?!

pipip schrieb:
dass bei Intel der Turbo die TDP kurzzeitig übersteigt, was beim Turbo 3.0 bei AMD nicht der Fall sein soll. :freak:

Doch, dass dürfen auch die Bulldozer - die genauen Spezifikationen, wie wann wie lange usw. bzw. die Unterschiede zu Intels "TDP-Überschreitungsspezifikationen" sind mir nicht bekannt.
 
Zurück
Oben