News AMD Epyc 8004: Siena sorgt im Sockel SP6 doch noch für eine Überraschung

CDLABSRadonP... schrieb:
Warum benutzt AMD für Genoa und Genoa-X den gleichen IO-DIE-Shot und für Siena und Bergamo einen anderen?
die anzahl der unterstützten chiplets ist tatsächlich en designunterschied weil man dann die RAM channel und interne kommunikation anders auslegt. da ist siena einfach kleiner.

die entscheidung mit Zen4c gefällt mir aber. niedrige TDP und sehr viel leistung. das high power segment hat man ja schon abgedeckt. 8 statt 12 ram channel sollten für die plattform verschmerzbar sein. wen sbei mir 64+ kerne werden, würde ich mich vermutlicher aber eher auf Zen(5?) TR verlassen und Zen 5c dann außenvor lassen. ja zen 5 nicht 4, warte noch eine generation ;)
 
fdsonne schrieb:
Spannend dürfte die Speicheranbindung werden. Bei nur "vier" IF Links sind das halt auch weniger in der Theorie mögliche Bandbreite. Das RAM Interface auf 6CH zu reduzieren ergibt also Sinn, da die Bandbreiten eh verpuffen.
Es könnten trotzdem 8 IF Links sein, da jedes CCD 2 IF Links besitzt und das IO Die anscheinend das selbe ist wie beim großen Epyc
 
@Volker wo her kommen die 1.152 GB RAM der EPYC hat doch  RDIMMs und die gibt es bis mindestens 256 GB ?
 
  • Gefällt mir
Reaktionen: Piktogramm
PS828 schrieb:
die anzahl der unterstützten chiplets ist tatsächlich en designunterschied weil man dann die RAM channel und interne kommunikation anders auslegt. da ist siena einfach kleiner.
Es ist trotzdem physisch das gleiche DIE. Aber AMD entscheidet sich dafür, es aus einem anderen Winkel und damit in anderen Regenbogenfarben zu photographieren.
 
nun anscheinend sind 4 ghz schon sehr hoch beim Takt.Das ist auch der Unterschied zu Threadripper.
Mir klar das epic die Server sind und man es nicht direkt miteinander Vergleichen kann.
Die 32 Kernigen Threadripper haben auch 4 Chiplet,wie die bei epyc auch.Hier sind sie nicht ganz unterschiedlich .Nur halt weniger L3 Cache und weniger CPU Takt.Würde mich echt interessieren was da der Unterschied sein wird,also bei der Rohleistung und so.
Zwischen Threadripper und Epyc haben ja gleich viel L3 und L2 Cache wenn man das sagen darf.Hier hat also AMD nix an L3 cache eingespart oder hat sonst Epyc noch mehr L3 Cache eigentlich?
Auf jedenfall sehe ich in der Reduzierung der Ram Channels auch kein Problem.Nur der CPU Takt ist halt etwas schmerzhaft.Bei Threadripper hat man ja auch nur 4 Ramslots und beim anderen sind es 8 Channel.Aber ich brauche nicht so viele Ramslots.Da reichen 4 schon aus.
Also wie gesagt auch wenn ich drauf verzichten könnte aber beim Takt ist von 3,1 auf 4 ghz ein rießiger Unterschied.
Wenn man sogar schon bei rund 3,8-4 ghz Unterwegs war,dann ist das schon ein gehöriger Leistungs Verlust.
Wobei ich nicht genau sagen kann wie stark der Leistungsverlust bei solchen CPUS sein wird,weil kann man ja nicht ganz mit den Ryzen CPUS vergleichen.Weil die werden sich doch etwas anderst verhalten bei der selben Anwendung.
Wenn man weis ok bis 32 Kernen hat man ein kleines plus,das ist schon ein Vorteil gegenüber nur 16 Kernen.Zum testen ist der Preis so langsam echt interessant.
Zudem will ich ja Stromsparend aber auch so viel Leistung wie möglich unterwegs sein.Da gibt es nur diese Option.Spannend wird es dann auch wenn das im Mainstream möglich wird oder Eingesetzt.

Dann hieß es aber 4 ghz anstatt 5,1 ghz,32 anstatt 64 MB L3 Cache.Da bleibt es dann spannend wie es sich so verhalten wird.Bisher habe ich nur mit weniger Cache beim 5700g erlebt gehabt.Der Leistungsverlust bemerkte ich da noch.Aber bei den neuen CPUS wo es mehr L2 Cache und so gibt,da sieht es dann bestimmt auch anderst aus.
 
fdsonne schrieb:
Interessant ist so ein Modell für Cloud Computing und wo man mit VMs arbeitet. Weil 16C/32T pro CCD schlicht doppelt so viele vCPUs pro IF Kanal Bein zum IO Die sind als bei den großen Modellen. Ob das der Cache der großen Modelle ausgleichen kann, hängt vom Workload ab. Häufig gar nicht mal so wirklich, denn sobald bei den großen mehr Threads als ein CCD liefern, benötigt werden, bremst die IF durch hohe Latenzen.

Gut das AMD einen Weg geht um nicht noch größere Trümmer an CPUs im Umsatzreichen Einsteiger und Mittelklasse Servermarkt zu bringen. 12CH Memory und 8-12 CCDs braucht man da jetzt nicht zwangsweise aber bis dato gab es entweder kompromissbehaftetes teildeaktiviertes Zeug oder eben Intel (mit wieder anderen Kompromissen)
Bei den 48 und 64 Cores macht der Zen4c Sinn,
beim 24 und ggf. 32 Core eher nicht. Hier wären 4 Chiplet Zen 4, davon jeweils 6 bzw. 8 Cores an 32 MB L3 sinnvoller. 6 CH Memory in DDR5 6*16 GB = 96 GB kosten heute um die 300€, also auch Budget Workstations möglich.

 
Gerade die kleinsten Lösungen würden problemlos auch mit nur einem oder zwei aktiven Chips funktionieren

Natürlich ginge das, aber das würde die Verwertungsquote nach dem Binning unnötig runterziehen, weil es nur Chips mit voll funktionsfähigem Cache zulassen würde - so können auch Dice verwendet werden, bei denen die CPU-Kerne funktional sind, der Cache aber einen Fehler hat.
 
Ich überlege ob ich auf 48GB oder 64GB gehe und dann solche Dinger - Server sind halt ein anderes Kaliber.

und bis zu 1.152 GByte DDR5-RAM möglich
wat (11).png
 
TeHaR schrieb:
128 Threads bei 155W, d.h. 1,2W pro Thread, das ist schon krass für eine Server CPU
Die Betrachtung ist sinnlos.
Die Verlustleistung muss in Relation zur Leistung gesetzt werden, anderenfalls ist jede Lowpower-CPU "krass".
Ergänzung ()

Bright0001 schrieb:
Ich überlege ob ich auf 48GB oder 64GB gehe und dann solche Dinger - Server sind halt ein anderes Kaliber.

und bis zu 1.152 GByte DDR5-RAM möglich
48 oder 64 GB sind im Jahr 2023 nun wirklich nichts bewegendes mehr und es ist interessant, dass du ausgerechnet die beschnittenen 1.152 GB raussuchst, wo doch mit den 9000ern viel mehr geht.

RAM war im übrigen immer schon Intels Domäne, da Intel idR. 8 oder sogar 16 Sockel unterstützt, das überkompensiert auch fehlende RAM-Kanäle. Passende Systeme hat z.B. HPE im Angebot.
 
  • Gefällt mir
Reaktionen: bikerider
Nagilum99 schrieb:
48 oder 64 GB sind im Jahr 2023 nun wirklich nichts bewegendes mehr
Behauptet keiner. Ich bin nur in der Position, wo ich mir ein fettes System eigentlich "gönne", aber das Mehr an RAM wenig Sinn macht. Deswegen schwanke ich, wie das nächste Update ausfallen soll.

Nagilum99 schrieb:
dass du ausgerechnet die beschnittenen 1.152 GB raussuchst
Ich habe nichts rausgesucht, war halt einfach ne News, ohne Fandom für/gegen Intel/AMD. Ist halt einfach wild, dass die Dinger RAM im Terrabyte-Bereich schlucken können.
 
  • Gefällt mir
Reaktionen: cbmik
Nagilum99 schrieb:
Natürlich ginge das, aber das würde die Verwertungsquote nach dem Binning unnötig runterziehen, weil es nur Chips mit voll funktionsfähigem Cache zulassen würde - so können auch Dice verwendet werden, bei denen die CPU-Kerne funktional sind, der Cache aber einen Fehler hat.
Bei 4 Chiplets und jeweils nur 1/2 genutzt kommt man auf 32/64 oder 24/48 und 64 MB L3, wenn nur 6 von 8 Cores werden.
Die Modellreihe sieht aber anders aus ...
Bei 64 MB L3 reichen 2 Chiplets, bei 32 MB sogar ein Chiplet wo beim 8/16 dann 2* 4/8 an 2* 16 MB L3 aktiv wäre. Vielleicht bestückt AMD trotzdem immer mit 4 Chiplets, weil es in den Produktionskosten und mechanischer Gleichmässigkeit Vorteile bringt (gab's mal beim Zen1)
 
Hast du meinen Beitrag gelesen und verstanden?
Ergänzung ()

RKCPU schrieb:
Bei 4 Chiplets und jeweils nur 1/2 genutzt kommt man auf 32/64 oder 24/48 und 64 MB L3, wenn nur 6 von 8 Cores werden.
Die Modellreihe sieht aber anders aus ...
Bei 64 MB L3 reichen 2 Chiplets, bei 32 MB sogar ein Chiplet wo beim 8/16 dann 2* 4/8 an 2* 16 MB L3 aktiv wäre. Vielleicht bestückt AMD trotzdem immer mit 4 Chiplets, weil es in den Produktionskosten und mechanischer Gleichmässigkeit Vorteile bringt (gab's mal beim Zen1)
 
Er meinte wohl das plenteno Chips also Platzhalter waren diese gewesen. Amd könnte auch teildefktes bei den 24 und 32 Kerner verwenden. Das dürfte auch reichen und gibt dann ne super gute wärmeabführung.
 
Dass aus Stabilitätsgründen immer alle Chiplets vorhanden sind ist Nebensache aber sicher ein möglicher Punkt.

"Die Modellreihe sieht aber anders aus ..." lässt vermuten, dass er meinen Beitrag entweder gar nicht gelesen oder nicht verstanden hat. Nur vollständig funktionale Chips zu verwenden wäre dämlich.
Mir ist auch nicht klar, was er damit meint, dass die Verwendung von 'immer 4 Chiplets Vorteile bei den Produktionskosten bringen soll' - auch das ist Unsinn.
 
LEDs schrieb:
@Volker wo her kommen die 1.152 GB RAM der EPYC hat doch  RDIMMs und die gibt es bis mindestens 256 GB ?
Da würde ich mich anschließen. Wenn ich mich nicht irre hatten die Memory Controller zuletzt die möglichkeit 52bit physisch und 57bit virtuell Adressen zu verteilen. Da wären knapp 1,2TB Ram schon etwas wenig.
 
Nagilum99 schrieb:
Die Betrachtung ist sinnlos.
Die Verlustleistung muss in Relation zur Leistung gesetzt werden, anderenfalls ist jede Lowpower-CPU "krass".

Sehe ich nicht so. Bei 64 Kernen und 128 Threads hat die CPU schon Power. Wenn man eine Anwendung hat welche mit den Kernen umgehen kann ist das also in der Tat "krass" :)
 
Ja aber ist wohl eher selten der Fall. So viele werden es nicht sein die von 64 kernen profitieren werden. Aber die genau das verwenden, können es gut gebrauchen.
 
@latiose88

Warum sollte das eher selten der Fall sein? Das ist eine Enterprise CPU und die Kunden welche so eine CPU kaufen, haben idR eigene Programme welche die Kerne nutzen können. Aber genau dafür gibt es ja diverse CPUs. Brauch man nicht so viele Kerne kann man kleiner ansetzen :) Ich finde z.B. den Epyc 8224P super als VM-Server CPU. Vor allem hat das Teil ein super P/L Verhältnis.
 
Cool Master schrieb:
Sehe ich nicht so. Bei 64 Kernen und 128 Threads hat die CPU schon Power. Wenn man eine Anwendung hat welche mit den Kernen umgehen kann ist das also in der Tat "krass" :)
Dein Antwort ist unsinnig. Der Verbrauch pro Kern hat mit der Anzahl der Kerne erst einmal gar nichts zu tun.
Du kannst jede CPU, egal ob 1 oder 400 Kerne mit wenig Leistung pro Kern betreiben - was die Kerne damit dann zu leisten imstande sind, steht auf einem anderen Blatt.
Wie Latiose (ausnahmsweise) mal richtig anspielt: Je mehr Kerne desto kleiner das Nutzerpotential. Es ist nicht alles Cloud und KI.

Cool Master schrieb:
Warum sollte das eher selten der Fall sein? Das ist eine Enterprise CPU und die Kunden welche so eine CPU kaufen, haben idR eigene Programme welche die Kerne nutzen können. Aber genau dafür gibt es ja diverse CPUs. Brauch man nicht so viele Kerne kann man kleiner ansetzen :) Ich finde z.B. den Epyc 8224P super als VM-Server CPU. Vor allem hat das Teil ein super P/L Verhältnis.

Dass die Kunden "idR eigene Programme" haben, hätte ich gerne belegt.
In vielen CloudRZs läuft darauf Standardsoftware für viele Kunden bzw. Anwender.

Ich finde den 8224P unattraktiv als VM-Server CPU. Keine meiner Arbeitsumgebungen kann 64 Threads sinnvoll nutzen (klar kann ich die Auslastung provozieren, aber das hat nichts mit Produktivität zu tun) - da setze ich lieber auf (teurere) CPUs mit weniger Kernen aber dafür erheblich mehr Leistung pro Kern (in dem Fall: Takt + Cache). Virtualisierung ändert daran nichts.
 
cha0shacker schrieb:
Es könnten trotzdem 8 IF Links sein, da jedes CCD 2 IF Links besitzt und das IO Die anscheinend das selbe ist wie beim großen Epyc
Die breite Anbindung gibt auch die Option die Links mit geringerem Takt zu betreiben und damit in Summe Energie zu sparen. Diese Option verwendet AMD wohl bei Phoenix (Chips & Cheese).

Ob dies AMD für die Standardversionen von Siena verwendet weiß ich nicht. Aber ich gehe davon aus, dass sehr viele Siena-CPUs als Customized Versions verkauft werden. Und dafür braucht AMD IMO diese Option.

CDLABSRadonP... schrieb:
Es ist trotzdem physisch das gleiche DIE. Aber AMD entscheidet sich dafür, es aus einem anderen Winkel und damit in anderen Regenbogenfarben zu photographieren.
Das sind keine Photos. Das sind künstlerische Darstellungen, die cool ausschauen. Also böse ausgedrückt Fake.

Das gilt übrigens auch für die Standard-Darstellungen des 3D V-Caches und die tollen Bilder der MI 300.

Wenn man von oben auf ein Substrat schaut sieht man bei den Chips entweder blankes Silizium oder eine Metallisierung die den Wärmeübergang vom Chips zu Heart Spreader optimiert. Die aktive Seite mit den Schaltungen zeigt zum Substrat.

Einschub​

In den guten alten Zeiten mit Wirebonding hatte die aktive Seite nach oben gezeigt. Aber für Chips mit vielen Kontakten wird Wirebonding nicht mehr angewandt.

Heute werden sogenannte C4- oder C2-Bumps auf die oberste Schichte der Metallisierung des Chips aufgebracht. Dann werden die Chips gedreht und mit der aktiven Seiten auf das Substrat aufgesetzt. Deshalb heißt Methode Flip Chip. Bei der thermischen Behandlung verschmilzt das Lot der Bumps mit den Kontaktflächen des Substrats.

C4 steht für Controled Collapse Chip Connection und ist AFAIK eine sehr sichere Verbindung. Der Nachteil ist dass die Bumps nicht beliebig verkleinert werden können, und das der Pitch relativ groß ist.
C2-Bumps (Chip Connection) werden auch Micro Bump genannt). C2-Bumps erlauben einen kleineren Pitch, ist aber AFAIK heikler was die Verbindungsqualität angeht.
Pitch ist der Abstand zwischen dem Mittelpunkt der Bumps und beinhaltet die Bumps (2 x den Radius) und Freiraum zwischen den Bumps.

Wieder zur Sache​


AMD hat sich also den Spaß erlaubt das unterschiedlich darzustellen. AMD wollte vielleicht nicht zu früh verraten, dass sie denselben IOD verwenden. Oder der Grafiker hat schlicht und einfach nicht darauf geachtet.

Zum Sinn des Wiederverwendens​


Ich habe mich zuerst auch hinreißen lassen, nur auf die Die-Fläche und die potentielle Einsparung zu achten.

Aber es ist ein wenig komplexer:
  • Das neue IOD wäre nicht 50% kleiner gewesen, da XGMI Links und PCIe Lanes nicht um 50 % weniger werden.
  • Siena ermöglich das Verwenden von IODs, die für Bergamo und Genoa nicht geeignet sind.
  • Der kleine IOD wäre zwar kein komplettes neues Design, aber trotzdem fallen Kosten Design-Kosten an. Ganz abgesehen vom eigenen Masken Set.
  • Da der derselbe IOD verwendet wird ist die die Validierung von Siena erheblich einfacher.
D. h. es ist gar nicht klar wie hoch die Einsparung bei verwenden eines kleineren IOD tatsächlich wäre.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
Zurück
Oben