News Für kleinere Zen-6-Epyc-CPUs: AMDs neuer Sockel SP8 besitzt 5.572 Kontaktflächen

Sicher, dass auf SP8 Threadripper laufen wird? Bei SP6 (übrigens mit Hexa-Channel) gabs ja nur die Epyc Siena CPUs, die im grunde abgespeckte und runtergetaktete Epycs waren. Threadripper lief auf nem anderen Sockel (sTR5).
 
@qiller sTR5 ist eine Variante von SP6, physisch sind die beiden Sockel identisch. Dürfte hier ähnlich laufen, dann gibt es eine Variante von SP8 für Threadripper.
 
  • Gefällt mir
Reaktionen: Tigerfox
stefan92x schrieb:
sTR5 ist eine Variante von SP6, physisch sind die beiden Sockel identisch.
Aber nicht elektrisch. SP6 wird denk ich wieder für die Zen6c Epycs sein, wogegen für die Zen6-Threadripper sicherlich wieder ein eigener Sockel kommen wird (der evt. auf SP6 aufbaut).
 
Vielleicht sind sie aber auch mal so clever das endlich zu vereinen. Denn why!?
Es ist schon zuletzt nur noch mehr Aufwand für eigentlich das gleiche gewesen. Siena von threadripper trennen bei 99% Gemeinsamkeiten aber nem anderen Sockel .. sowas von nicht nachhaltig, vor allem da die eh ständig den Sockel wechseln in dem Bereich. Also reichen auch 2 anstatt 3.

Zumal Intel bei DMR ja den kleinen Sockel ganz killt, da gibs nur noch den großen.
 
  • Gefällt mir
Reaktionen: qiller
@Volker Glaubt ihr, ihr werdet dann relativ zeitnah irgendwie ein Zen6-System in die Finger kriegen können für eigene, unabhängige Benchmarks?
 
Wir könnten wenn wir Server testen würden vermutlich.
Aber machen wir nicht :D
 
Schade. Dann pack Dir einfach als Besuchergeschenk ein Rack ein und nimm‘s mit nach Hause :D
 
Volker schrieb:
So wie ich das damals bei SP6 vs sTR5 verstanden hatte, gings wohl um Kosten. SP6 sollte einfach billiger sein. Die 8004er Epycs unterstützen nur Hexa-Channel und die SP6-Mainboard haben auch keinen Chipsatz, der an die CPU angebunden werden muss (die 8004er Epycs agieren als SoC). sTR5-Mainboards hingegen haben noch einen Chipsatz (TRX50, WRX90). Zumindest was die Mainboard Preise angeht, nimmt sich aber sTR5 und SP6 nicht allzuviel. Von daher hab ich auch keine Ahnung, warum man diese Unterscheidung macht.
 
Ja wobei ein Board ja nochmal was anderes als nur der Sockel ist. Nen Chipsatz bindet man ja auch nur über PCI-Lanes an, und die Threaddis kosten auch bis zu 12.000 Euro. Die Kosten der Infrastruktur würden vermutlich insgesamt heutzutage günstiger sein wenn es nur eine anstatt zwei Plattformen wären, wenn man den ganzen Rattenschwanz von der Entwicklung, Validierung, vielen separaten Dinge hier und da alles berücksichtigt. Zumal sie ja explizit viele 1P-Epycs vermarkten usw usw.
 
Rickmer schrieb:
Das erklärt nur 256 (oder ein paar mehr) der zusätzlichen 1440 Pins...

Gleichermaßen braucht PCIe auch nicht unendlich viele Pins.
Doch, braucht es. Weil du für 16 Lanes nicht nur 16 Pins oder für 64 Bit nicht nur 64 Pins brauchst. Wir leben nicht mehr im Jahr 1980, als Signale auch ohne Geschwindigkeitsverlust hätten getrommelt werden können. Um die Signalintegrität bei den heutigen Highspeed-Verbindungen garantieren zu können, müssen die Signal-Pins durch Ground-Pins abgeschirmt werden - viele davon.

Auch die Energieversorgung ist deutlich komplexer geworden. Nicht nur, weil die Chips inzwischen enorme Leistungsaufnahmen haben, sondern auch, weil die Leistungsaufnahme durch Energiesparmechanismen im Millisekundentakt extrem schwankt und dabei die Spannung trotzdem stabil bleiben muss. Dafür werden totsicher mehr Pins benötigt, als unter perfekten, gleichförmigen Bedingungen zum Transport der Ströme theoretisch nötig wären.
 
Rickmer schrieb:
Das erklärt nur 256 (oder ein paar mehr) der zusätzlichen 1440 Pins...

Gleichermaßen braucht PCIe auch nicht unendlich viele Pins.
Ich glaube du vertust dich da. Die Data Pins mit den extrem hohen Frequenzen kannst du nicht dicht an dicht packen. Schau dir mal ein pinout an, wie viele VSS Pins zur Abschirmung dazwischen liegen. Da kommst du grob auf 24 Pins pro Lane.

Das Problem ist nur, dass die Gerüchte von 128 PCIe Lanes ausgehen.

Könnten aber auch gut für mehr Power drauf gehen.

Edit: Zu langsam
 
TeeKayEV schrieb:
Doch, braucht es. Weil du für 16 Lanes nicht nur 16 Pins oder für 64 Bit nicht nur 64 Pins brauchst. Wir leben nicht mehr im Jahr 1980, als Signale auch ohne Geschwindigkeitsverlust hätten getrommelt werden können. Um die Signalintegrität bei den heutigen Highspeed-Verbindungen garantieren zu können, müssen die Signal-Pins durch Ground-Pins abgeschirmt werden - viele davon.
bensen schrieb:
Ich glaube du vertust dich da. Die Data Pins mit den extrem hohen Frequenzen kannst du nicht dicht an dicht packen. Schau dir mal ein pinout an, wie viele VSS Pins zur Abschirmung dazwischen liegen. Da kommst du grob auf 24 Pins pro Lane.

Es gibt von AMD öffentliche Pin Layout Maps. Hier für SP5:
https://upload.wikimedia.org/wikipedia/commons/9/94/Socket_SP5_pinmap.svg

Für Memory Channel A/G mal nachgezählt belegt der eine Fläche von 81x3 Pins, also 243 Pins insgesamt.
Wenn man noch die Flächen drumrum mit zählt kommt man auf maximal ca. 285 Pins für 2 Speicherkanäle.

Daher: auch wenn ich beim ersten Beitrag vergessen hatte, dass eine Signalleitung zwei Pins braucht, von den 1440 neuen Pins gehen nur ein Bruchteil an die Speicheranbindung.

[EDIT: Nevermind, ich sehe, dass der Speicherkanal-Block auf beiden Seiten der CPU gespiegelt vorhanden ist. Das sind dann 285 Pins pro 1 Speicherkanal. Okay.]

Gleichermaßen auch wenn man sich PCIe anschaut. Wie du auf 24 Pins pro Lane kommst, müsstest du mir mal im Detail anhand eines Screenshot erklären. Ich komme auf 60-70 Pins für einen 16 Lane Block.
 
Zuletzt bearbeitet:
Rickmer schrieb:
Gleichermaßen auch wenn man sich PCIe anschaut. Wie du auf 24 Pins pro Lane kommst, müsstest du mir mal im Detail anhand eines Screenshot erklären. Ich komme auf 60-70 Pins für einen 16 Lane Block.
Es sind 12. Hatte auf den Weg dorthin vergessen durch zwei zu teilen. Teilweise werden die Lücken mit VDD gefüllt, also eher 10, falls das Layout ähnlich ist. Ich hatte AM5 als Basis genommen.

Keine Ahnung wie du auf 60-70 kommen willst. Es sind ja schon je ein Pärchen pro Richtung, also 64 Data Pins.
 
Rickmer schrieb:
Das erklärt nur 256 (oder ein paar mehr) der zusätzlichen 1440 Pins...

Gleichermaßen braucht PCIe auch nicht unendlich viele Pins.
Wie kommst du auf 256 Pins?
Dir ist schon klar, dass ein DDR5 Sockel 288 Kontakte besitzt?
Vielleicht erstmal einlesen, statt komische Nummern präsentieren. ;-)
Ergänzung ()

Tigerfox schrieb:
sTR5 wieder nur zwei Generationen - absolut genial AMD!
TR sind halt einfach ein Abfallprodukt der EPCY. Nimm es oder lass es - der Markt wird zu klein sein, als dass sich dort großer Aufwand lohnt.
 
Nagilum99 schrieb:
TR sind halt einfach ein Abfallprodukt der EPCY. Nimm es oder lass es - der Markt wird zu klein sein, als dass sich dort großer Aufwand lohnt.
Mit der Herangehensweise wird der Markt auch nie größer werden. Enthusiasten sind zwar eher bereit, das ganze System auszutauschen als andere, aber bei Mainboardpreisen von 700 bis 1.000€ mit wenigen Ausnahmen unter 600€ sollte man doch eher höhere Lebensdauer als niedrige erwarten, vor allem ohne großen Mehrwert (was wird ein Mainboard Zen6 einem TRX50/WRX80 vorraus haben? Ggd. MRDIMM, sonst nichts).

Wie es im Serverbereich aussieht weiss ich nicht, aber ohne große Not wird hier doch wohla uch kein Geld zum Fenster rausgeschmissen.

So ganz Abfallprodukte ohne Entwicklungsaufwand sind die TR AFAIK aber nicht - Quadchannel und den IOD der kleinen TR gibt es bei Epyc nicht. Bin aber nicht im Bilde, ob das tatsächlich dedizierte Hardware oder nur softwareseitige Beschränkungen sind.
 
Zurück
Oben