News 500-Watt-CPUs: Intel Granite Rapids und Sierra Forest auf LGA 7529

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.362
Der nächste, größere Intel-CPU-Sockel erlaubt auch erneut höhere TDP-Stufen: 500 Watt sind für Next-Gen-Xeon-Lösungen wie Granite Rapids und Sierra Forest geplant, die auch ein 12-Kanal-Speicherinterface bieten. Laut Gerüchten könnte die Anzahl der Kerne auf bis zu 128 P-Cores respektive 334 E-Cores ansteigen.

Zur News: 500-Watt-CPUs: Intel Granite Rapids und Sierra Forest auf LGA 7529
 
  • Gefällt mir
Reaktionen: Bachi82, flo.murr, DJMadMax und 8 andere
Windows auf einem alten MacBook + ein sauteures Serverboard auf der Bettdecke. Kann man beides mal machen xD

Ist es ab einer gewissen Sockelgröße nicht viel einfacher die CPUs zu verlöten als einen enormen Aufwand betreiben zu müssen um den Anpressdruck immer gleich zu verteilen? Gerade bei Servern die eh nie wirklich geupgradet werden und so viel Strom verbrauchen, das das doch kein Normalsterbilcher am Ende der Nutzungszeit noch verwenden will würde das doch sicher Sinn machen oder?
 
  • Gefällt mir
Reaktionen: Mar1u5, JM31337, CDLABSRadonP... und 19 andere
Server Board einfach aufs Bett geworfen, läuft bei denen, geil! 😄😄
 
  • Gefällt mir
Reaktionen: Mar1u5, JM31337, M11E und 5 andere
Der Sockel 7529 ist ja einfach nur absurd groß...

Gibt es irgendwo eine Info, wie viele der neuen Pins für die Stromversorgung da sind und wie viele davon zusätzliches IO haben?

(Weiß wer, wie viel Ampere über so einen Pin fließen dürfen?)
 
  • Gefällt mir
Reaktionen: Der Trost, ekw0, UrlaubMitStalin und eine weitere Person
Tenferenzu schrieb:
Ist es ab einer gewissen Sockelgröße nicht viel einfacher die CPUs zu verlöten als einen enormen Aufwand betreiben zu müssen um den Anpressdruck immer gleich zu verteilen?
Verlöten ist miserabel geeignet, um Systeme anzupassen. Konfiguratoren mit Dutzenden von CPU-Optionen wären dann nicht mehr möglich, oder mit hohen Lieferzeiten verbunden, die keiner haben will.

Verlötet Server-CPU dürften daher absolute Ausnahmen bleiben wie z.B. Cascade Lake AP
 
  • Gefällt mir
Reaktionen: Clowntastisch, Mar1u5, SSD960 und 3 andere
Weiß eigentlich schon jemand wie diese Kerne in Windows Server zu lizenzieren sind? Zählen hier nur die P-Kerne oder auch die E-Kerne? HT zählt ja nicht.
 
  • Gefällt mir
Reaktionen: NMA
@Tenferenzu , @stefan92x
Stimmt schon, bei den 50 CPU SKUs die Intel pro Generation raushaut und den dutzenden an Boards ist Verlöten keine wirklich gute Idee.
 
  • Gefällt mir
Reaktionen: DaBo87 und MalWiederIch
Ich frage mich auch, wenn es irgendwann wieder mehr auf 2/4 Sockel Server mit halbwegs schnellem Interconnect geht. Weil die Größen werden so langsam schon abartig.
 
Was ein Sockel. Ist ja nun nicht so als wäre der Vorgänger klein. Muss man mal den Desktop Sockel gegen halten.

Aber die Entwicklung ist logisch. Inter-Die connects werden immer schneller aber inter-socket bleibt halt lahm. Da kann man dann lieber Silizium-Monster zusammenpappen.
@mifritscher
Ja, aber wo ist der Nachteil der großen Sockel?
 
  • Gefällt mir
Reaktionen: NMA und Mycomser
mifritscher schrieb:
Ich frage mich auch, wenn es irgendwann wieder mehr auf 2/4 Sockel Server mit halbwegs schnellem Interconnect geht.
Wird es nicht, aufgrund des Stromverbrauchs. Es braucht einfach mehr Energie, ein Bit von Sockel zu Sockel zu schicken als von Chiplet zu Chiplet. Für die Energieeffizienz sind solche Monster-Packages sehr viel wert, das wird man mit Multi-Sockel nicht schaffen.
 
  • Gefällt mir
Reaktionen: Skysnake, Fritzler, Pjack und 3 andere
arfarf schrieb:
Weiß eigentlich schon jemand wie diese Kerne in Windows Server zu lizenzieren sind? Zählen hier nur die P-Kerne oder auch die E-Kerne?
Lizensierung wird immer pro physikalischen Kern durchgeführt, also zählen E-Kerne, wenn es die mal bei einer Server-CPU gibt, als ein normaler Kern.
 
  • Gefällt mir
Reaktionen: NMA
Genau richtig für mein PiHole...
 
  • Gefällt mir
Reaktionen: netzgestaltung, crogge, AncapDude und 11 andere
@xexex Ja, das dachte ich mir schon. Irgendwie wäre das aber dann doch etwas frech. Ob ich jetzt 8 P-Kerne für eine VM zuweise oder 8 E-Kerne macht dann geschwindigkeitsmäßig halt schon was aus. Mal sehen, bis jetzt habe ich keine direkten Infos gefunden. Wäre auch interessant wie es Oracle und Co handhaben werden.
 
  • Gefällt mir
Reaktionen: zEtTlAh
bensen schrieb:
Ja, aber wo ist der Nachteil der großen Sockel?
Sehr viele Kontakte, hohe Präzision für gleichmäßigen Anpressdruck von Nöten.
@xexex Lizenz --> lizenzieren --> Lizenzierung :klugscheiss
 
  • Gefällt mir
Reaktionen: xexex
arfarf schrieb:
Wäre auch interessant wie es Oracle und Co handhaben werden.
Willst nicht wirklich wissen..... :)
„n“ Prozessorkerne werden durch Multiplizieren der Gesamtzahl aller Kerne mit dem Faktor 0,25 bestimmt. Zwecks Berechnung der Zahl an Prozessoren, die lizenziert werden müssen, werden im Falle von AMD und Intel Multicore Chips „n“ Prozessorkerne durch Multiplizieren der Gesamtzahl aller Kerne mit dem Faktor 0,50 bestimmt. Zur Berechnung der Zahl an Prozessoren, die lizenziert werden müssen, wird im Falle aller anderen, in diesem Absatz nicht genannten Hardware-Plattformen ein Multicore-Chip mit „n“ Prozessorkernen durch Multiplizieren von „n“ Kernen mit dem Faktor 0,75 bestimmt.

Es war schon immer wichtig bei Lizensierung pro Kern, CPUs mit höchstmöglicher Leistung zu nehmen, wenn es darum ging Lizenzen zu sparen. Diese speziellen Server-CPUs mit wenigen Kernen und hohem Takt gibt es ja nicht von ungefähr, eine Core Lizenz für Oracle, hat den Preis eines Mittelklasseautos.
1679318167846.png

https://www.software-express.de/hersteller/oracle/database-enterprise-edition/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Skysnake, MalWiederIch, Dgini und 2 andere
12 Kanal-Speicher und DDR5-8000!? Was ist die theoretische, maximale Speicherbandbreite!? :-o
 
  • Gefällt mir
Reaktionen: jeger und jofisch
stefan92x schrieb:
Für die Energieeffizienz sind solche Monster-Packages sehr viel wert, das wird man mit Multi-Sockel nicht schaffen.
Und auch egal, wie gut der Interconnect zwischen den Sockeln ist, der wird immer langsamer sein als die direkte Kommunikation der Kerne innerhalb der CPU.
 
rosenholz schrieb:
Und vergessen wir nicht die "logische Entwicklung" einer 12-Kanal-Speicherschnittstelle, denn offenbar brauchen wir noch mehr Speicherbandbreite, um schlecht optimierte Software auszugleichen. Wer braucht schon eine Optimierung, wenn man das Problem einfach mit mehr Hardware lösen kann, oder?

Naja, so viele Kerne müssen auch mit Daten versorgt werden. Wie ist denn die Speicherbandbreite pro Core dann?
 
  • Gefällt mir
Reaktionen: ThirdLife
Smartbomb schrieb:
Sehr viele Kontakte, hohe Präzision für gleichmäßigen Anpressdruck von Nöten.
Das sind kleine mechanische Probleme. Um den Sockel rum wird das Routing auch nicht gerade leichter.
Aber im Vergleich zur Alternative sind das Peanuts.
 
  • Gefällt mir
Reaktionen: Zarlak
Zurück
Oben