News 500-Watt-CPUs: Intel Granite Rapids und Sierra Forest auf LGA 7529

Was ich eigentlich sehr interessant fand ist, das Intel beim Xeon von Intel 3 für 2024 spricht und beim Desktop und Notebook von „Intel 20A“. Man hat entweder die Kapazitäten nicht oder will auf Nummer sicher gehen.
 
Das zieht sich bei Intel schon seit einigen Jahren durch, dass man neue Architekturen und Prozesse erst mit den kleinen Consumerchips in Produktion bringt, bevor man sich an die großen Serverchips wagt.

Ist in der Tat eine Art auf Nummer sicher gehen, wenn man Stück für Stück die Chips vergrößert.
 
Kenshin_01 schrieb:
In einem RZ interessieren die Stromrechnungen für die Server meist eher weniger. Und da träumt auch keiner davon sich mit irgendwelchen Raumtemparaturen von 25°C und mehr rumschlage zu müssen.

Es mag schon sein, dass die Stromrechnung in den 2010er Jahren bis inkl. 2021 wenig interessiert hat, und vielleicht in Island immer noch wenig interessiert, aber fuer hiesige Serverbetreiber schaut das wohl oft anders aus. Wenn so ein Server 100W mehr verbraucht, und dazu noch einmal 100W fuer die Kuehlung dazukommen, sind das im Laufe von 50000 Betriebsstunden 10MWh Mehrverbrauch, und das ist bei aktuellen Strompreisen ein ordentliches Suemmchen. Liefert die CPU mit 100W mehr Verbrauch auch so viel mehr Leistung, dass man das zahlen will? Uebrigens gab es auch in den Jahren den billigen Stroms regelmaessig Meldungen ueber billigere Kuehlloesungen, also hat das Thema auch damals interessiert, heute um so mehr.

Aber selbst wenn die Stromrechnung egal ist (also in Island), haben Rechenzentren das Problem, dass die Infrastruktur fuer einen bestimmten Stromverbrauch und eine gewisse Waermeproduktion ausgelegt ist. Und wenn man einen Server, der 600W gebraucht hat, durch einen mit 800W ersetzt, dann kann es leicht sein, dass das Stromnetz oder die Kuehlung das nicht mehr schafft. Dann gibt's Leute, die davon schreiben, dass mehrere Server durch einen ersetzt werden, aber ich glaube da nicht dran. Selbst wenn alte Aufgaben auf weniger Server konsolidiert werden, es gibt neue Aufgaben, die dann neue Server brauchen. Und wenn im Serverraum Hoeheneinheiten frei werden, will man die nicht leer herumstehen lassen, nur weil die konsolidierten Server zu durstig sind.

Gerade Anbieter von z.B. virtuellen Servern freuen sich über mehr Kerne/Rack. Macht das ganze einfach wesentlich günstiger. Und Software für Server, welcher Art auch immer, ist auch für solchen Betrieb gemacht.

Bzw. ergibt sich das aus der Aufgabenstellung: Wenn Amazon fuer eine Anfrage auf einem P-Core 50ms CPU-Zeit braucht und auf einem E-Core 100ms, dann koennen beide Arten von Cores so eine Anfrage schnell genug bearbeiten, wenn ein Core frei ist. Ein Server mit 336 E-Cores kann dann 3360 Anfragen pro Sekunde bearbeiten, waehrend ein Server mit 128 P-Cores 2560 Anfragen pro Sekunde bearbeiten kann; entsprechend interessant sind Server mit mehr E-Cores.

Sachen die von einem Server kommen sind nicht selten sehr optimiert. Sonst könnten die Hersteller auch keine astronomischen Preise verlangen.

Ich nehme an, Du meinst Software, die auf einem Server laeuft. Manche ist optimiert, manche weniger. Der Preis wird verlangt, weil die Kunden das zu zahlen bereit sind und weil der Softwareanbieter meist wenig Konkurrenz hat (auch der Server-Software-Markt ist meist ein Winner-Takes-All Markt wie das halt in der IT meistens so ist).
 
mae schrieb:
Es mag schon sein, dass die Stromrechnung in den 2010er Jahren bis inkl. 2021 wenig interessiert hat, und vielleicht in Island immer noch wenig interessiert, aber fuer hiesige Serverbetreiber schaut das wohl oft anders aus.
Es interessiert deshalb nicht, weil man dies entsprechend bepreist. Wer sich einen Server mit 384 Kernen zulegt, der hat auch eine entsprechende Anwendung die den Stromverbrauch zu Geld wandelt. Natürlich ist die Effizienz durchaus wichtig, aber das ist wiederum ein anderes Thema, die dürfte eigentlich besser sein, als wenn man mehrere Server für diesen Zweck nimmt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch und Kenshin_01
Kenshin_01 schrieb:
In einem RZ interessieren die Stromrechnungen für die Server meist eher weniger. Und da träumt auch keiner davon sich mit irgendwelchen Raumtemparaturen von 25°C und mehr rumschlage zu müssen.
Da liegst du durchaus sehr falsch. Allerdings hat die TDP alleine keine Aussagekraft über die Energieeffizienz - lediglich über die Leistungskonzentration.

rosenholz schrieb:
Dank eurer Weisheit sind wir nun alle aufgeklärt und wissen, dass 128 Kerne mit 12 Channels keineswegs überdimensioniert sind. Natürlich sind mehr Kerne und höhere TDPs genau das, was Rechenzentren brauchen. Schließlich ist es ja völlig normal, dass in diesen heiligen Hallen der Technik Energieeffizienz und Wärmeabfuhr nebensächlich sind. Wer braucht schon grüne Rechenzentren, wenn wir stattdessen unsere Serverkapazität blindlings maximieren können?
[bla]
Aber Ihr Serveroberchecker lebt schließlich in einer alternativen Welt, in der Strom unbegrenzt vorhanden ist und sich niemand um den CO2-Fußabdruck sorgt. Schieben wir einfach die Realität beiseite und verlassen uns auf die grenzenlose Weisheit von Servergurus wie euch.
Eigentlich hat nur jeder deiner sehr schlecht formulierten Aussage widersprochen, die sagt: Mehr Verbrauch ist mist!!EINSELF
Die Aussagen waren primär: s.o. - die TDP sagt nichts über die Energieeffizienz des einzelnen Servers aus.

Deiner Aussagen nach wären Server mit 300 W TDP viel besser - auch wenn sie dann überproportional weniger Leitstung hätten. Wer hier der "Profi" ist...
 
  • Gefällt mir
Reaktionen: Newbie_9000, Jarhead91 und Zarlak
Tenferenzu schrieb:
Ist es ab einer gewissen Sockelgröße nicht viel einfacher die CPUs zu verlöten als einen enormen Aufwand betreiben zu müssen um den Anpressdruck immer gleich zu verteilen?
Ja eigentlich schon, aber es gibt einen Haken.
Hauptplatinen gehen 1000x schneller kaputt als CPUs.
Bei jedem dämlichen Spawa / Mosfett schießmichtot Ausfall das Mobo + CPU Assy auszutauschen ist echt nervig.
Die CPU(s) kosten dann mal 2x 5-10k$ und die Platine aber nur wenn es hoch kommt 1k$(alles Fantasiepreise).
Auch muss man bedenken, Intel hat dutzende CPU Versionen, man müsste in der Lagerhaltung jede Platine mit jeder CPU auf Lager haben.

Nein ich denke wohl das wird nicht gemacht, weil es unwirtschaftlich wäre.
 
  • Gefällt mir
Reaktionen: Newbie_9000
stefan92x schrieb:
Dein Denkfehler ist, dass du glaubst, dass CPUs mit 500W TDP nicht energieeffizient wären.
Sind sie auch nicht, so fette Heizkörper will kein Mensch haben, Leistung hin oder her. Die meisten hier haben schlicht zu viel Geld über und können nicht in Server-Dimensionen denken, was dort wichtig ist und was nicht. Andere Welt.
 
Zarlak schrieb:
@Berserkervmax Was hat das Video mit dem Thema hier zu tun?
Es wurde behauptet niemand übertaktet solche CPUs..
Was nicht stimmt würde ich sagen.
Denn im Video geht es nicht nur um das ableben eines AMDs wenn du mal reingeschaut hättest
 
Artikel-Update: Neue Folien zeigen die Details der Plattform. Wenngleich diese bereits aus dem Jahr 2021 stammen sollen, dürften sich Basis-Elemente nicht verändert haben. Demnach wird die 500-Watt-Plattform oberhalb der regulären SP-Modelle angesiedelt, die weiterhin um 350 Watt rangieren könnten.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: konkretor, BrollyLSSJ, FR3DI und eine weitere Person
rosenholz schrieb:
Oh Freude, mehr stromhungrige CPUs mit größeren Sockeln und höheren TDP-Werten. Genau das, was die Welt braucht! Denn wer will nicht mehr für Stromrechnungen zahlen und sich mit Kühllösungen herumschlagen, die kaum mit der Wärmeabgabe dieser Giganten mithalten können?

Und vergessen wir nicht das Gerücht von bis zu 128 P-Kernen und 334 E-Kernen. Denn anscheinend sind mehr Kerne immer besser, auch wenn die meiste Software damit kämpft, sie effizient zu nutzen. Aber hey, wer kümmert sich schon um die Praktikabilität, wenn wir uns damit brüsten können, die meisten Kerne zu haben, oder?

Und vergessen wir nicht die "logische Entwicklung" einer 12-Kanal-Speicherschnittstelle, denn offenbar brauchen wir noch mehr Speicherbandbreite, um schlecht optimierte Software auszugleichen. Wer braucht schon eine Optimierung, wenn man das Problem einfach mit mehr Hardware lösen kann, oder?

Aber hey, wenigstens bekommen wir mit DDR5-8000 schnellere Speichergeschwindigkeiten, denn das ist eindeutig das drängendste Problem in der CPU-Welt im Moment. Vergessen Sie die Verbesserung der Effizienz oder die Reduzierung des Stromverbrauchs. Konzentrieren wir uns einfach darauf, die Grenzen des technisch Machbaren auszuloten, unabhängig davon, ob es tatsächlich Sinn macht oder nicht.
©chatgpt-4
Not sure if trolling or just stupid
 
  • Gefällt mir
Reaktionen: Jarhead91, Smartbomb und bensen
Da bin ich mal gespannt wie die Kühlkonzepte für solche Boliden aussehen.
Nach meiner Meinung lassen sich solche CPUs mit Luft nicht mehr effizient kühlen.
Eine CPU die aus thermischen Gründen nur bei 75% des möglichen läuft kann es ja auch nicht sein.
 
Salutos schrieb:
Nach meiner Meinung lassen sich solche CPUs mit Luft nicht mehr effizient kühlen.
Das ist eben keine kleine Desktop CPU. Eine Sapphire Rapids CPU hat z.B. eine Fläche von 1600mm2. Das ist mehr als doppelt so viel wie ein AD102 auf einer 4090. Wenn man mit dem Kühler einer 4090 bis zu 600W abführen kann, dann ist es mit diesen großen CPUs ein Kinderspiel.
Man darf die 500W auch gerne durch die Anzahl der Cores teilen. Das sind bei 128 Cores z.B. ca. 4W pro Core. Die gleichen Watt pro Core hätte man z.B. bei einem 7950X, der auf 65W begrenzt ist. Natürlich lässt sich das sehr einfach kühlen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, Smartbomb, Epistolarius und eine weitere Person
taeddyyy schrieb:
Not sure if trolling or just stupid
Der scheint Beiträge von ChatGPT formulieren zu lassen. Interessante Idee, aber sehe ich seine Namen/das Profilbild ignoriere ich den Beitrag direkt.
 
  • Gefällt mir
Reaktionen: Skysnake, Kitsune-Senpai, locke87 und 2 andere
rosenholz schrieb:
Oh Freude, mehr stromhungrige CPUs mit größeren Sockeln und höheren TDP-Werten. Genau das, was die Welt braucht! Denn wer will nicht mehr für Stromrechnungen zahlen und sich mit Kühllösungen herumschlagen, die kaum mit der Wärmeabgabe dieser Giganten mithalten können?

Und vergessen wir nicht das Gerücht von bis zu 128 P-Kernen und 334 E-Kernen. Denn anscheinend sind mehr Kerne immer besser, auch wenn die meiste Software damit kämpft, sie effizient zu nutzen. Aber hey, wer kümmert sich schon um die Praktikabilität, wenn wir uns damit brüsten können, die meisten Kerne zu haben, oder?

Und vergessen wir nicht die "logische Entwicklung" einer 12-Kanal-Speicherschnittstelle, denn offenbar brauchen wir noch mehr Speicherbandbreite, um schlecht optimierte Software auszugleichen. Wer braucht schon eine Optimierung, wenn man das Problem einfach mit mehr Hardware lösen kann, oder?

Aber hey, wenigstens bekommen wir mit DDR5-8000 schnellere Speichergeschwindigkeiten, denn das ist eindeutig das drängendste Problem in der CPU-Welt im Moment. Vergessen Sie die Verbesserung der Effizienz oder die Reduzierung des Stromverbrauchs. Konzentrieren wir uns einfach darauf, die Grenzen des technisch Machbaren auszuloten, unabhängig davon, ob es tatsächlich Sinn macht oder nicht.
©chatgpt-4

Wenn wir mehr Rechenleistung mit weniger Server realisieren können, ergibt das schon Sinn. Das hier hat nichts mit dem privaten Gebrauch zutun. Je nach Anwendungsbereich sind mehr Kerne oder weniger aber hoch taktende Kerne sinnvoll. Die Software, die auf solchen Maschinen läuft, kann auch damit umgehen.
 
  • Gefällt mir
Reaktionen: Jarhead91
Schade, dass Sierra Forest AP gecancelt zu sein scheint. Bei den großen Kernen stellt man aller Vorraussicht nach Gleichstand zu AMD her (128 vs 128) aber die ~144 Kerne von Sierra Forest SP sehen neben ZEN5c mit 192 Kernen + SMT dämlich aus.
 
Ist schon cool, wie hoch das skaliert. Theoretisch könnte einer dieser Dualsocket- Server mit mind. 6 TB RAM (24x256GB Module) und 4 Grid-Karten unseren gesamten Standort mit 250 Usern ohne Notebook (inkl. einigen Dutzend CAD-Usern) per ESX-Virtualisierung versorgen.. Ok, man hätte keine Redundanz, aber leistungsmäßig sollte es reichen
 
rosenholz schrieb:
Oh Freude, mehr stromhungrige CPUs mit größeren Sockeln und höheren TDP-Werten. Genau das, was die Welt braucht! Denn wer will nicht mehr für Stromrechnungen zahlen und sich mit Kühllösungen herumschlagen, die kaum mit der Wärmeabgabe dieser Giganten mithalten können?
Hast du das Gefühl das wird für dein privates Gammel-NAS entwickelt ?

Eine dieser CPUs würde bei uns glatt drei Dual-Socket 2x20 Core ESXi Hosts ersetzen (Xeon Gold 6000er aus 2020). Wenn die 500W frisst ist das immer noch billiger als 6*125 W plus diverse Netzteile + Memory etc. und hat am Ende sogar noch mehr Cores übrig zum verteilen (128 Cores vs. 120 Cores) und diese sind auch noch schneller und effizienter und von den E-Cores reden wir da noch gar nicht !

rosenholz schrieb:
Und vergessen wir nicht das Gerücht von bis zu 128 P-Kernen und 334 E-Kernen. Denn anscheinend sind mehr Kerne immer besser, auch wenn die meiste Software damit kämpft, sie effizient zu nutzen. Aber hey, wer kümmert sich schon um die Praktikabilität, wenn wir uns damit brüsten können, die meisten Kerne zu haben, oder?
Virtualisierung ? Kennste ? Nein ? Warum dann hier rumtröten ?

rosenholz schrieb:
Und vergessen wir nicht die "logische Entwicklung" einer 12-Kanal-Speicherschnittstelle, denn offenbar brauchen wir noch mehr Speicherbandbreite, um schlecht optimierte Software auszugleichen. Wer braucht schon eine Optimierung, wenn man das Problem einfach mit mehr Hardware lösen kann, oder?
Und fette DBs betreiben sich halt einfach von allein. Hör doch auf zu plappern wenn du keine Ahnung hast wofür die Hardware benutzt wird.

rosenholz schrieb:
Aber hey, wenigstens bekommen wir mit DDR5-8000 schnellere Speichergeschwindigkeiten, denn das ist eindeutig das drängendste Problem in der CPU-Welt im Moment. Vergessen Sie die Verbesserung der Effizienz oder die Reduzierung des Stromverbrauchs. Konzentrieren wir uns einfach darauf, die Grenzen des technisch Machbaren auszuloten, unabhängig davon, ob es tatsächlich Sinn macht oder nicht.
Die Effizienz wird doch verbessert ? Wenn ich mit einer dieser CPUs drei bis vier vollwertige Host-Maschinen mit jeweils Dual Socket ablösen kann wo ist das nicht effizient ? Erklär doch mal du Experte.
 
  • Gefällt mir
Reaktionen: Nagilum99, Jarhead91, MalWiederIch und 13 andere
Sobald der rauskommt kann ich meinen derzeitigen in Rente schicken und habe für die nächsten Jahre Ruhe :daumen:
 
Zurück
Oben