News AMD Epyc im SP 7: Nach GPUs streben wohl auch CPUs die Kilowatt-Marke an

DevPandi schrieb:
Während der Jahrtausendwende und in den Jahren danach gab es riesige Sprünge in der Fertigungstechnik, wodurch der Energiebedarf trotz steigender Rechenleistung sinken konnte.

Eigentlich ist gerade da langsam das Dennart-Scaling zu Ende gegangen, und man dachte, dass man mit tieferem Pipelining und hoeherem Verbrauch die Taktfrequenzen trotzdem noch weiter steigern kann; es gab schon Ankuendigungen fuer 10GHz von Intel, und Tejas wurde mit der Perspektive auf richtig viel Verbrauch entwickelt (und bei AMD gab's laut Mitch Alsup, der beteiligt war, ein K9-Projekt, das in eine aehnliche Richtung ging, waehrend anderswo was anderes unter K9 geleakt wurde). Jedenfalls wurden sowohl Tejas im Mai 2004 als auch K9 ungefaehr um dieselbe Zeit eingestampft; Mitch Alsup nennt als Grund nur, dass der Befehl zum Einstampfen von oben kam. Ich vermute, beide Firmen haben auf eine Kuehltechnologie gesetzt, die sich um diese Zeit als nicht guenstig genug realisierbar herausgestellt hat.

Jedenfalls sehe ich nicht, dass damals oder jemals der Verbrauch gesunken ist, ausser wenn das das Ziel war. Zu den meisten Zeitpunkten haben die CPUs mit dem hoechsten Verbrauch fuer ihre Zeit tendentiell mehr verbraucht als die entsprechenden CPUs von frueher und tendentiell weniger als die CPUs von spaeter. Nur der AMD FX-9590 konnte mit 220w die Spitze im Verbrauch laenger halten, das lag aber wohl daran, dass AMD die Linie in Richtung Laptop weiterentwickelt hat (Excavator), und weil Intel auch ohne Verbrauchsspitze AMD in der Performance locker abgehaengt hat. Aber inzwischen ist das auch uebertroffen worden.
 
  • Gefällt mir
Reaktionen: Qyxes, Skysurfa und CDLABSRadonP...
@DevPandi : Ich würde Clearwater Forest hier nicht so im Vordergrund des Watt-pro-CPU Rennens sehen, CF ist ja als Viel-E-Kern CPU ausgelegt, und sollte deshalb auch im < 500 Wh Bereich bleiben. Bei AMD würde ich ähnliches bei den Zen 6c EPYCs vermuten.

Ich glaube, daß der Stromverbrauch bei gerade bei Server CPUs v.a. in Relation zur Leistung stehen muss, und die Fragen sind dann, wofür der Server eingesetzt werden soll, und wieviel Leistung man pro Wattstunde erhält. Bei KI Beschleunigern sind die CPUs ja eher "Traffic Cop", und der Großteil des Stromverbrauchs entfällt auf die GPUs bzw ASICs. Und da marschieren wir ja bereits auf mehrere kWh pro Einheit zu.

Sowohl AMDs EPYCs als auch Intels Xeons sind jetzt Chiplet/Kachel Designs, und bei beiden geht der Trend deshalb stark zu Ein-Sockel Systemen hin (bei AMD noch stärker als bei Intel). Bei dem Trend von mehr Watt pro Sockel -> Wasserkühlung verbleibt aber auch die nötige Kühlung von RAM und SSDs, was auch in 2025/26 weiterhin direkt im Luftstrom passiert, dh mit flüsterleisen Serverracks ist's weiterhin erstmal nichts. Außer es baut jemand einen Server der komplett Immersionsgekühlt ist.
 
mae schrieb:
Jedenfalls sehe ich nicht, dass damals oder jemals der Verbrauch gesunken ist, ausser wenn das das Ziel war.
Mit fällt da 7950X vs 9950X ein, selbe TDP aber 230W PPT vs 200 W PPT.
2600K 95W -> 3770K 77W war auch ein Downgrade
P4 zu C2D
 
Zuletzt bearbeitet:
stefan92x schrieb:
@Erkekjetter Aber ich habe den Eindruck, dass wir da zumindest eine Atempause haben. Arrow Lake ist sparsamer als Raptor Lake, Zen 5 steht genauso bei 170W TDP wie Zen 4. Während bei Servern wirklich jede Generation die TDP erhöht, ist das im Desktop zuletzt eben nicht mehr passiert.
Ich denke allerdings auch, daß die 1 kW+ die Obergrenze sein werden, es also einige Zen6 Modelle geben wird, die deutlich darunter bleiben. Denn die Entwicklung hin zu kleineren, aber trotzdem sehr fähigen Server Setups ist ja schon beeindruckend. Gerade die kleinen Zen5 EPYCs (4000er Serie, "Grado") sind bei ihren 170 Wh TdP eine echte Ansage. Wasserkühlung ist für die nicht nötig.
 
Das war die Präsentation von Microloops eines Anbieters von Kühlungslösungen und nicht von AMD. Also stand im Mittelpunkt des Vortrags wie viel Wärme die Kühlungslösungen wegschaffen können. Nicht was Venice verbraucht.

Die 1000 W Power wird Venice noch deutlich verfehlen. STH hat im Mai 2025 eine venice Kühlplatte mit 600 W gezeigt. Aber klar ist die Steigerung der Anzahl an Kernen wird auch eine weitere Steigerung bei der Power erfordern. Ganz so wie es bei den GPUs der Fall ist.

Während der Jahrtausendwende und in den Jahren danach gab es riesige Sprünge in der Fertigungstechnik, wodurch der Energiebedarf trotz steigender Rechenleistung sinken konnte.
Die gute alte Zeit der Halbleitertechnik ging ca 2005 zu Ende, den von nun an waren die Leckströme nicht mehr vernachlässigbar. Schlagworte: Ende des Dennard Scaling oder auch Powerwall. Bei den CPU-Frequenzen ging es nun nur noch in Tippelschrittchen weiter.

Seit dieser Zeit wird das Herstellen von Halbleiterschaltungen immer aufwändiger, weil man sich ständig neue Tricks einfallen lassen musste, um in den Transistoren die Leckströme zu begrenzen.

Auf der anderen Seite wurde das Powermanagement auch bei den CPUs immer wichtiger. D. h. abschalten nicht benötigter Transistoren.

stefan92x schrieb:
Aber ich habe den Eindruck, dass wir da zumindest eine Atempause haben. Arrow Lake ist sparsamer als Raptor Lake, Zen 5 steht genauso bei 170W TDP wie Zen 4. Während bei Servern wirklich jede Generation die TDP erhöht, ist das im Desktop zuletzt eben nicht mehr passiert.
Bei den CPUs vielleicht.

Bei den GPUs werden wir es Mal in Ruhe abwarten.

Majestro1337 schrieb:
Ich nehme einen als heizaggregat für meine Fritteuse!
Wir haben mit unseren 68000 damals gelästert, dass Intel bald Toster mit Pentiums als Heizelemente anbiet
 
  • Gefällt mir
Reaktionen: eastcoast_pete und CDLABSRadonP...
stefan92x schrieb:
Eine erwartbare und natürliche Entwicklung, seit Chiplet-Konzepte funktionieren und konsequent umgesetzt werden. Statt mehr Sockel im Server zu verbauen, vergrößert man halt immer weiter das Package und verbaut mehr Chiplets in einer CPU, was das ganze halt auch effizienter macht (weniger Kommunikation zwischen Sockeln). Und dann ist es halt einfach so, dass 1x 1000 Watt besser ist als 4x 300 Watt.
ElliotAlderson schrieb:
So ein Quatsch. Es spielt keine Rolle, wie viel ne Server CPU verbrät, sondern wie Effizient sie ist.
Wenn eine 1000 W CPU schneller ist als fünf 300 W CPUs, dann ist erstere besser.
Leider verstehen das zu viele Leute nicht, denn Multi-Sockel hat im Gegensatz zu Multi-Graka (i.d.R. Multi-GPU genannt, was keine sinnvolle Beschreibung ist!) halt nie ernsthaft Fuß im Consumersegment fassen können. Daher bewegt sich das außerhalb des Horizonts von vielen.

Bei Multi-Graka ist jedem halbwegs cleveren klar, dass es besser ist, wenn man aus zwei Grakas mit 250W und X GiB Speicher eine mit 500W und 2X GiB Speicher macht und die Kommunikation zwischen den DIEs direkt realisiert statt über Umwege. Bei CPUs sieht es genauso aus.

Achtung: Dass soll keine Schönmalerei der Trends im Consumergrakamarkt der letzten Jahre sein. Um mal noch nicht mal eine negativ betrachte Karte zu nehmen: Die 4090 hatte bei ähnlicher DIE-Size 450W TDP statt den 250W einer GTX Titan. Selbst gedrosselt war der Trend unverkennbar.

Gleichzeitig aber gilt natürlich...
Boulettendieb schrieb:
Naja, Heute sind wir bei 500-1000 Watt für den High End GamingPC, wenn der zukünftige das doppelte verbraucht, aber die vierfache Leistung hat, geht die Rechnung weiterhin auf..
Vor 10 Jahren waren ~500 Watt viel, vor 20 warens 200 und noch 10 Jahre früher war der einzige Lüfter im System im Netzteil.
Außerdem ist ja weiterhin keiner gezwungen da mitzumachen, solang die Effizienz steigt.
Meine Systeme verbrauchen seit 15 Jahren um die 300 Watt und mir fehlt nix.
...dass vor zehn, fünfzehn Jahren ein Highendsystem eben oft noch mehrere Grakas enthielt. Also irgendwie hängt das schon alles zusammen --- und ja, ich gehe auch davon aus, dass es bei Consumergrakas eben mehrere Chiplets geben wird, die eine Giganto-GPU mit entsprechender Leistungsaufnahme bilden werden.
 
Viper816 schrieb:
AMD wird immer mehr zum Intel von heute.
Und Intel entwickelt sich mit dem auf Sparsamkeit gedowngradeten und eher erfolglosen ArrowLake zum neuen AMD.

Sie haben die Meldung nicht verstanden.

Der Strombedarf des Prozessors steigt, weil mehr Kerne, mit mehr Rechenleistung in einen Prozessor passen. Die einzelnen Kerne verbrauchen weniger als früher. Mehr Leistung - bei weniger Watt - die in den Server (oder Rechenzentrum) laufen.

Im Prozessoren im Laptop ist AMD viel besser als Intel, bezüglich der Energieeffizienz. Und der Leistung. Ein Prozessor der mit GPU und Anbindung unter 10 Watt bleibt wäre hier von AMD jedoch wünschenswert, mit 15 Watt ist bei U-Prozessoren ist das mehr eine Frage der Produktpolitik. Apple will, siehe MacBook Air 13 Zoll. Und die informierten Verbraucher auch, niemand will einen Lüfter im Gerät. Verbraucht nur Platz, Strom und kann kaputt gehen, lieber größeren Kühlkörper und die Temperatur so niedrig halten - das man nicht Thermal limitiert wird und dadurch der sofsr Strombedarf steigt.
 
Zuletzt bearbeitet:
"Kernwettrennen"

Ist das die Weiterentwicklung von Kirschkernweitspucken ? :D
 
  • Gefällt mir
Reaktionen: derohneWolftanzt, Skysnake und SSD960
Krass. Mehr als mein Staubsauger...😵‍💫
 
  • Gefällt mir
Reaktionen: Simanova
bad_sign schrieb:
Mit fällt da 7950X vs 9950X ein, selbe TDP aber 230W PPT vs 200 W PPT.

Haben beide 230W PPT. Du denkst an den 9950X3D; und da hat das Vergleichsmodell 7950X3D 162W PPT.

2600K 95W -> 3770K 77W war auch ein Downgrade

Und selbst beim 4690K sind sie "nur" wieder auf 88W raufgegangen.


Die Pentium 4 hatten bis zu 115W TDP, Core 2 Extreme (QX6700, QX6800, QX6850) bis zu 130W.

Also eigentlich passt nur der 3770K, das ist dann wohl die Ausname, die die Regel bestaetigt.
 
  • Gefällt mir
Reaktionen: sven.ghostrider
iGameKudan schrieb:
Ist doch das gleiche wie das Mimimi damals zur 4090. Ja, die hat 450W TDP. War aber dennoch effizient…
Der Stecker brennt effizient ab...
 
Imho die falsche Richtung... immer mehr Leistung durch höheren Energieverbrauch ist keine wirkliche Innovation.
 
@UrlaubMitStalin Und noch einer, der nicht verstanden hat. Die Innovation ist, dass man auf Multi-Sockel oder gleich Multi-Server Setups verzichten kann und enorm viel Aufwand (sowohl in Bauteilen als auch in Stromverbrauch) für die nötige Kommunikation einsparen kann.
 
  • Gefällt mir
Reaktionen: Phintor, MehlstaubtheCat, catch 22 und 2 andere
@UrlaubMitStalin Die erste Seite hier ist voll mit Beiträgen, aus denen hervor geht, warum das hier die richtige Richtung ist. Und dann gibts immer Leute, die lieber einfach ihre Einzeiler ins Forum rotzen, ohne auf die vorherige Diskussion einzugehen.
 
  • Gefällt mir
Reaktionen: MehlstaubtheCat, bad_sign, LamaMitHut und 4 andere
Krik schrieb:
Keiner. Epycs, insbesondere die mit ein paar hundert Kernen, stellt man nicht Zuhause hin. Diejenigen, die das doch machen, sind die Nische der Nische und haben angesichts der Preise (alleine 7,5k € für einen 192-Core-Epyc) auch kein Problem eine passende Versorgung und Kühlung bereitzustellen.
Stell dir sowas daheim vor: Counter Strike 2 in 20000fps 😂😂
 
budspencer schrieb:
So habe ich es in unserem neuen Haus tatsächlich.
Edit 9800X3D und 4090 heizen mit^^

Asich ja ein löblicher Gedanke, fällt bei mir aber eher in die Kategorie "Duschwasser in der Badewanne sammeln und damit das Klo betreiben", kann man machen, kann man aber auch sein lassen ;--)
 
@budspencer

Nicht falsch verstehen, als Hausierer würde ich sowas auch machen aber als Mieter, lässt man das halt sein. Das mit dem Wasser habe ich mir nicht ausgedacht, sondern mal als Tipp erhalten. Mit Regenwasser finde ich die Idee aber praktikabler umsetzbar.
 
  • Gefällt mir
Reaktionen: budspencer
iGameKudan schrieb:
Solange die Teile auf die Rechenleistung gesehen effizienter werden ist es doch egal, dass die TDP steigt.

Ist doch das gleiche wie das Mimimi damals zur 4090. Ja, die hat 450W TDP. War aber dennoch effizient…

ElliotAlderson schrieb:
So ein Quatsch. Es spielt keine Rolle, wie viel ne Server CPU verbrät, sondern wie Effizient sie ist.
Wenn eine 1000 W CPU schneller ist als fünf 300 W CPUs, dann ist erstere besser.
Jaein.

Wenn dein Rack nur 20kW kann, dann spielt das schon ne Rolle besonders in Colocation Datencentern weil die Kunden am Ende nicht mehr ihr Zeug betreiben können.

Im Großen gilt das auch für ganz Datencenter. Denn ab nem gewissen Bereich kannst du das einfach nicht mehr vernünftig mit Luft kühlen. Schon bei 300W CPUs hast du teils 200-300W nur für die Lüfter... Und die darf man eben auch nicht bei der Effizienzbetrachtung vergessen genau wie die Inlet Temps. Da gibt es immer mehr Zeug was 15Grad oder sogar 10 will wo früher durchaus auch 25 gingen. Also in der Phase wo sich die Centerbetreiber für Temps wegen Kosteneinsparung interessiert haben also die Warm-/Kaltgang Ära.

Da kotzen so einige ziemlich ab und stoßen an ihre Grenzen. Da hast du jetzt teils Datencenter für Millionen die nur 20kW pro Rack können und keine 10 Jahre alt sind. Teils werden ja wohl selbst heute noch so Center gebaut..

die Rechencenter Planer sind da oft extrem träge im Vergleich zum Rest der Industrie....

Zudem rennen immer mehr Leute in die Situation das Sie an Blech fast nichts mehr dastehen haben. Also im Zweifel nur noch einen Server um ihren Bedarf zu decken und dann kostet Redundsnz halt 100% Aufschlag. Während bei 100 Servern du nur 101 brauchst für ne n+1 Redundanz. Das ist VIEL günstiger im Vergleich.

ich selbst merke es ja bei den großen Systemen. Was vor ein paar Jahren noch 1000 Server waren sind jetzt noch 200-300. Und das ohne GPU. Mit GPU Systemen bist du dann schnell bei nur nicht Dutzenden oder noch weniger. Das wird dann bezüglich Ausfällen dann immer kritischer.

Bei 1000 Servern juckt es nicht wenn da was nen Monat steht weil der Dienstleister zwar billig aber ne Schnarchnase ist. Mit 100 oder noch weniger Servern bricht dir das immer mehr das Genick. Du musst also dein ganzes Betriebskonzept umstellen!

RAS und Redundanz wird dann immer wichtiger.

Yosup schrieb:
Sehe da insofern im Datacenter überhaupt kein Problem. Da zählt aus Umweltsicht nur die Effizienz, und die ist vermutlich in Ordnung, wenn man sich a) die Entwicklung der letzten Jahre und b) den Umstand, dass für jeden Kern nur ein paar Watt PowerBudget zur Vergügung stehen vor Augen führt.

Siehe oben. In gewissen Grenzen ja, aber diese werden von immer mehr Leuten überschritten.

mae schrieb:
Eigentlich ist gerade da langsam das Dennart-Scaling zu Ende gegangen

jup siehe weiter unten. Das Ende des Dennard Scalings hat uns da das Genick gebrochen.

ETI1120 schrieb:
Die gute alte Zeit der Halbleitertechnik ging ca 2005 zu Ende, den von nun an waren die Leckströme nicht mehr vernachlässigbar. Schlagworte: Ende des Dennard Scaling oder auch PoPowerwall.
Ähm Dennard Scaling hat jetzt erstmal nichts mit Leckströmen an sich zu tun. Diese beruhen auf statischen Energieverbrauch da sie bei einer bestimmten Spannung fließen.

Beim Dennard Scaling geht es aber um die dynamische Leistungsaufnahme durch das Umladen von Transistoren und da geht eben die Kapazität linear und die Spannung quadratisch ein. Man wurde also immer effizienter (superskalar) weil man die Spannung senken konnte. Das sieht man auch in den Top500 Graphen zur Leistungsentwicklung in 2008


1756529140614.png

Quelle für das Bild https://www.nextplatform.com/2019/0...se-puts-permanent-dent-in-supercomputing/amp/

Ob jetzt 2005 oder 2008 oder 2010 ist egal, weil es kein absolut schlagartig Effekt ist sondern immer kleiner geworden ist. Soweit so gut.

@DevPandi das hätte dem Artikel gut getan.

@ETI1120 jetzt kommt aber der Punkt der nicht so ganz passt aus meiner Sicht, aber Ursache und Wirkung da sauber zu trennen ist schwierig.

Also Transistoren habe eine sogenannte Threshold Spannung die man bedingt durch unterschiedliche Dotierungsdichte steuern kann. Aber an sich ist das ein intrinischer Wert für eine Technologie wie NMOS und PMOS. Ändert sich also quasi kaum.

CMOS Schaltungen wie Sie heutzutage verwendet werden erfordern es aber das man die Transistoren in StrongInversion betreibt was erfordert das man eine gewisse Spannung über der Threshold Spannung agiert. Wie du siehst ist die Minimale Spannung also vorgegeben. Danach werden die Transistoren einfach sehr langsam und damit würde beim Umschalten zu viel Strom durch den Transistor fließen. Das sind in dem Fall dann auch KEINE Leckströme!

In die Formel für die dynamische Leistungsaufnahme geht die Frequenz noch linear ein. Man hallt also Volt quadratisch was nicht mehr relevant kleiner werden konnte und linear Frequnz und Kapazität. Die Kapazität konnte man noch teils skalieren da man die Strukturgrößen kleiner gemacht hat. Funktioniert aber nicht für alles. Stichwort Leiterbahnen.

Die Frequenz konnte also nicht mehr oder kaum steigen bei konstanter Leistungsaufnahme.

vor allem kam dann ja noch das immer stärker werdende Problem der Leckströme hinzu was letztlich die Frequenzskalierung gekillt hat.

Das DenndardScaling dreht sich alles in allem aber NICHT um die Leckströme. Das ist "einfach" nur noch ein Problem das durch das Ende des Dennard Scalings auch noch schlimmer wurde.

Was dann am Ende zu so Themen wie DarkSilicon geführt hat. Bei DarkSilicon geht es ja auch darum das man einfach gar nicht so viel Strom in den Chip/Schaltung rein bekommt um alles zu betreiben. Stichwort Pin Limit, Elektromigrarrion usw usf.

hatte ich in 28nm auch für ne analoge Schaltung. Ich musste quasi alles mit Metal für die Versorgungsspannungen zukleistern damit das Ding nicht instantan durchgeschmort wäre. Und das waren jetzt nur 4 Transistoren.... die Dstenleitungen habe ich gerade so noch reingequetscht. Und die heutigrn FinFet oder gar GAAFets sind da noch viel viel viel schlimmer...

ETI1120 schrieb:
Seit dieser Zeit wird das Herstellen von Halbleiterschaltungen immer aufwändiger, weil man sich ständig neue Tricks einfallen lassen musste, um in den Transistoren die Leckströme zu begrenzen.

nicht nur für die Leckströme. Die Elektromogrartion und überhaupt Fertigbarkeit hat auch wesentliche Anteile genau wie die Geometrien. Stichwort Single Layer depositon oder Gate Geometrie stichwort Planar vs FinFet vs GAAFet.

ETI1120 schrieb:
Auf der anderen Seite wurde das Powermanagement auch bei den CPUs immer wichtiger. D. h. abschalten nicht benötigter Transistoren.
Ja das stimmt durchaus.
 
  • Gefällt mir
Reaktionen: Gaugaumera, Cr4y, CDLABSRadonP... und eine weitere Person
Zurück
Oben