News AMD Epyc im SP 7: Nach GPUs streben wohl auch CPUs die Kilowatt-Marke an

TomausBayern schrieb:
Stell dir sowas daheim vor: Counter Strike 2 in 20000fps 😂😂
"Verdammt, ich find einfach kein Game das meine 384 Threads auslastet".:utripper:
 
  • Gefällt mir
Reaktionen: TomausBayern, derohneWolftanzt und E1M1:Hangar
ETI1120 schrieb:
Das war die Präsentation von Microloops eines Anbieters von Kühlungslösungen und nicht von AMD. Also stand im Mittelpunkt des Vortrags wie viel Wärme die Kühlungslösungen wegschaffen können. Nicht was Venice verbraucht.

Die 1000 W Power wird Venice noch deutlich verfehlen. STH hat im Mai 2025 eine venice Kühlplatte mit 600 W gezeigt. Aber klar ist die Steigerung der Anzahl an Kernen wird auch eine weitere Steigerung bei der Power erfordern. Ganz so wie es bei den GPUs der Fall ist.


Die gute alte Zeit der Halbleitertechnik ging ca 2005 zu Ende, den von nun an waren die Leckströme nicht mehr vernachlässigbar. Schlagworte: Ende des Dennard Scaling oder auch Powerwall. Bei den CPU-Frequenzen ging es nun nur noch in Tippelschrittchen weiter.

Seit dieser Zeit wird das Herstellen von Halbleiterschaltungen immer aufwändiger, weil man sich ständig neue Tricks einfallen lassen musste, um in den Transistoren die Leckströme zu begrenzen.

Auf der anderen Seite wurde das Powermanagement auch bei den CPUs immer wichtiger. D. h. abschalten nicht benötigter Transistoren.


Bei den CPUs vielleicht.

Bei den GPUs werden wir es Mal in Ruhe abwarten.


Wir haben mit unseren 68000 damals gelästert, dass Intel bald Toster mit Pentiums als Heizelemente anbiet
Ich hatte mal einen Laptop ("desktop replacement") mit gesockeltem Pentium 4; war eigentlich auch als Fön verwendbar und ungefähr so laut. War allerdings fürs Haaretrocknen etwas unhandlich 😁.
Natürlich übertreffen die großen Desktop CPUs von heute den auch noch deutlich; damals dachten wir, über 100 W wären schon leicht verrückt.
 
Jupp Kinderzimmer eines 10 jährigen in 4 Jahren der für sich und 2 Freunde einen Minecraftserver betreibt :D
 

Anhänge

  • 1756535902882.png
    1756535902882.png
    612,2 KB · Aufrufe: 82
  • Gefällt mir
Reaktionen: UrlaubMitStalin, bad_sign und derohneWolftanzt
Skysnake schrieb:
Jaein.

Wenn dein Rack nur 20kW kann, dann spielt das schon ne Rolle besonders in Colocation Datencentern weil die Kunden am Ende nicht mehr ihr Zeug betreiben können.
Ja, aber es geht doch bloß darum, dass man aus 8S 2S oder sogar 1S macht. Die absolute Leistungsaufnahme steigt nicht, das ganze wird bloß effizienter und lässt mehr Platz.

Skysnake schrieb:
Im Großen gilt das auch für ganz Datencenter. Denn ab nem gewissen Bereich kannst du das einfach nicht mehr vernünftig mit Luft kühlen. Schon bei 300W CPUs hast du teils 200-300W nur für die Lüfter... Und die darf man eben auch nicht bei der Effizienzbetrachtung vergessen genau wie die Inlet Temps. Da gibt es immer mehr Zeug was 15Grad oder sogar 10 will wo früher durchaus auch 25 gingen. Also in der Phase wo sich die Centerbetreiber für Temps wegen Kosteneinsparung interessiert haben also die Warm-/Kaltgang Ära.
Eine CPU mit 1000W und 1000mm² gemeinsamer Chipfläche ist nicht schwieriger per Heatpipe- oder Vaporchamberkühler zu kühlen als vier CPUs mit 250W und 250mm² gemeinsamer Chipfläche pro CPU. Denn der Kühler wächst entsprechend mit, der Wärmetransport im Heatspreader und über die Heatpipes wird sogar schneller.
Nur wenn die Dichte der Wärme steigt, dann wird es anspruchsvoller.
 
Warum nicht langsam auf eine RISC-basierte Architektur wie ARM wechseln? Die Apple M-Chips sind extrem leistungsstark und deutlich effizienter.
 
TomausBayern schrieb:
Stell dir sowas daheim vor: Counter Strike 2 in 20000fps 😂😂
Eigentlich ein Klassiker unter den Posts mit den Erwartungen, für deren Falsifizierung ich aus dem Fenster springen würde. Ich wage mal zu behaupten, dass da draußen kein einigermaßen bekanntes Spiel existiert, bei dem mehr als 16 Kerne noch irgendwie einen nennenswerten Performancesprung bringen. Eher ist bekannt, dass diese Workstation CPUs weniger FPS als gängige Desktop CPUs liefern.
Der Grund ist einfach: Diese Prozessoren sind auf massive Parallelisierung ausgelegt. Parallelisierung in einem Spiel muss viel zu häufig die Rechenergebnisse synchronisieren um den Frame zu berechnen, was ein massiver Performancekiller ist, da die Kerne einfach nur warten.

Uzer1510 schrieb:
Jupp Kinderzimmer eines 10 jährigen in 4 Jahren der für sich und 2 Freunde einen Minecraftserver betreibt :D
Na zum Glück sind wir alleine preislich so weit davon entfernt, dass das niemals Realität wird. Mal abgesehen von weiteren Diskussionen um Das Stromnetz, das für den alltägliche und längeren Bedarf durch Einfamilienhäuser wohl gar nicht diese Kapazität bereitstellen kann. :D
Aber vielleicht stoßen1000 W Smartphone Ladegerät auf größeres Interesse
 
  • Gefällt mir
Reaktionen: TomausBayern
Boulettendieb schrieb:
Naja, Heute sind wir bei 500-1000 Watt für den High End GamingPC, wenn der zukünftige das doppelte verbraucht, aber die vierfache Leistung hat, geht die Rechnung weiterhin auf..
Vor 10 Jahren waren ~500 Watt viel, vor 20 warens 200 und noch 10 Jahre früher war der einzige Lüfter im System im Netzteil.
Außerdem ist ja weiterhin keiner gezwungen da mitzumachen, solang die Effizienz steigt.
Meine Systeme verbrauchen seit 15 Jahren um die 300 Watt und mir fehlt nix.

Ich hatte damals zwei 290XT unter Wasser. Die verbrauchten auch 300W pro Karte. Wurden dann von der 1080Ti ersetzt.

Also ich finde es ist jetzt nicht unnormal im high end auch etwas mehr Verbrauch zu haben. Wird hatten halt durch Maxwell und Pascal eine Phase wo wir massiv verwöhnt worden.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP..., Uzer1510 und Boulettendieb
Penman schrieb:
Na zum Glück sind wir alleine preislich so weit davon entfernt, dass das niemals Realität wird. Mal abgesehen von weiteren Diskussionen um Das Stromnetz, das für den alltägliche und längeren Bedarf durch Einfamilienhäuser wohl gar nicht diese Kapazität bereitstellen kann. :D
Aber vielleicht stoßen1000 W Smartphone Ladegerät auf größeres Interesse

Naja das Stromnetz muss auch mit Wärmepumpen und E-Ladepunkten klarkommen die sich doch auch in vielen Einfamilienhäusern bald oder bereits finden - das sind auch Lasten im 20 bis 30 kW Bereich für jedes EFH über viele Stunden - das sind 2-3 kW für den "Minecraft Server" doch auch nicht mehr die Welt Wir haben unseren Anschluss auch anpassen lassen auf 96 kW weil hier sowieso aktuell die gesamten Stromleitungen etc getauscht worden sind in der Strasse (weil halt schon sehr viele PV Flächen und E-Autos genutzt werden und auch die eine oder andere (Hybrid) WP) die Asnchlüsse sind hier aber eh relativ hoch weil die Häuser Ende 70er gebaut wurden und da war ja Stromheizung mal "in" und auch die Wohnflächen halt relativ gross sind.

Nun die 1 kW Gaming Rechner sind schon Realität mit GPU 600W und CPU mit restlichem Krempel bei 350W

800W GPUs (mit overclocking 800W hat man glaub schon) und 350-400W CPUs sind vermutlich bereits nur noch Monate entfernt für den AAA Heimgamer.

Der Heimnutzzuer kann inzwischen - hab mal nachgeschaut - sogar mehrere Netzteile mit 2500W bis 3000W von Asus (!) sich holen :D
 
Zuletzt bearbeitet:
Erkekjetter schrieb:
MIt so ner Leistung kannste ja bald ein Energiesparhaus den ganzen Winter beheizen...
Der Backup Lüfter für mein Haus, sofern die Heizung ausfällt, kann 500W Wärme bereit stellen.
Den lasse ich aber nur maximal 4h pro Tag laufen, dann hat das ganze Haus 23 Grad erreicht, auch bei minus 10 Grad draußen.
Mit konstant 1kW erreiche ich ganz sicher sommerliche 28 Grad, mit Fenster konstant auf natürlich.
 
Nun einen 2 KW Rechner könnte man tatsächlich zur Warmwasseraufbereitung mitnutzen - wenn dann auch der Aufstellort extrem unflexibel wäre daran wird es sicher in 99% der Fälle auch im EFH scheitern - aber spassig wäre das schon.

Auch wenn man ein wenig sicher nutzen wird, das meiste wird man nutzen um die Welt einfach zu heizen.
 
Zuletzt bearbeitet:
Solche Rechenzentren eignen sich dann perfekt für Fernwämeprojekte, bleibt nur die Frage was im Sommer ist wenn weniger Wärme benötigt wird.
 
Naja dafür ist halt der Strom zu teuer in D. MW oder gar GW Rechenzentren mit solchen CPUs/GPUs werden sicher wenige in D entstehen - rein paar staatlich geförderte kleine wie Jülich.

Und dort wo Strom billig ist wie (Süden) USA China etc ist der Wärmebedarf halt meist sehr viel geringer.

Wie extrem das ist sieht man doch hier https://www.datacenter-insider.de/m...i-wettlauf-a-e9a44dea58c22736597741252153d044 Nicht mal mehr in den USA kann man schnell genug Hallen für Rechenzentren errichten.

Das schon verrückt wie das abgeht - Stromvebrauch ob das hunderte MW oder GW sind das ist doch eh egal inzwischen - alles unter GW ist glaub langsam nur noch Kreis / Hobbyliga.

Ob die CPU oder GPU das brauchen macht keinen grossen konzeptionellen Unterschied.
 
Zuletzt bearbeitet:
Floorp schrieb:
Die Apple M-Chips sind extrem leistungsstark und deutlich effizienter.
Sind sie das wirklich? Wir reden bei Servern über CPUs mit massivem IO und 3-4 Watt Verbrauch pro Kern unter Volllast. Da liegen keine Welten zwischen ARM und x86, vor allem nicht wenn man den Fertigungsvorsprung von Apple rausrechnet, also nur die Architektur betrachtet.
 
  • Gefällt mir
Reaktionen: Phintor
Penman schrieb:
Aber vielleicht stoßen1000 W Smartphone Ladegerät auf größeres Interesse
Das schöne ist ja, dass man die 240W-PD-Netzteile auch an Smartphones nutzen kann / können und hohe Effizienz haben wird.
Topflappen schrieb:
Der Backup Lüfter für mein Haus, sofern die Heizung ausfällt, kann 500W Wärme bereit stellen.
Den lasse ich aber nur maximal 4h pro Tag laufen, dann hat das ganze Haus 23 Grad erreicht, auch bei minus 10 Grad draußen.
Mit konstant 1kW erreiche ich ganz sicher sommerliche 28 Grad, mit Fenster konstant auf natürlich.
Hast du mal nachgemessen, wie viel der wirklich zieht, wie viel m³ (ja, hoch drei!) du hast und welche Temperatur vorher drinnen herrschte?
Schon mit 18° vorher drinnen kann ich mir das nämlich bei halbwegs großen Volumen kaum vorstellen...
 
  • Gefällt mir
Reaktionen: E1M1:Hangar
CDLABSRadonP... schrieb:
Ja, aber es geht doch bloß darum, dass man aus 8S 2S oder sogar 1S macht. Die absolute Leistungsaufnahme steigt nicht, das ganze wird bloß effizienter und lässt mehr Platz.
Die Leistungsaufnahme je Rack steigt an weil man diesselbe Anzahl von CPUs drin hat. Und diese Leistungsaufnahme muss man erst einmal ans Rack bringen
CDLABSRadonP... schrieb:
Eine CPU mit 1000W und 1000mm² gemeinsamer Chipfläche ist nicht schwieriger per Heatpipe- oder Vaporchamberkühler zu kühlen als vier CPUs mit 250W und 250mm² gemeinsamer Chipfläche pro CPU.
@Skysnake sagt das kann man nicht mehr sinnvoll mit Luft kühlen. Und das ist allgemeiner Konsenz.

Dir ist aufgefallen dass die Cooling Plates mit Wasser/Flüssigkeit gekühlt werden? Du bekommst mit Wasser (genauer Kühlmittel auf Wasserbasis) viel mehr Wärmeabtransportiert als mit Luft. Damit kann man mit höheren Temperaturen kühlen.
Ergänzung ()

Skysnake schrieb:
Ähm Dennard Scaling hat jetzt erstmal nichts mit Leckströmen an sich zu tun. Diese beruhen auf statischen Energieverbrauch da sie bei einer bestimmten Spannung fließen.
Stimmt was Dennard beschrieben hat ging nicht um die Leckströme.

Dennard hat in seinen Formeln die Leckströme ignoriert, weil sie bei den Strukturgrößen zu seiner zeit vernachlässigbar waren. Aber je kleiner die Transistoren wurden desto größer wurden die Leckströme. Bis es ca. 2005 gekracht hat.

Natürlich ist Leckströme nur eines der Probleme mit der die Halbleitertechnik aktuell kämpft, aber das genau zu beschreiben übersteigt meinen Horizont und deshalb habe ich Mal plakativ Leckströme geschrieben.

Ich habe mich da von Joe Macri inspirieren lassen.

Ab 9:20 kommt er auf das Thema

Die Geschichte auf 2 Folien:
https://wgropp.cs.illinois.edu/courses/cs598-s15/lectures/lecture15.pdf

1756548737992.png


1756548782393.png

Ergänzung ()

stefan92x schrieb:
Sind sie das wirklich?
Als Notebook und als desktop chips sind sie das, weil Apple sie so designed hat.

Als Architektur ist es Arm jedoch nicht.

Dieser Unsinn wird sehr gerne obwohl es genügend Untersuchungen gibt die belegen, dass die Micro Architecture der CPU bei modernen CPUs massgeblich über die Power, Performanve und Area entscheidet.

Und wenn es darum geht minimale Power zu erreichen ist Arm V9 auch viel zu fett.

stefan92x schrieb:
Wir reden bei Servern über CPUs mit massivem IO und 3-4 Watt Verbrauch pro Kern unter Volllast. Da liegen keine Welten zwischen ARM und x86, vor allem nicht wenn man den Fertigungsvorsprung von Apple rausrechnet, also nur die Architektur betrachtet.
Ich würde es Mal so sagen, Apple hat alles was geht ins SoC package gepackt und benötigt nur sehr wenig Peripherie. Das führt zu erheblichen Powereinsparungungen wenn man des ganze mit einem klassischen PC vergleicht. Auf der anderen Seite sind die Apple M abgeschlossene Systeme.

Bei den M Chips von Apple wird ganz gerne ignoriert, dass der Hauptspeicher im Package sitzt. Auch das trägt zur Sparsamkeit der Chips bei. Dasselbe gilt für Intels Lunar Lake. IIRC ist der Energieverbrauch je Bit um den Faktor 7 kleiner als wenn man es von DIMMs holt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stefan92x
mae schrieb:
Haben beide 230W PPT. Du denkst an den 9950X3D; und da hat das Vergleichsmodell 7950X3D 162W PPT.
Nein
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-9-9900x-9950x-test.89115/seite-2

mae schrieb:
Die Pentium 4 hatten bis zu 115W TDP, Core 2 Extreme (QX6700, QX6800, QX6850) bis zu 130W.
Initial schon, das Topmodell X6800 Juli 2006 war bei 75W
https://www.techpowerup.com/cpu-specs/core-2-extreme-x6800.c369
Der QX6700 kam erst Nov 2006
 
Viper816 schrieb:
AMD wird immer mehr zum Intel von heute.
Und Intel entwickelt sich mit dem auf Sparsamkeit gedowngradeten und eher erfolglosen ArrowLake zum neuen AMD.
Ich habe hier ja schon viel Unsinn gelesen. Aber das treibt es ja fast schon auf die Spitze.

Es geht immer mehr in die Richtung, dass Server weniger Sockel, und dafür erheblich mehr Kerne pro Sockel fassen. Der Grund liegt auch in der Anzahl an Speicherkanälen. Mit der kommenden 16-Kanal Generation reicht es bei 2 Sockeln platztechnisch im 19" Format noch. Aber irgendwann, wenn es dann möglicherweise auf 24 oder 32 Kanäle geht, und die Chipgrößen weiter steigen, dann wird das nicht mehr so einfach gehen, hier 2 oder mehr CPUs auf einer Platine unterzubringen.

Vor allem wird das nichts im 1HE Format. Denn gleichzeitig will man auch Erweiterbarkeit mit PCIe, NVMe/SATA o.ä. gewährleisten und irgendwann ist dafür einfach kein Platz mehr. Und gekühlt werden will das alles auch noch... die Speicherriegel nehmen eine Menge Airflow weg und heizen die ganze Kiste auch noch auf. Bei Systemen mit 16 Riegeln fällt das weniger auf, aber bei 32 Riegeln ist das schon spürbar. Unendlich in die Länge ziehen kann und will man diese Systeme auch nicht. Methoden wie z.B. Gigabyte es teilweise anbietet, wo die Speicherriegel dann leicht schrägwinklig eingebaut werden, um "mehr Platz" zu haben, reduzieren dafür die zulässigen TDP Grenzen der CPU erheblich. Und das will man auch nicht.

Ergo bleibt langfristig keine andere Möglichkeit, als die Anzahl der Sockel zu reduzieren, die Anzahl der Kerne zu erhöhen und eine entsprechende Verlustleistung in Kauf zu nehmen.

Solange hier die Watt pro Kern in einem günstigen Verhältnis stehen, was der Fall ist - und hier ist AMD dem Konkurrenten Intel sehr weit voraus - dann ist das auch überhaupt kein Problem und auch kein Nachteil.

Es vereinfacht zudem die Kommunikation der Komponenten untereinander - nicht nur CPU/RAM, sondern auch die Kommunikation zu anderen Geräten. Nicht selten sind vor allem im HPC / GPU Bereich Server mit Single-Root Komplex erwünscht. Und aus dem Mangel ist ja auch NVLink oder das AMD Äquivalent entstanden... weil die Kommunikation der Komponenten untereinander gelitten hat, bei zu viel Komplexität, zu vielen CPUs etc.
 
  • Gefällt mir
Reaktionen: Phintor und stefan92x
Zurück
Oben