News Atos BullSequana XH3000: Neuer Supercomputer für Chips mit „1000 W+“

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.346
  • Gefällt mir
Reaktionen: aid0nex, Col. Jessep, iron-man und 5 andere
Wirklich krass, wie weit wir inzwischen gekommen sind. Die kommenden Supercomputer werden deutlich effizienter als alles was zur Zeit da ist.
 
  • Gefällt mir
Reaktionen: flo.murr
schon krass, dass diese immer kleiner werdenden strukturen diese leistung überhaupt aushalten.

ich habe so das gefühl (selektive wahrnehmung?) vor 15 jahren wurde mit einem kleineren fertigungsprozess immer weniger elektrische leistung umgesetzt, heute scheint es umgekehrt zu sein.
 
Heißt das das Ende Fahnenstange im Nm Verbesserungen ist erreicht. Und jetzt geht's über mehr Fläche = mehr Power.
Oder wird einfach so unglaublich viel Rechenleistung benötigt?
 
  • Gefällt mir
Reaktionen: aid0nex
Oh erst Q4/2022. Dann muss die Anschaffung noch etwas warten.
 
  • Gefällt mir
Reaktionen: aid0nex, Capet und PegasusHunter
Fighter1993 schrieb:
Heißt das das Ende Fahnenstange im Nm Verbesserungen ist erreicht. Und jetzt geht's über mehr Fläche = mehr Power.
Oder wird einfach so unglaublich viel Rechenleistung benötigt?
Ja auf alle Fragen. Der Fortschritt im Fertigungsprozess wird weniger, dafür ermöglicht modernes Packaging Chips zusammenzufassen, die früher undenkbar waren. Dadurch habe wir jetzt schon CPUs mit deutlich über 1000mm2 Fläche und dieser Trend wird sich fortsetzen.

Es ist auch absolut sinnvoll, auf diese Art große Chipkomplexe zu bauen, denn auf diese Art wird weniger Energie für die Datenübertragung gebraucht. Mehr Rechenleistung in möglichst wenigen Nodes macht das ganze also effizienter, solange die einzelnen Chips nicht zu weit über ihrem Sweetspot betrieben werden.
 
  • Gefällt mir
Reaktionen: aid0nex, Kastinuk, .fF und 2 andere
Na da kommen Sie ja langsam ans Licht die neuen Designs.

Das ganze Zeug wird schon recht extrem. Das hat mit off the shelf Hardware nur noch bedingt etwas zu tun.

Aber das ist halt sie Folge vom Ende des Dennard scalings
 
Mickey Cohen schrieb:
ich habe so das gefühl (selektive wahrnehmung?) vor 15 jahren wurde mit einem kleineren fertigungsprozess immer weniger elektrische leistung umgesetzt, heute scheint es umgekehrt zu sein.
Das Problem ist das die Leistungsdichte mit kleineren Fertigungsprozessen immer größer wird ohne das man es verhindern kann. Als ein vereifachtes Beispiel man halbiert die länge eines Transistors und verdoppelt dabei gleichzeitig die Effizienz. Jetzt hat man aber das problem, dass 4 mal so viele Transistoren auf die selbe Fläche passen. Man hat also die Effizienz verdoppelt aber die Leistungsdichte pro mm^2 ist auch doppelt so hoch. Wenn man jetzt den Chip genau so groß macht wie vorher schluckt der auch doppelt so viel Strom
 
  • Gefällt mir
Reaktionen: Aslo
warum nicht. man gewinnt Verbesserungen durch Fertigung und Struktur, warum nicht noch den Vorteil durch mehr Energie pro Chip erhöhen. Die Leistung pro Watt steigt ja trotzdem an, man holt nur noch mehr aus den bestehenden Dingen raus
 
  • Gefällt mir
Reaktionen: [wege]mini
1000 Watt ist doch auch nur ein Marketingwort.

300-400 Watt konnte man schon vor fast 15 Jahren mit der ersten Core Generation in einem 6 Kern Xeon verballern.

Da nehme ich heute doch gerne, einen 1000 Watt "setzen sie den Namen ein" Prozessor mit "setzten sie die Kernanzahl ein", der so unglaublich viel schneller ist, als der 300 Watt Bomber von 2009, dass mir die Worte fehlen um zu erklären, wie krass schnell die Dinger sind/werden.

Für den DIY Bauer @ home, ist das natürlich nicht gedacht.

mfg

p.s.

stefan92x schrieb:
Mehr Rechenleistung in möglichst wenigen Nodes macht das ganze also effizienter

Ein sehr guter Punkt. Das Ganze "drumrum" verbraucht auch Strom und so ein wirklich gutes Netzwerk zur Berechnung mit Hunderten oder gar Tausenden Prozessoren, ist nicht "sparsam". Da reden wir dann erst Sekundär über die einzelne CPU.

Hauptsache, die Wärme wird sinnvoll verwendet. Zur Not, beheizt man die Turnhalle von einer Schule. Alles ist besser, als sie via Klimaanlage zu verschwenden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aid0nex, Col. Jessep und PS828
_ASIC schrieb:
Das Problem ist das die Leistungsdichte mit kleineren Fertigungsprozessen immer größer wird ohne das man es verhindern kann.
Dachte auch das das ein großes Problem wird.
Real wird meiner Vermutung nach aber durch MCM oder Chiplets die Wärme viel besser verteilt.
Der Transport der Daten benötigt auch immer mehr Energie und wird auf Fläche verteilt.
Mehrere kleine Chiplets sind zudem mit höherem Yield herstellbar als ein einzelner Mega-Die.
Mann muss auch nicht bis zur Kotzgrenze takten wenn man einfach mehr Chiplets nutzen kann.
Hier kommt dann dem bereits öfters erwähnte Packaging in den nächsten Jahren noch mehr Bedeutung zu.
Letztenendes wird ja auch das Kühlungskonzept und Integration weiterentwickelt. Wer weiß? Irgendwann kühlt man vielleicht auch auf der anderen Seite der Platine mit einem weiteren Tower Kühler?
 
Finde schon den Verbrauch der 3090Ti krass. 1000W ist der Hammer. Aber geht es nicht anders?
 
SSD960 schrieb:
Finde schon den Verbrauch der 3090Ti krass. 1000W ist der Hammer. Aber geht es nicht anders?
Nein, zumindest nicht sinnvoll. Wie schon geschrieben, umso weniger Leistung einzelne Nodes erbringen, umso aufwändiger wird das Netzwerk. Leistung pro Node maximieren spart daher viel Platz, Material und reduziert auch den Stromverbrauch.
 
PS828 schrieb:
warum nicht. man gewinnt Verbesserungen durch Fertigung und Struktur, warum nicht noch den Vorteil durch mehr Energie pro Chip erhöhen. Die Leistung pro Watt steigt ja trotzdem an, man holt nur noch mehr aus den bestehenden Dingen raus
Na doch, da gibt es praktische Grenzen. Die Leistungsdichte ist schon lange über der einer Herdplatte. Man muss also zwingend mehr Chipfläche haben, weil einem das ansonsten einfach verbrennt.

Was man auch Bedenken muss ist, dass die ganze Energie ja erst mal in den Chip rein muss. Bei den im.er kleineren Spannungen werden die Ströme aber immer größer. Da kommt man auch an den Punkt wo einem einfach das Zeug wegbrutzelt weil die Ströme zu hoch sind.

Da gibt es noch "lustige" Dinge wegen Schwankungen in der Leistungsaufnahme. Man wird sehen müssen wie stabil die Hersteller das am Ende wirklich gebaut bekommen.
 
die inzelnen transistoren benötigen ja auch immer weniger strom, da past das schon auch in der hohen dichte. da gibts noch einiges an spielraum, die hersteller haben nur endlich wieder angefangen die leistungssprünge pro generation zu maximieren mit allen mitteln um attraktiv zu bleiben
 
Intel war da vor Jahren schon mal. Hat nicht funktioniert
 
PS828 schrieb:
die inzelnen transistoren benötigen ja auch immer weniger strom, da past das schon auch in der hohen dichte. da gibts noch einiges an spielraum, die hersteller haben nur endlich wieder angefangen die leistungssprünge pro generation zu maximieren mit allen mitteln um attraktiv zu bleiben
Ja, der einzelne Transistor braucht zwar weniger aber man hat auch mehr. Es ist schon lange so, also mindestens 28nm so, dass der Transistor locker seine Zuleitungen braten kann. Spätestens seit Finfet ist es extrem geworden und man kann egal wie viel Metall man hin knallt den einzelnen Transistor eigentlich nicht mehr voll ausfahren.

Deswegen steigt auch der Anteil des dark Silicon immer weiter.

Was man aktuell immer mehr sieht ist dass die ganzen Sicherheitsmargen immer weiter Abschmelzen und das in einem Maße das man immer mehr Bananenware bekommt. Reift beim Kunden....

Man fasst sich aber teils echt an den Kopf, ob die Hersteller gewisse Dinge wirklich ernst meinen...
 
@Volker ist der Titel nicht leicht missverstaendlich uebersetzt? Von Nextplatform zitiert:

As Eppe pointed out several times, the Grace/Hopper complex from Nvidia, which mixes a homegrown Nvidia “Grace” Arm server CPU with a future “Hopper” GPU, is expected to draw 1,000 watts. That includes on-package interconnects between the devices and what we presume is HBM3 memory.

I.e. sprechen wir hier von dem Gesamtverbrauch von CPU & GPU als Gesamtkomplex. Und somit mitnichten eine 1000 Watt Leistungsaufnahme von der GPU selbst.

Selbst der Open Compute Project Open Accelerator Module Formfaktor unterstuetzt nur maximal 700 Watt pro Beschleuniger..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SSD960
Zurück
Oben