Bericht Hunter & Herder am HLRS: Zu Besuch bei deutschen AMD-Supercomputern

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
19.573
ComputerBase war gestern zu Besuch im HLRS, bei Hunter, einem AMD-Instinct-MI300A-Supercomputer. Es gab aber auch einen Ausblick auf die nächste Generation, Herder, ein weiteres AMD-basiertes HPE-System. Der Leiter des HLRS redete Klartext und auch Kunden wie Trumpf kamen zu Wort. Eindrücke und Informationen aus Stuttgart.

Zum Bericht: Hunter & Herder am HLRS: Zu Besuch bei deutschen AMD-Supercomputern
 
  • Gefällt mir
Reaktionen: bullit1, ChrisMK72, flo.murr und 64 andere
Hunter als ein im globalen Vergleich Trotz Platz 54 auf der Top500 ziemlich kleiner
Ich finde das "T" bei "Trotz" recht groß :-P

Mega spannend der kurze Bericht! Einfach unglaublich, dass das Limit an Racks nicht von der Stromzulieferung oder ähnlichem gedeckelt ist, sondern von der Belastbarkeit des Bodens xD

Simonte schrieb:
Mich befriedigt das Kabelmanagement enorm
Das ist so unendlich Porno ^^
 
  • Gefällt mir
Reaktionen: bullit1, HolySkillet, zhompster und 8 andere
Mich befriedigt das Kabelmanagement enorm :cool_alt:
 
  • Gefällt mir
Reaktionen: bullit1, dewa, FakyFake und 23 andere
1752061149989.png

Das wünsche ich mir für meine Dachwohnung auch. :evillol:

Vielen Dank für den Blick hinter die Kulissen! :)
 
  • Gefällt mir
Reaktionen: ofenheiz, CastorTransport, Nebula123 und 24 andere
Simonte schrieb:
Mich befriedigt das Kabelmanagement enorm :cool_alt:
Umso erschrenkender finde ich wie unaufgeräumt das drum herum aussieht, weil die Racks einfach nicht rechtwinklig zu sein scheinen. Dann dazu nicht einheitlich foliert und die Türgriffe sind auch noch unterschiedlich hoch.
Mein innerer Monk bekommt da gleich wieder zuckungen :freaky:

P.S.: das Bodenblech von dem einen Bild finde ich auch schwierig :freak:
 
  • Gefällt mir
Reaktionen: bullit1, sebish, IgorGlock und 4 andere
Ich frage mich ja wirklich, was bei MI300A eigentlich schief gelaufen ist. Auf den ersten Blick sieht das ja nach einem logischen Konzept aus, aber irgendwie kommt das in den Ergebnissen nicht an. Wenn man in die Top500 schaut und sich das Verhältnis Rmax/Rpeak anschaut, dann liegen die MI300A-Systeme irgendwo zwischen 0,63 (El Capitan) und 0,70 (Hunter). Was Sinn macht, je größer das System wird, umso schwieriger wird es naturgemäß, sich dem theoretischen Maximum zu nähern. Jupiter Booster (mit Grace Hopper) kommt auf satte 0,85 und auch einige klassisch aufgebaute AMD-Systeme stehen ziemlich gut da in dieser Metrik (HPC6 mit Epyc + MI250X kommt auf 0,79).

Gefühlt gibt es da also noch einiges an Spielraum für Optimierungen, den hätte ich kleiner erwartet, sollte doch allein schon der gemeinsame Speicher für CPU und GPU-Kerne einiges effizienter machen.
 
  • Gefällt mir
Reaktionen: bad_sign
4 Tonnen pro Rack - krass... 😳
Aber auch krass, wieviel Platz dadurch gespart wurde. Danke für den tollen Einblick, @Volker

Trumpf, bekannt nicht nur für Werkzeugmaschinen, sondern auch für Elektronik und Laser
Ich hatte zuerst an Trumpf gedacht und war neugierig was die an so einem System berechnen lassen. Anscheinend hatte ich in der Vergangenheit doch schon zu viele "Edle Tropfen in Nuss"... 😂
 
  • Gefällt mir
Reaktionen: the_IT_Guy, BlackVally, B4ck2Top1c und 9 andere
Schöner Bericht und nett zu sehen das man alle dran teilhaben lässt!
Vielleicht sollte ich meine PA-KI dort laufen lassen :-)
 
Die Kühlleistung von einem(?) Rack entspricht ungefähr der Kühlleistung von 2 Bäumen :)
Danke für den Bericht.
 
Danke für den aktuellen Einblick! Ich habe dort ~2006 zu Beginn meine Studiums mal an einer Führung teilgenommen und da sag es noch etwas anders aus ;)
Am HLRS hatte ich übrigens 2012 meine CFD-Simulationen für meine Diplomarbeit rechnen lassen. Das war schon der Hammer im Vergleich zur lokalen Workstation :daumen:
 
  • Gefällt mir
Reaktionen: bullit1, Skysnake, zhompster und 2 andere
M@tze schrieb:
Ich hatte zuerst an Trumpf gedacht
Und ich musste zuerst an Triumph denken und war irritiert, was an der Berechnung an Schlüppern und BHs so rechenintensiv ist, ja bis der Groschen gefallen ist. :D


Cooler Bericht mit spannenden Einblicken. :)
 
  • Gefällt mir
Reaktionen: bullit1, the_IT_Guy, Tschitta und 2 andere
Schön was von den Kollegen zu lesen. Die sitzen ein paar hundert Meter Luftlinie von hier mit am Campus und suchen immer nach Aufgaben für ihre Systeme :)
 
  • Gefällt mir
Reaktionen: fronca, konkretor und Jan
@Nitschi66 Die haben ja noch paar andere Systeme da, nicht nur den neuesten. Sondern AMD Epyc Rome + Nvidia A100 als letzten Hawk-Ausbau, dem direkten Vorgänger. Und der läuft auch noch paar Jahre.

Das zum Start nun nach nen paar Wochen und Monaten der neue gut gebucht ist glaub ich da schon. Die älteren vermutlich nicht so. Und 100 Prozent wirst nie haben, da sich große Dinge immer in die Quere kommen und so viel Luft bleibt. Deshalb versuchen sie es ja kleineren Abnehmern schmackhaft zu machen.
 
  • Gefällt mir
Reaktionen: bullit1, MalWiederIch, eastcoast_pete und eine weitere Person
Nitschi66 schrieb:
Hört sich an als wären die 90% Auslastung geschönt ;)
90% sind nicht 100%, und angesichts dessen, dass mit Herder ein Exascale-System geplant ist, schaut man sicher auch schonmal, wer das denn in Zukunft überhaupt auslasten kann.

Eigentlich willst du über 100% ausgebucht sein, damit du nonstop Jobs laufen lassen kannst.
 
  • Gefällt mir
Reaktionen: Skysnake und Kitsune-Senpai
knoxxi schrieb:
was an der Berechnung an Schlüppern und BHs so rechenintensiv ist, ja bis der Groschen gefallen ist. :D
Na hör mal, das wird gar nicht so einfach sein, die Schnittmuster per Tetris auf so eine Rolle Stoff zu bekommen, damit so wenig wie möglich Verschnitt dabei ist. 😉 😂
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Slim.Shady, Kitsune-Senpai und 2 andere
Danke @Volker für die spannenden Einblicke. Schon richtig großes Kino was bei den Supercomputern so läuft.
 
  • Gefällt mir
Reaktionen: PietVanOwl, konkretor und knoxxi
stefan92x schrieb:
Eigentlich willst du über 100% ausgebucht sein, damit du nonstop Jobs laufen lassen kannst.

Naja, kommt ja auch sehr auf die Situation an. Würden sie nur 50% ihrer Kapazitäten haben, wären sie immer über 100%, aber es wäre nicht besser. Wenn du wächst, ist 90% Top. Dumm wäre nur, wenn du irgendwann länger zu viele Kapazitäten hast und die Kunden das auch noch ausspielen würden. Außerdem ist es schwieriger mit Vollauslastung neue Kunden zu gewinnen. Kurz, von außen schwierig zu beurteilen.
 
Zurück
Oben