News Hunter & Herder: Deutscher Supercomputer setzt auch auf AMD Instinct MI300A

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.362
  • Gefällt mir
Reaktionen: flo.murr, TigerherzLXXXVI, DON.HEROUR und 14 andere
So etwas wie "genug Rechenleistung" gibt es nicht. Umso schöner, wenn nicht nur Leistung zugebaut, sondern dabei auch ein Hersteller berücksichtigt wird, der mit seinen Instinct-Produkten gerade einen guten Auftritt hatte :)
 
  • Gefällt mir
Reaktionen: flo.murr, MiroPoch, Kitsune-Senpai und 5 andere
AMD hat im gegensatz zu nvidia sehr hoher wahrscheinlichkiet finanzielle vorteile für viele Institutionen sodass ich für amd hier die stärke sehe
 
  • Gefällt mir
Reaktionen: flo.murr, Kitsune-Senpai, mckobain und 4 andere
Die Roadmap mit den Namen hatte das HRLS sogar 2022 schon herausgegeben. Damals natürlich noch ohne Details welche Komponenten verwendet werden. Interessant ist auch Hammer für 2032, was dem Namen nach, ja eigentlich ein AMD-System werden muss. ;)

1702998866951.png
 
  • Gefällt mir
Reaktionen: MiroPoch, Kitsune-Senpai, mckobain und 3 andere
Find ich super mit dem Ausbau für Deutschland, und für AMD freue ich mich auch.

Vor allem wenn Mithilfe von KI (bzw. was aktuell dazu zählt) alles ermöglicht wird gerade bei der Materialforschung.
 
  • Gefällt mir
Reaktionen: MiroPoch, mckobain, C4rp3di3m und eine weitere Person
Die Gesamtkosten für Hunter und Herder belaufen sich auf vergleichsweise günstige 115 Millionen Euro.
Nicht mal halb viel wie der 250 Millionen Euro teure Jupiter mit Nvidias GH200, krass.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MiroPoch, mckobain, nyster und 2 andere
pipin schrieb:
Die Roadmap mit den Namen hatte das HRLS sogar 2022 schon herausgegeben.;)

Anhang anzeigen 1433600

Hier war der Hunter noch für 2024 vorgesehen. Wie kommt es, dass er jetzt auf 2025 verschoben wurde? MI300A ist doch verfügbar. Oder verfügbar aber bis Ende 2024 schon ausgebucht/vorbestellt? Oder wie kommt es zu der Verschiebung?
 
Freiheraus schrieb:
Nicht mal halb viel wie der 250 Millionen Euro teure Jupiter mit Nvidias GH200, krass.

Jupiter kostet deutlich mehr als 250 Millionen. Alleine die öffentlichen Fördermittel sind schon 500 Millionen:

Und da die öffentliche Hand das Projekt Jupiter massiv unterstützt, muss dies auch so sein: 250 Millionen Euro werden von der europäischen Supercomputing-Initiative EuroHPC JU und 250 Millionen Euro zu gleichen Teilen vom Bundesministerium für Bildung und Forschung (BMBF) und dem Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen (MKW NRW) getragen.

Allerdings ist das ja auch deutlich mehr Leistung.
 
  • Gefällt mir
Reaktionen: nyster und Rockstar85
CadillacFan77 schrieb:
Jupiter kostet deutlich mehr als 250 Millionen. Alleine die öffentlichen Fördermittel sind schon 500 Millionen:
Tatsache zweimal 250 Millionen, danke fürs Korrigieren.

Allerdings ist das ja auch deutlich mehr Leistung.
Wo genau und in welcher Gößenordnung? Die FP64 HPC-Leistung ist scheinbar vergleichbar (ExaFLOPs).
Was die FP16/FP8 Genauigkeit, KI-Leistung etc. betrifft, hat MI300(A) gegenüber MI250 massiv aufgeholt und dürfte in die Nähe von GH200 kommen. Auf den ersten Blick erschließen sich mir nicht die über 4-fachen Kosten, abseits vom Gewinnstreben Nvidias.

Edit:
Wenn man für 39 PetaFLOPs (vermtl. FP64) lediglich 136 HPE Cray EX4000-Knoten mit jeweile 4 x MI300A, sprich ingesamt 544 MI300A benötigt, braucht es ingesamt min. rund 14.300 MI300A Beschleuniger um 1 ExaFLOPs zu erreichen. Im Jupiter sind dagegen 23.752 GH200 vorgesehen. Damit dürfte Jupiter (mit Nvidia) dann tatsächlich bei der KI-Leistung vorne liegen, da AMD Instinct überproportional gute FP64 Leistung bietet und daher zwansgläufig weniger MI300A Beschleuniger in Herder zu finden sein werden als GH200 in Juptier. Bei der (HPC)Effizienz dürfte Herder jedoch Jupiter geradezu deklassieren. Wobei El Capitan dem Ganzen noch zuvorkommen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Rawday und nyster
Freiheraus schrieb:
Wenn man für 39 PetaFLOPs (vermtl. FP64) lediglich 136 HPE Cray EX4000-Knoten mit jeweile 4 x MI300A,
Die HPE Cray EX4000 ist kein Knoten sondern ein Cabinet in das 64 blades passen
siehe Seite 2



Bei HPE sind es 8 MI300
 
  • Gefällt mir
Reaktionen: Skysnake, Kitsune-Senpai und N3utr4l1s4t0r
Sollte man solche Kisten nicht besser da aufstellen wo es auch günstigen Strom und Kühlung (bzw. wo man die Abwärme verhökern kann) gibt?

Immerhin geht es hier um Steuergelder.
 
Man kann hier sicher grob von hetzner ableiten was das mehr kostet in D - aber sind ja hier "nur" Steuergelder

Kommerzielle KI Farmen könnten sich das sicher nicht erlauben
 
foofoobar schrieb:
Sollte man solche Kisten nicht besser da aufstellen wo es auch günstigen Strom und Kühlung (bzw. wo man die Abwärme verhökern kann) gibt?

Immerhin geht es hier um Steuergelder.
Wow...

Die Dinger stehen da wo die Leute sind um die zu nutzen - und zu pflegen. In Deutschland an Hochschulen, genau wie in den USA und China. Dort hat man zusätzlich eben noch militärische Geräte, pardon, "für energietechnische Anwendungen".

Wenn Du die Abwärme nutzen möchtest - gibt einen ganzen Campus zu beheizen. Davon abgesehen ist die Region Stuttgart bei erneuerbaren Energien jetzt auch nicht ganz abgeschlagen...
 
  • Gefällt mir
Reaktionen: bnoob und knoxxi
Äh gerade Server und IT Systeme kann man doch problemlos remote nutzen.

Darauf basiert z.B. vermutlich 90% des Homeoffices.

Die Nutzer der Software sind sicher nicht deckungsgleich mit den HW Pflegern.

Bei Hetzner kostet der Storm in D das DOPPELTE im Vergleich zu Finnland - auch da wird doch niemand der einen neuen Server mietet und das aus irgendwechen Gründen muss, das in Deustchland machen selbst wenn er ihn dafür vom Inhalt her für Deutschland nutzt.

Solche Serverfarmen insbesondere AI/KI Farmen verbraten nunmal massig Strom rund um die Uhr auch wenn er oft superknapp ist in D im Winter - hier aus falschem nationalen Stolz Steuergelder der Bürger ohne Mehrwert zu verbraten wenn es nicht sein muss ist halt die falsche Einstellung.

Der Strombedarf in dem Bereich ist doch MASSIV und steigt extrem
https://www.datacenterdynamics.com/...ore-electricity-than-the-netherlands-by-2027/

Die Anzahl der Knoten steigt halt - von der Architektur her gewünscht möglichst exponentiell - der Stromverbauch der einzelnen KI Units sinkt aber sicher eher doch nur linear.
 
Zuletzt bearbeitet:
Hört sich alles ziemlich spannend an. Wir stehen hier gefühlt am Anfang einer neuen technischen Revolution. Immer gut zu hören, wenn auch deutsche Institute und Unternehmen ernsthaften Gebrauch von moderner IT-Technik machen. Gerade in dieser Beziehung hinkt Deutschland im internationalen Vergleich meilenweit hinterher. Das gilt auch für Europa im Gesamten. Ich bin ein absoluter Verfechter dafür, dass die EU ein bedeutender Technologiestandort in der Welt sein muss. Ansonsten werden wir über kurz oder lang unsere Souveränität und Unabhängigkeit verlieren. Und andere Weltmächte werden uns diktieren, was wir zu denken und zu tun haben.
 
Wer in einigen Jahren nicht Strom im Bereich von ~ 5 oder 10 oder 50 Kraftwerke hat die im Prinzip nur dafür 24/7 durchbollern der ist doch eh schon abgeschlagen - der kann nicht an der Spitze mithalten.

Denn die praktische Anwendung von AI und KI ist halt vor allem Masse an Energienutzung und weniger Klasse - ist einfach so.

Ausser man würde die AI/KI komplett ganz neu anders aufziehen - was aber doch extremst unwahrscheinlich ist weil das Prinzip der "Neuronenzahl" halt das Kernelement ist.

Ein trainiertes AI Netz mit 100 Milliarden Neuronen ist halt mit aller Wahrscheinlichkeit vor allem wenn es um universelle Intelligenz geht einem mit 10 Mrd haushoch überlegen. und eins mit 1 Billion dann sehr sehr vermutlich wieder....

Ein Hardcore Gamer der ein Netzteil mit 500W hat kann halt auch nicht die schnellste 4k oder 8k Maschine haben.
 
Bohnenhans schrieb:
Äh gerade Server und IT Systeme kann man doch problemlos remote nutzen.
Wenn du auch ein Bündel Glasfaser zwischen den Standorten legst geht das sicher, dann braucht es nur noch ein paar Leute vor Ort die daran rumbasteln wenn nötig und für die Forschung an der Hardware gibts dann ggf. mehr Dienstreisen. Nach Skandinavien kommt man wenigstens auch ganz gut mit Auto, da muss man nicht fliegen. Dauert dann eben länger.

Ich denke mal dass das üblicherweise vor Ort an der Uni gebaut wird liegt auch daran dass die Nutzer ungern jedes mal einen Stapel SSDs per Kurier verschicken wollen wenn größere Datenmengen auf den Cluster geschoben werden müssen. Jetzt sind die Wege kurz, die Anbindung entsprechend günstig und eher ziemlich schnell im Vergleich zu Internet.
Und je nachdem ob und wie Forschung an der Hardware betrieben wird ist es ungünstig wenn diejenigen nicht 'mal kurz' rübergehen können um Hand anzulegen.
Ein Universitätscluster ist kein typischer (Web- oder Anwendungs-)Server.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Nun ich gehe mal als aller aller minimalste Übertragung für eine Leitung von dem aus was man in CH als privater Nutzer bekommt 25 Gbit symetrisch.

Mit den 25 Gbit kann man (>=) ~ 250 TByte am Tag übertragen - mit 4 hat man dann pro Tag 1 Petabyte - und das gerechnet mit Privatbenutzeranschlüssen.

Das sollte schon reichen. Im Bereich von Exabytes bewegt sich das sicher nicht.
 
Zurück
Oben