News Supercomputer Alice Recoque: AMD Venice und MI430X im französischen Exascale-System

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
19.571
  • Gefällt mir
Reaktionen: flo.murr, zhompster, schneeland und 8 andere
Sehr stark!
Bin tatsächlich von den Preisen überraschet, 500mio€ für 5 Jahre Betrieb inklusive aller Kosten erscheint mir recht wenig.
Aber ich kann den Nutzen eines solchen Systems auch nicht abschätzen.
Aber wenn man alleine die Kosten beim HLRS für einfache Vulkan Cluster kennt (cfd) wohl sicherlich ne sichere Gewinneinnajme
 
  • AMD Epyc 9006 mit Zen-6-Architektur im Vollausbau mit 256 Kernen,
  • AMD Instinct MI430X mit 432 GByte HBM4
Das liest sich sehr lecker

Gespannt bin ich aber auch auf die Rhea2 CPUs, von denen habe ich bisher wenig gelesen
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
AMD scheint endgültig angekommen!
 
  • Gefällt mir
Reaktionen: nyster und Santa Clause
Interessant ist der Stromverbrauch von "nur" 20MWh
Das Rechenzentrum der T-Com in Bayern soll mit nur 10k NVIDIA Karten 13MWh benötigen
Der Neue Cluster von Vodafone mit 100k NVIDIA Karten 200MWh
Hört/liest sich erstmal so, als sei es recht effizient, wenn man das überhaupt so sagen darf/kann.
 
  • Gefällt mir
Reaktionen: zhompster und Santa Clause
Freiheraus schrieb:
550 Mio Euro erscheinen wirklich günstig bzw. "klein" z. B. im Vergleich zum 11 Mrd. Euro Rechenzentrum das die Schwarzgruppe plant: https://www.t-online.de/finanzen/ak...r-baut-riesen-rechenzentrum-in-luebbenau.html
Supercomputer sind keine Rechenzentren, sie werden in Rechenzentren aufgebaut.
Ergänzung ()

DerHoschi schrieb:
Interessant ist der Stromverbrauch von "nur" 20MW
Es sollen ja sogar <15MW sein. 94 Helios Racks a 72 MI400 ergibt 6768 GPUs oder knapp 2,2kW pro GPU (wenn man alle anderen Komponenten mal auf die GPUs umschlägt)
DerHoschi schrieb:
Das Rechenzentrum der T-Com in Bayern soll mit nur 10k NVIDIA Karten 13MWh benötigen
Da sind wir bei nur 1,3kW pro GPU
DerHoschi schrieb:
Der Neue Cluster von Vodafone mit 100k NVIDIA Karten 200MW
2kW pro GPU
DerHoschi schrieb:
Hört/liest sich erstmal so, als sei es recht effizient, wenn man das überhaupt so sagen darf/kann.
Wenn man davon ausgeht, dass die gleiche Rechenleistung wie bei Jupiter (15,8 MW) angestrebt wird, dann ist der Fortschritt gar nicht mal so groß. Aber immerhin vorhanden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ETI1120, nyster und DerHoschi
Zurück
Oben