News Top500 November 2025: Deutschland hat den ersten Exascale-Computer Europas

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
14.255
  • Gefällt mir
Reaktionen: BorstiNumberOne, flo.murr, herrStreusalz und 15 andere
Kann doch gar nicht sein. Deutschland schafft sich doch seit XYZ Jahren ab.
 
  • Gefällt mir
Reaktionen: flo.murr, maxrl, herrStreusalz und 36 andere
Ich hätte ja nach dem Hype der letzten paar Jahre erwartet, dass die GPU-Datacenter an die Spitze gesprungen sind.

Die Telekom und Nvidia haben doch erst vor kurzem ein neues KI-Datenzentrum in Deutschland angekündigt, das in der ersten Phase 10.000 DGX B200 umfassen soll. Die laufen im Idealfall mit ca. 720 ExaFLOPS Trainingsleistung oder 1.440 ExaFLOPS Inferencing-Leistung. Später sollen insgesamt 100.000 GPU-Racks laufen, also das System die 10fache Leistung haben.
Ist das nicht eines der eher kleineren Datenzentren auf der Welt? Haben nicht OpenAI usw. schon jetzt viel, viel größere Datenzentren im Betrieb?
 
  • Gefällt mir
Reaktionen: flo.murr
Krik schrieb:
Ist das nicht eines der eher kleineren Datenzentren auf der Welt? Haben nicht OpenAI usw. schon jetzt viel, viel größere Datenzentren im Betrieb?
Im Vergleich zu den US-Bigtechs und den Chinesen ist alles in Europa klein.

Das gerade angekündgte Lidl-Rechenzentrum für 11 Milliarden Euro ((https://www.rbb24.de/wirtschaft/bei...nau-rechenzentrum-discounter-spatenstich.html) spielt schon eher oben mit (allerdings haben die Hyperscaler in der Masse immer noch deutlich mehr).
 
  • Gefällt mir
Reaktionen: herrStreusalz
Krik schrieb:
Ist das nicht eines der eher kleineren Datenzentren auf der Welt? Haben nicht OpenAI usw. schon jetzt viel, viel größere Datenzentren im Betrieb?

KI Rechenzentren sind für eine andere Art von Berechnungen ausgelegt. In der TOP 500 wird mit dem sogenannten LinPack gemessen und der misst die Floating Point Rechenleistung bei 64bit. Die KI Sachen brauchen aber alle nur 4 oder 8 bit Genauigkeit. Deswegen wird das vermutlich nicht in die TOP 500 aufgenommen. Aber das ist nur meine persönlich Vermutung.

Das ist übrigens auch der besondere Unterschied von "normalen" Grafikkarten zu Pro Workstation Karten. Letztere sind bei der 64bit Floating Point Berechnung nicht "verkrüpelt vom Hersteller.

Das ist auch der Grund, warum man mit üblichen Grafikkarten wie 4090 oder 5090 die lokalen Modelle trotz verkrüpelter 64bit Floating Point Leistung noch schnell ausführen kann. Weil die KI Sachen das nicht brauchen.
 
  • Gefällt mir
Reaktionen: flo.murr, herrStreusalz, Krik und 6 andere
War früher China nicht noch sehr viel in den Top10 vertreten? War mir zumindest in den letzten 5-10 Jahren in Erinnerung. 🤔
 
Kaufmannsladen schrieb:
Kann doch gar nicht sein. Deutschland schafft sich doch seit XYZ Jahren ab.
Grundlagenforschung sind wir ja noch immer Top... Und irgendwie riechen diese ExaFlops danach (reine Spekulation meinerseits).
 
  • Gefällt mir
Reaktionen: herrStreusalz und Vindoriel
Krik schrieb:
Ich hätte ja nach dem Hype der letzten paar Jahre erwartet, dass die GPU-Datacenter an die Spitze gesprungen sind.

Die Telekom und Nvidia haben doch erst vor kurzem ein neues KI-Datenzentrum in Deutschland angekündigt, das in der ersten Phase 10.000 DGX B200 umfassen soll. Die laufen im Idealfall mit ca. 720 ExaFLOPS Trainingsleistung oder 1.440 ExaFLOPS Inferencing-Leistung. Später sollen insgesamt 100.000 GPU-Racks laufen, also das System die 10fache Leistung haben.
Ist das nicht eines der eher kleineren Datenzentren auf der Welt? Haben nicht OpenAI usw. schon jetzt viel, viel größere Datenzentren im Betrieb?
Nen Hyperacaler oder AI System ist halt kein HPC System. Auf der einen Seite hast du irgendwas zusammengeschusterstes das im wesentlichen unabhängige Dinge macht und auf der anderen ein hochgradig optimiertes System das sehr effizient und feingranular arbeiten kann.

Ganz hand waveing wie der 40 Tonner gegen das formel1 Auto.
 
Spannender find ich ja eher das Ende der Liste; Die CPU-Supercomputer mit >2.500TFlops wirken irgendwie absurd, wenn aktuelle GPUs im Bereich ~100TFLops unterwegs sind.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Cokai schrieb:
Deswegen wird das vermutlich nicht in die TOP 500 aufgenommen.
Der Grund könnte auch einfach sein, dass diese Rechenzentren nicht bei dem Benchmark mitmachen. Das kostet ja auch Zeit und Geld, denk ich mal.
 
estros schrieb:
War früher China nicht noch sehr viel in den Top10 vertreten? War mir zumindest in den letzten 5-10 Jahren in Erinnerung. 🤔
Ja, früher.
Dann kamen die Chip-Sanktionen, und als Reaktion darauf haben die Chinesen SunWay TaihuLight gebaut und damit die Führung der Top500 übernommen. Eine Art Demonstration der Stärke.
Seitdem aber reichen sie kaum noch Benchmarks für die Top500 ein und heute ist nur indirekt bekannt, wie schnell ihre Supercomputer sind.
https://www.tomshardware.com/tech-i...-could-have-the-worlds-fastest-supercomputers
 
  • Gefällt mir
Reaktionen: eSportWarrior
Krik schrieb:
Ich hätte ja nach dem Hype der letzten paar Jahre erwartet, dass die GPU-Datacenter an die Spitze gesprungen sind.
Datacenter sind keine Supercomputer
Krik schrieb:
Die laufen im Idealfall mit ca. 720 ExaFLOPS Trainingsleistung oder 1.440 ExaFLOPS Inferencing-Leistung.
Bei welcher Präzision? Das muss man immer beachten bei diesen Vergleichen. Top500 misst FP64, die Angaben für AI sind mittlerweile oft nur noch für FP4.
Krik schrieb:
Haben nicht OpenAI usw. schon jetzt viel, viel größere Datenzentren im Betrieb?
Ja. Aber um einen vielleicht etwas treffenderen Fahrzeugvergleich zu machen: 1.000 40-Tonner transportieren mehr als ein 3000-Tonnen Schwertransporter. Aber wenn du eine Ölplattform bewegen willst, nutzt dir trotzdem nur letzterer.
 
  • Gefällt mir
Reaktionen: Skysnake
Cr4y schrieb:
Der Grund könnte auch einfach sein, dass diese Rechenzentren nicht bei dem Benchmark mitmachen. Das kostet ja auch Zeit und Geld, denk ich mal.
Ja so nen HPL Lauf kostet schon einiges. Du belegst die Maschine da mal locker für ne Stunde oder mehr. Und allein die Steomkosten ohne Zeitanteil sind bei solchen Kisten schnell mal nen netter Kleinwagen oder mehr....

Von den Vorbereitungen usw reden wir mal lieber nicht.
 
Bright0001 schrieb:
Spannender find ich ja eher das Ende der Liste; Die CPU-Supercomputer mit >2.500TFlops wirken irgendwie absurd, wenn aktuelle GPUs im Bereich ~100TFLops unterwegs sind.
Welche GPU soll das sein?
 
stefan92x schrieb:
Mich würde ja immer noch interessieren, was Aurora wirklich schaffen würde, wenn man heute nochmal benchmarken würde.
Ich würde nicht mit mehr rechnen.

Ich glaub da werden schon heute sie Tage bis zum Abbau gezählt...
 
gaym0r schrieb:
Welche GPU soll das sein?
AMDs MI300X liegen je nach Modell alle um die 80 TFlops FP64. Nicht ganz 100, aber die Größenordnung passt.
Ergänzung ()

Skysnake schrieb:
Ich würde nicht mit mehr rechnen.
War es nicht so, dass nur 90% oder so verfügbar waren für den eingereichten Lauf? Von der miserablen Optimierung abgesehen, die auch offensichtlich war?

Also ein bisschen mehr würde ich schon erwarten.
Skysnake schrieb:
Ich glaub da werden schon heute sie Tage bis zum Abbau gezählt...
Da dürftest du wohl recht haben.
 
Zuletzt bearbeitet:
stefan92x schrieb:
War es nicht so, dass nur 90% oder so verfügbar waren für den eingereichten Lauf? Von der miserablen Optimierung abgesehen, die auch offensichtlich war?

Also ein bisschen mehr würde ich schon erwarten.
Ja und? Wenn du tausende von nodes hast und einen weiteren hinzunimmst der langsamer ist als der Rest, dann wird dein Run einfach nur langsamer. Du musst ja mehr Performance durch einen weiteren Knoten hinzufügen als der Unterschied zwischen dem alten und neuen langsamsten Knoten mal der Anzahl an Knoten.

Und du hast halt ne gewisse Streuung zwischen den Systemen heutzutage. Daher siehst du da eigentlich nirgends mehr einen Run über das gesamte System. Er wäre halt langsamer als der Teilrun...
 
  • Gefällt mir
Reaktionen: stefan92x
Zurück
Oben