News Top500 November 2025: Deutschland hat den ersten Exascale-Computer Europas

@Skysnake trotzdem hatte ich den Eindruck, dass Aurora noch gar nicht richtig fertig war, als der Benchmark für Top500 lief. Und deshalb die Erwartung, dass das nochmal (leicht) gesteigert werden könnte. El Capitan hat ja jetzt nochmal nachgelegt und auch Frontier steht nicht mehr mit dem ersten Ergebnis drin, sondern hat sich zwischenzeitlich verbessert. Eben das hätte ich auch bei Aurora erwartet.
 
  • Gefällt mir
Reaktionen: geisi1909
Kaufmannsladen schrieb:
Kann doch gar nicht sein. Deutschland schafft sich doch seit XYZ Jahren ab.

Du wirst noch hart auf dem Boden der Realität aufschlagen, warte nur ab. Deutschland ist pleite. 3 Jahre rezession und 900 Milliarden Schuldenberg in nur 4 Jahren nochmal oben drauf zu den 900 Milliarden Schulden der letzten 75 Jahre. Die Zinsen wird man nicht mit einem deindustrialisiertem Land zahlen können. Aus dir spricht blanke Unwissenheit.
 
  • Gefällt mir
Reaktionen: Kadett_Pirx, RichieMc85, peru3232 und 2 andere
Dass liegt aber nur daran dass die ganz Grossen wie Amazon und Co da gar nicht mitmachen in der Liste -denen ist das egal.

Die wissen sie haben den vieeeeeeeel längeren :D
 
estros schrieb:
War früher China nicht noch sehr viel in den Top10 vertreten? War mir zumindest in den letzten 5-10 Jahren in Erinnerung. 🤔
Letztes Jahr war im Artikel noch erwähnt, dass China nicht mehr offiziell mitmacht bei der Liste. Also gut möglich, dass die inoffiziell schon noch öfter vertreten wären.
Ergänzung ()

HighPerf. Gamer schrieb:
Du wirst noch hart auf dem Boden der Realität aufschlagen, warte nur ab. Deutschland ist pleite. 3 Jahre rezession und 900 Milliarden Schuldenberg in nur 4 Jahren nochmal oben drauf zu den 900 Milliarden Schulden der letzten 75 Jahre. Die Zinsen wird man nicht mit einem deindustrialisiertem Land zahlen können. Aus dir spricht blanke Unwissenheit.
Du weißt schon, dass die USA noch viel mehr Schulden hat?
 
Das halt das Problem mit der Liste die Grossen machen nicht mit.

In der Liste machen nur ausschliesslich öffentliche Institute wie Unis Behörden etc mit - KEINE Unternehmen wie Microsoft Amazon Alphabet IBM - das sind nur "staatliche" Teilnehmer bzw Teilnehmer der "öffentlichen Hand".

Das war ok und interessant als Unis noch die grossen Rechenzentren hatten - also so denke bis 200x vielleicht ?- ist aber halt jetzt eher sinnlos geworden seit private Unterhmen meist extrem viel grössere Systeme haben gegen die diese Systeme - auch in der Top 10 - aussehen wie Spielzeuge.

Deutschland hat einen relativ schnellen Uni bzw "Behördenrechner" - nur das sagt diese Liste.
 
Zuletzt bearbeitet:

@gartenriese

Du vergleichst hier Äpfel mit Birnen. Der Petro Dollar der Usa ist überhaupt nicht Vergleichbar mit unserer Situation und dem Euro. Dadurch wurde der Dollar zur Leitwährung und durch Dollar devisen im Ausland erhält so die USA durch den Mechanismus quasi Zinslose Kredite. Ausserdem hat die Usa leichtes Wirtschaftswachstum.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kadett_Pirx, RichieMc85, Ford_Prefekt und 2 andere
Uzer1510 schrieb:
Dass liegt aber nur daran dass die ganz Grossen wie Amazon und Co da gar nicht mitmachen in der Liste -denen ist das egal.

Die wissen sie haben den vieeeeeeeel längeren :D
Beides falsch.

Eagle ist ein HPC-System von Microsoft Azure und für dieses Flaggschiff (das größte Cloud-HPC-System) hat MS eben auch einen Lauf für die Top500 gemacht und ist dort fünfter.

Also doch, die machen mit, und nein, die haben keinen längeren.

Nochmal: Ein Datacenter ist kein Supercomputer.
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
Nun da ist halt eine Ausnahme die die Regel bestätigt vielleicht ein Marketinggag

[According to Microsoft,[/URL] the Fairwater data center in Wisconsin will provide 10 times more computing power than the world's best-equipped data center today when it is completed. It is not clear which hyperscaler will operate it – private companies do not register their systems in the Top500 list of the world's fastest supercomputers.

------------------
https://www.heise.de/en/news/Microsoft-unveils-the-world-s-most-powerful-data-center-10663094.html[/U]


Doch AI Datacenter sind Superomputer - denn da geht es nur ausschliesslich ums Rechnen und nicht ums Daten speichern.

In einem AI Datacenter gibt es im Regelbetrieb 0%(!) Daten die nicht ständig Teil einer Berechnung sind und sich ständig durch Berechnung verändern.

Ein Non AI Datacentzer das statische Daten sperichert ist was anderes aber ein AI Datcenter ist eine permanente maximale ständige Rechenoperation aller im Netz vorhandenen Daten zu neuen Werten - deshalb verbrauchen die auch so extrem viel Strom.
 
Zuletzt bearbeitet:
Uzer1510 schrieb:
Doch AI Datacenter sind Superomputer - denn da geht es nur ausschliesslich ums Rechnen und nicht ums Daten speichern.
Ganz so simpel ist es halt nicht. Wenn es da einen koheränten Cluster gibt, der gemeinsam an einer Aufgabe arbeiten kann (sagen wir, das Training von GPT5 oder ähnliches), dann kann man den als Supercomputer bezeichnen.

Wenn es da tausende Nodes gibt, die parallel zueinander Inferencing für zigtausende Nutzer betreiben, dann nicht. Beides fällt aber unter den Begriff AI Datacenter.
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
Wnen 100 User trotzdem alle CPUs permanent voll auslasten wo soll denn da der Unterschied dann sein?

Entscheidend ist was kann der Rechner maximal.

Sonst müssten die "klassischen" Supercomputer auch aus der Liste fliegen sobald da mal kein Programm läuft und die im idle sind.

Jülich hat 18 MW im Volllastbetrieb... und das ist halt für einen Supercomputer wenn man die der Privatwirtschaft einbezieht super wenig.

Da fast alle auf der Nvidia Basis sind kann man recht gut vergleichen denn bei AI Dacenter macht sicher Rechenleistung den Grossteil des Stromverbrauch aus - Festplatten SSD und Co vermeidet man ja
 
Zuletzt bearbeitet:
Eine (leider!) nötige Klarstellung: Der Jupiter Exascale Supercomputer ist (steht ) in Deutschland, er kommt nicht aus Deutschland. Leider ist das so, da es schon länger keine großen CPUs oder GPUs mehr gibt, die "Made in Germany" oder auch "Developed in Germany" sind.
 
estros schrieb:
War früher China nicht noch sehr viel in den Top10 vertreten? War mir zumindest in den letzten 5-10 Jahren in Erinnerung. 🤔

Wenn ich das richtig in Erinnerung habe stand mal in einem anderen CB Artikel, dass China keine neuen Systeme mehr an diese Liste meldet und deshalb Stück für Stück im Ranking abgedrängt wird...? 🤔 Wundert mich, dass das in diesem Artikel keine Erwähnung mehr findet. 🧐
 
stefan92x schrieb:
@Skysnake trotzdem hatte ich den Eindruck, dass Aurora noch gar nicht richtig fertig war, als der Benchmark für Top500 lief. Und deshalb die Erwartung, dass das nochmal (leicht) gesteigert werden könnte. El Capitan hat ja jetzt nochmal nachgelegt und auch Frontier steht nicht mehr mit dem ersten Ergebnis drin, sondern hat sich zwischenzeitlich verbessert. Eben das hätte ich auch bei Aurora erwartet.
Ja, aber das Ding soll jetzt einfach laufen. Die Ergebnisse sind absoluter Schrott und werden Schrott bleiben. Und je nachdem muss man wegen der zu hohen Leistungsaufnahme schauen ob das Ding überhaupt so laufen kann oder was man alles extra bedenken/machen muss wie bei kaltem Wetter laufen lassen usw usf.

Auf den Stress hat keiner bock zumal Intel als Prime Contractor da auch massiv mitarbeiten müsste um nochmals nen Lauf zu machen und jetzt überlege dir mal woran Intel aktuell kein Interesse hat. Richtig Geld ausgeben. Im Zweifel gibt es die Leute gar nicht mehr bei denen und HPE wird auch keine Lust drauf haben das Desaster nochmals in die Medien zu heben.

Schau dir nu4 mal BlueWaters an. Das war einer der schnellsten Rechner der Welt zu seiner Zeit der mit AMD gebaut wurde nachdem IBM den Auftrag zurückgegeben hatte weil Sies nicht hinbekommen haben. Da gab es gar keinen Eintrag in der Liste als das unvorstellbarwar keinen zu machen. Das Thema wollte aber einfach jeder nur noch erledigt haben und die Effizienz vs Plan war vermutlich noch schlechter als bei Aurora.

Uzer1510 schrieb:
Das halt das Problem mit der Liste die Grossen machen nicht mit
Falsch.

Was nicht mit macht sind ein Großteil der Cloud Anbieter und die ganzen AI Firmen sowie China und eben Organisationen wie die CIA in den USA oder die Atomeneegiebehörde in Frankreich die auch Kernwaffen usw in Frankreich macht.
Uzer1510 schrieb:
In der Liste machen nur ausschliesslich öffentliche Institute wie Unis Behörden etc mit - KEINE Unternehmen wie Microsoft Amazon Alphabet IBM - das sind nur "staatliche" Teilnehmer bzw Teilnehmer der "öffentlichen Hand
VW, Skoda, BMW, Microsoft, nVidia, Intel und noch viele viele mehr würde ich jetzt nicht als staatliche Teilnehmer oder öffentliche Hand bezeichnen.

Uzer1510 schrieb:
Nun da ist halt eine Ausnahme die die Regel bestätigt vielleicht ein Marketinggag
Ob das ein Marketinggag ist darüber kann man sich streiten. Ich würde ihm nicht gänzlich widersprechen. Man muss einen Lauf aber auch erstmal schaffen und AWS traut sich da in meinen Augen nicht was sicherlich nicht ganz unbegründet ist nach meiner Erfahrung mit denen.

Uzer1510 schrieb:
Doch AI Datacenter sind Superompute
Nein sind Sie nicht zwingend.

Uzer1510 schrieb:
denn da geht es nur ausschliesslich ums Rechnen und nicht ums Daten speichern.
und bei einem Superxomputer geht es um mehr. Auch mehr als die Top500. Ne Stuntmaschine ist halt genau das.

Und wenn man ganz formal nach Gardner geht geht es rein über den Preis und glaub noch die grundsätzliche Auslegung etwas wie einen HPL laufen lassen zu können. Aber an sich real gehört da noch mehr dazu. Z.b. ein leistungsstarkes Storage system usw usf.

Uzer1510 schrieb:
In einem AI Datacenter gibt es im Regelbetrieb 0%(!) Daten die nicht ständig Teil einer Berechnung sind und sich ständig durch Berechnung verändern.
Falsch.

Oder was meinst du wo die Trainingsdatensets gespeichert werden?

oh man...

Uzer1510 schrieb:
Ein Non AI Datacentzer das statische Daten sperichert ist was anderes aber ein AI Datcenter ist eine permanente maximale ständige Rechenoperation aller im Netz vorhandenen Daten zu neuen Werten - deshalb verbrauchen die auch so extrem viel Strom.
Oh man.... Daten statisch speichern brauch fast überhaupt keinen Strom und ist zudem sau billig. Tape Library sei dank...

Sie auch sonst man sieht du hast keine Ahnung.

Die bekannten AI Center brauchen so viel Saft weil die da Unmengen an HW reinkarren und die laufen lassen mit Jobs. Das wars.

stefan92x schrieb:
Ganz so simpel ist es halt nicht. Wenn es da einen koheränten Cluster gibt, der gemeinsam an einer Aufgabe arbeiten kann (sagen wir, das Training von GPT5 oder ähnliches), dann kann man den als Supercomputer bezeichnen.
Wobei die Frage ist ob ein AI Cluster das können muss. Du kannst im Zweifel viel völlig unabhängig laufen lassen. Da muss man schon aufpassen. Zumal FP64 dort inzwischen einfach egal ist. Sprich auf der HW läuft im Zweifel gar kein HPL selbst wenn man will.

Uzer1510 schrieb:
Wnen 100 User trotzdem alle CPUs permanent voll auslasten wo soll denn da der Unterschied dann sein?
Oh man....

Der Unterschied liegt im kompletten Design das im Zweifel dir gar nicht erlaubt einen HPL laufen zu lassen selbst wenn du willst oder du bekommst kack Werte raus sofern du überhaupt einen Lauf hinbekommst....

Ein HPL Lauf bei so großen Systemen ist nicht trivial. Das verkackst du gerne mal.


Uzer1510 schrieb:
Entscheidend ist was kann der Rechner maximal.

ja im realen ausführen und nicht auf dem Papier. In so nem AI Datencenter hast du im Zweifel zick Cluster stehen die gar nicht effizient an einem Problem rechnen können.

Uzer1510 schrieb:
Da fast alle auf der Nvidia Basis sind kann man recht gut vergleichen denn bei AI Dacenter macht sicher Rechenleistung den Grossteil des Stromverbrauch aus - Festplatten SSD und Co vermeidet man ja
-_-

Gerade AI Systeme haben oft massig lokalen Speicher für die Trainingsdaten....

Das klassische HPC System hat gar keinen Storage im Knoten. So btw.


eastcoast_pete schrieb:
Eine (leider!) nötige Klarstellung: Der Jupiter Exascale Supercomputer ist (steht ) in Deutschland, er kommt nicht aus Deutschland. Leider ist das so, da es schon länger keine großen CPUs oder GPUs mehr gibt, die "Made in Germany" oder auch "Developed in Germany" sind.
Naja, dann stelle bitte klar und sage von der Erde.

Es gibt auch Dinge die aus Deutschland kommen und aus massig vielen anderen Ländern.

Ich sage nur Deep Deeper Deepest Parastation MPI usw.

Ein Supercomputer ist mehr als seine Einzelteile.
 
  • Gefällt mir
Reaktionen: Obvision und stefan92x
Interessant wären mal Werte von KI Rechenzentren wie von OpenAI. Sicher liegt hier der Fokus etwas anders als beim wissenschaftlichen HPC, aber am Ende müsste es sich doch grob vergleichen lassen.

Ich vermute mal, dass in KI Zentren deutlich mehr Kohle geht als in HPC.
 
Drummermatze schrieb:
Und wofür wird das Ding genutzt?
https://www.fz-juelich.de/de/forschung/unsere-forschung/information/supercomputing/exascale

Direkt von der Website:
"Als Forschungsinfrastruktur wird JUPITER dazu beitragen, grundlegende und drängende wissenschaftliche Fragen zu lösen, etwa zum Klimawandel, zur Bewältigung von Pandemien und zur nachhaltigen Energieerzeugung. Er wird den intensiven Einsatz von Künstlicher Intelligenz sowie die Analyse großer Datenmengen ermöglichen."
 
Zuletzt bearbeitet:
cuthbert schrieb:
Interessant wären mal Werte von KI Rechenzentren wie von OpenAI. Sicher liegt hier der Fokus etwas anders als beim wissenschaftlichen HPC, aber am Ende müsste es sich doch grob vergleichen lassen.
Nur teilweise. Drei Begriffe sollte man auf dem Schirm haben, wenn man über sowas redet: Scale Up, Scale Out, Scale Across

Sobald du Scale Across machst, kannst du es vergessen, einen HPL-Lauf über alles zu machen. Vielleicht läuftes sogar, aber ziemlich sicher mit miserabler Effizienz. Es ist dann eher so, dass man ein Datacenter als Netzwerk von Dutzenden verbundenen Clustern verstehen kann, als als ein großes System.

Entsprechend wäre meine Vermutung, dass OpenAI viele Plätze in der Top500 belegen könnte, aber nicht unbedingt die Spitzenplätze angreifen könnte.
cuthbert schrieb:
Ich vermute mal, dass in KI Zentren deutlich mehr Kohle geht als in HPC.
Oh ja das tut es...
 
Ich finde es beeindruckend, dass jeder User mit halbwegs aktueller Hardware inzwischen die Power eines Super-Computers von vor 20-25 Jahren zuhause stehen hat. Mal schauen, was wir in 25 Jahren für eine Petaflop-Leistung zuhause stehen haben...;D
 
Und wie viel Prozent davon ist mit EU oder Deutscher Technologie realisiert worden?
 
Zurück
Oben