@Skysnake trotzdem hatte ich den Eindruck, dass Aurora noch gar nicht richtig fertig war, als der Benchmark für Top500 lief. Und deshalb die Erwartung, dass das nochmal (leicht) gesteigert werden könnte. El Capitan hat ja jetzt nochmal nachgelegt und auch Frontier steht nicht mehr mit dem ersten Ergebnis drin, sondern hat sich zwischenzeitlich verbessert. Eben das hätte ich auch bei Aurora erwartet.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Top500 November 2025: Deutschland hat den ersten Exascale-Computer Europas
- Ersteller MichaG
- Erstellt am
- Zur News: Top500 November 2025: Deutschland hat den ersten Exascale-Computer Europas
Bright0001
Captain
- Registriert
- Juli 2011
- Beiträge
- 3.242
gaym0r schrieb:Welche GPU soll das sein?
Ich dachte da eher an die 5090 mit ~104 TFLOPS (in FP32).stefan92x schrieb:AMDs MI300X liegen je nach Modell alle um die 80 TFlops FP64. Nicht ganz 100, aber die Größenordnung passt.
HighPerf. Gamer
Lieutenant Pro
- Registriert
- Feb. 2019
- Beiträge
- 884
Kaufmannsladen schrieb:Kann doch gar nicht sein. Deutschland schafft sich doch seit XYZ Jahren ab.
Du wirst noch hart auf dem Boden der Realität aufschlagen, warte nur ab. Deutschland ist pleite. 3 Jahre rezession und 900 Milliarden Schuldenberg in nur 4 Jahren nochmal oben drauf zu den 900 Milliarden Schulden der letzten 75 Jahre. Die Zinsen wird man nicht mit einem deindustrialisiertem Land zahlen können. Aus dir spricht blanke Unwissenheit.
gartenriese
Lt. Commander Pro
- Registriert
- Feb. 2011
- Beiträge
- 1.553
Letztes Jahr war im Artikel noch erwähnt, dass China nicht mehr offiziell mitmacht bei der Liste. Also gut möglich, dass die inoffiziell schon noch öfter vertreten wären.estros schrieb:War früher China nicht noch sehr viel in den Top10 vertreten? War mir zumindest in den letzten 5-10 Jahren in Erinnerung. 🤔
Ergänzung ()
Du weißt schon, dass die USA noch viel mehr Schulden hat?HighPerf. Gamer schrieb:Du wirst noch hart auf dem Boden der Realität aufschlagen, warte nur ab. Deutschland ist pleite. 3 Jahre rezession und 900 Milliarden Schuldenberg in nur 4 Jahren nochmal oben drauf zu den 900 Milliarden Schulden der letzten 75 Jahre. Die Zinsen wird man nicht mit einem deindustrialisiertem Land zahlen können. Aus dir spricht blanke Unwissenheit.
Das halt das Problem mit der Liste die Grossen machen nicht mit.
In der Liste machen nur ausschliesslich öffentliche Institute wie Unis Behörden etc mit - KEINE Unternehmen wie Microsoft Amazon Alphabet IBM - das sind nur "staatliche" Teilnehmer bzw Teilnehmer der "öffentlichen Hand".
Das war ok und interessant als Unis noch die grossen Rechenzentren hatten - also so denke bis 200x vielleicht ?- ist aber halt jetzt eher sinnlos geworden seit private Unterhmen meist extrem viel grössere Systeme haben gegen die diese Systeme - auch in der Top 10 - aussehen wie Spielzeuge.
Deutschland hat einen relativ schnellen Uni bzw "Behördenrechner" - nur das sagt diese Liste.
In der Liste machen nur ausschliesslich öffentliche Institute wie Unis Behörden etc mit - KEINE Unternehmen wie Microsoft Amazon Alphabet IBM - das sind nur "staatliche" Teilnehmer bzw Teilnehmer der "öffentlichen Hand".
Das war ok und interessant als Unis noch die grossen Rechenzentren hatten - also so denke bis 200x vielleicht ?- ist aber halt jetzt eher sinnlos geworden seit private Unterhmen meist extrem viel grössere Systeme haben gegen die diese Systeme - auch in der Top 10 - aussehen wie Spielzeuge.
Deutschland hat einen relativ schnellen Uni bzw "Behördenrechner" - nur das sagt diese Liste.
Zuletzt bearbeitet:
HighPerf. Gamer
Lieutenant Pro
- Registriert
- Feb. 2019
- Beiträge
- 884
@gartenriese
Du vergleichst hier Äpfel mit Birnen. Der Petro Dollar der Usa ist überhaupt nicht Vergleichbar mit unserer Situation und dem Euro. Dadurch wurde der Dollar zur Leitwährung und durch Dollar devisen im Ausland erhält so die USA durch den Mechanismus quasi Zinslose Kredite. Ausserdem hat die Usa leichtes Wirtschaftswachstum.
Zuletzt bearbeitet:
Beides falsch.Uzer1510 schrieb:Dass liegt aber nur daran dass die ganz Grossen wie Amazon und Co da gar nicht mitmachen in der Liste -denen ist das egal.
Die wissen sie haben den vieeeeeeeel längeren![]()
Eagle ist ein HPC-System von Microsoft Azure und für dieses Flaggschiff (das größte Cloud-HPC-System) hat MS eben auch einen Lauf für die Top500 gemacht und ist dort fünfter.
Also doch, die machen mit, und nein, die haben keinen längeren.
Nochmal: Ein Datacenter ist kein Supercomputer.
Nun da ist halt eine Ausnahme die die Regel bestätigt vielleicht ein Marketinggag
[According to Microsoft,[/URL] the Fairwater data center in Wisconsin will provide 10 times more computing power than the world's best-equipped data center today when it is completed. It is not clear which hyperscaler will operate it – private companies do not register their systems in the Top500 list of the world's fastest supercomputers.
------------------
https://www.heise.de/en/news/Microsoft-unveils-the-world-s-most-powerful-data-center-10663094.html[/U]
Doch AI Datacenter sind Superomputer - denn da geht es nur ausschliesslich ums Rechnen und nicht ums Daten speichern.
In einem AI Datacenter gibt es im Regelbetrieb 0%(!) Daten die nicht ständig Teil einer Berechnung sind und sich ständig durch Berechnung verändern.
Ein Non AI Datacentzer das statische Daten sperichert ist was anderes aber ein AI Datcenter ist eine permanente maximale ständige Rechenoperation aller im Netz vorhandenen Daten zu neuen Werten - deshalb verbrauchen die auch so extrem viel Strom.
[According to Microsoft,[/URL] the Fairwater data center in Wisconsin will provide 10 times more computing power than the world's best-equipped data center today when it is completed. It is not clear which hyperscaler will operate it – private companies do not register their systems in the Top500 list of the world's fastest supercomputers.
------------------
https://www.heise.de/en/news/Microsoft-unveils-the-world-s-most-powerful-data-center-10663094.html[/U]
Doch AI Datacenter sind Superomputer - denn da geht es nur ausschliesslich ums Rechnen und nicht ums Daten speichern.
In einem AI Datacenter gibt es im Regelbetrieb 0%(!) Daten die nicht ständig Teil einer Berechnung sind und sich ständig durch Berechnung verändern.
Ein Non AI Datacentzer das statische Daten sperichert ist was anderes aber ein AI Datcenter ist eine permanente maximale ständige Rechenoperation aller im Netz vorhandenen Daten zu neuen Werten - deshalb verbrauchen die auch so extrem viel Strom.
Zuletzt bearbeitet:
Ganz so simpel ist es halt nicht. Wenn es da einen koheränten Cluster gibt, der gemeinsam an einer Aufgabe arbeiten kann (sagen wir, das Training von GPT5 oder ähnliches), dann kann man den als Supercomputer bezeichnen.Uzer1510 schrieb:Doch AI Datacenter sind Superomputer - denn da geht es nur ausschliesslich ums Rechnen und nicht ums Daten speichern.
Wenn es da tausende Nodes gibt, die parallel zueinander Inferencing für zigtausende Nutzer betreiben, dann nicht. Beides fällt aber unter den Begriff AI Datacenter.
Wnen 100 User trotzdem alle CPUs permanent voll auslasten wo soll denn da der Unterschied dann sein?
Entscheidend ist was kann der Rechner maximal.
Sonst müssten die "klassischen" Supercomputer auch aus der Liste fliegen sobald da mal kein Programm läuft und die im idle sind.
Jülich hat 18 MW im Volllastbetrieb... und das ist halt für einen Supercomputer wenn man die der Privatwirtschaft einbezieht super wenig.
Da fast alle auf der Nvidia Basis sind kann man recht gut vergleichen denn bei AI Dacenter macht sicher Rechenleistung den Grossteil des Stromverbrauch aus - Festplatten SSD und Co vermeidet man ja
Entscheidend ist was kann der Rechner maximal.
Sonst müssten die "klassischen" Supercomputer auch aus der Liste fliegen sobald da mal kein Programm läuft und die im idle sind.
Jülich hat 18 MW im Volllastbetrieb... und das ist halt für einen Supercomputer wenn man die der Privatwirtschaft einbezieht super wenig.
Da fast alle auf der Nvidia Basis sind kann man recht gut vergleichen denn bei AI Dacenter macht sicher Rechenleistung den Grossteil des Stromverbrauch aus - Festplatten SSD und Co vermeidet man ja
Zuletzt bearbeitet:
eastcoast_pete
Commander
- Registriert
- Juni 2020
- Beiträge
- 2.273
Eine (leider!) nötige Klarstellung: Der Jupiter Exascale Supercomputer ist (steht ) in Deutschland, er kommt nicht aus Deutschland. Leider ist das so, da es schon länger keine großen CPUs oder GPUs mehr gibt, die "Made in Germany" oder auch "Developed in Germany" sind.
estros schrieb:War früher China nicht noch sehr viel in den Top10 vertreten? War mir zumindest in den letzten 5-10 Jahren in Erinnerung. 🤔
Wenn ich das richtig in Erinnerung habe stand mal in einem anderen CB Artikel, dass China keine neuen Systeme mehr an diese Liste meldet und deshalb Stück für Stück im Ranking abgedrängt wird...? 🤔 Wundert mich, dass das in diesem Artikel keine Erwähnung mehr findet. 🧐
Ja, aber das Ding soll jetzt einfach laufen. Die Ergebnisse sind absoluter Schrott und werden Schrott bleiben. Und je nachdem muss man wegen der zu hohen Leistungsaufnahme schauen ob das Ding überhaupt so laufen kann oder was man alles extra bedenken/machen muss wie bei kaltem Wetter laufen lassen usw usf.stefan92x schrieb:@Skysnake trotzdem hatte ich den Eindruck, dass Aurora noch gar nicht richtig fertig war, als der Benchmark für Top500 lief. Und deshalb die Erwartung, dass das nochmal (leicht) gesteigert werden könnte. El Capitan hat ja jetzt nochmal nachgelegt und auch Frontier steht nicht mehr mit dem ersten Ergebnis drin, sondern hat sich zwischenzeitlich verbessert. Eben das hätte ich auch bei Aurora erwartet.
Auf den Stress hat keiner bock zumal Intel als Prime Contractor da auch massiv mitarbeiten müsste um nochmals nen Lauf zu machen und jetzt überlege dir mal woran Intel aktuell kein Interesse hat. Richtig Geld ausgeben. Im Zweifel gibt es die Leute gar nicht mehr bei denen und HPE wird auch keine Lust drauf haben das Desaster nochmals in die Medien zu heben.
Schau dir nu4 mal BlueWaters an. Das war einer der schnellsten Rechner der Welt zu seiner Zeit der mit AMD gebaut wurde nachdem IBM den Auftrag zurückgegeben hatte weil Sies nicht hinbekommen haben. Da gab es gar keinen Eintrag in der Liste als das unvorstellbarwar keinen zu machen. Das Thema wollte aber einfach jeder nur noch erledigt haben und die Effizienz vs Plan war vermutlich noch schlechter als bei Aurora.
Falsch.Uzer1510 schrieb:Das halt das Problem mit der Liste die Grossen machen nicht mit
Was nicht mit macht sind ein Großteil der Cloud Anbieter und die ganzen AI Firmen sowie China und eben Organisationen wie die CIA in den USA oder die Atomeneegiebehörde in Frankreich die auch Kernwaffen usw in Frankreich macht.
VW, Skoda, BMW, Microsoft, nVidia, Intel und noch viele viele mehr würde ich jetzt nicht als staatliche Teilnehmer oder öffentliche Hand bezeichnen.Uzer1510 schrieb:In der Liste machen nur ausschliesslich öffentliche Institute wie Unis Behörden etc mit - KEINE Unternehmen wie Microsoft Amazon Alphabet IBM - das sind nur "staatliche" Teilnehmer bzw Teilnehmer der "öffentlichen Hand
Ob das ein Marketinggag ist darüber kann man sich streiten. Ich würde ihm nicht gänzlich widersprechen. Man muss einen Lauf aber auch erstmal schaffen und AWS traut sich da in meinen Augen nicht was sicherlich nicht ganz unbegründet ist nach meiner Erfahrung mit denen.Uzer1510 schrieb:Nun da ist halt eine Ausnahme die die Regel bestätigt vielleicht ein Marketinggag
Nein sind Sie nicht zwingend.Uzer1510 schrieb:Doch AI Datacenter sind Superompute
und bei einem Superxomputer geht es um mehr. Auch mehr als die Top500. Ne Stuntmaschine ist halt genau das.Uzer1510 schrieb:denn da geht es nur ausschliesslich ums Rechnen und nicht ums Daten speichern.
Und wenn man ganz formal nach Gardner geht geht es rein über den Preis und glaub noch die grundsätzliche Auslegung etwas wie einen HPL laufen lassen zu können. Aber an sich real gehört da noch mehr dazu. Z.b. ein leistungsstarkes Storage system usw usf.
Falsch.Uzer1510 schrieb:In einem AI Datacenter gibt es im Regelbetrieb 0%(!) Daten die nicht ständig Teil einer Berechnung sind und sich ständig durch Berechnung verändern.
Oder was meinst du wo die Trainingsdatensets gespeichert werden?
oh man...
Oh man.... Daten statisch speichern brauch fast überhaupt keinen Strom und ist zudem sau billig. Tape Library sei dank...Uzer1510 schrieb:Ein Non AI Datacentzer das statische Daten sperichert ist was anderes aber ein AI Datcenter ist eine permanente maximale ständige Rechenoperation aller im Netz vorhandenen Daten zu neuen Werten - deshalb verbrauchen die auch so extrem viel Strom.
Sie auch sonst man sieht du hast keine Ahnung.
Die bekannten AI Center brauchen so viel Saft weil die da Unmengen an HW reinkarren und die laufen lassen mit Jobs. Das wars.
Wobei die Frage ist ob ein AI Cluster das können muss. Du kannst im Zweifel viel völlig unabhängig laufen lassen. Da muss man schon aufpassen. Zumal FP64 dort inzwischen einfach egal ist. Sprich auf der HW läuft im Zweifel gar kein HPL selbst wenn man will.stefan92x schrieb:Ganz so simpel ist es halt nicht. Wenn es da einen koheränten Cluster gibt, der gemeinsam an einer Aufgabe arbeiten kann (sagen wir, das Training von GPT5 oder ähnliches), dann kann man den als Supercomputer bezeichnen.
Oh man....Uzer1510 schrieb:Wnen 100 User trotzdem alle CPUs permanent voll auslasten wo soll denn da der Unterschied dann sein?
Der Unterschied liegt im kompletten Design das im Zweifel dir gar nicht erlaubt einen HPL laufen zu lassen selbst wenn du willst oder du bekommst kack Werte raus sofern du überhaupt einen Lauf hinbekommst....
Ein HPL Lauf bei so großen Systemen ist nicht trivial. Das verkackst du gerne mal.
Uzer1510 schrieb:Entscheidend ist was kann der Rechner maximal.
ja im realen ausführen und nicht auf dem Papier. In so nem AI Datencenter hast du im Zweifel zick Cluster stehen die gar nicht effizient an einem Problem rechnen können.
-_-Uzer1510 schrieb:Da fast alle auf der Nvidia Basis sind kann man recht gut vergleichen denn bei AI Dacenter macht sicher Rechenleistung den Grossteil des Stromverbrauch aus - Festplatten SSD und Co vermeidet man ja
Gerade AI Systeme haben oft massig lokalen Speicher für die Trainingsdaten....
Das klassische HPC System hat gar keinen Storage im Knoten. So btw.
Naja, dann stelle bitte klar und sage von der Erde.eastcoast_pete schrieb:Eine (leider!) nötige Klarstellung: Der Jupiter Exascale Supercomputer ist (steht ) in Deutschland, er kommt nicht aus Deutschland. Leider ist das so, da es schon länger keine großen CPUs oder GPUs mehr gibt, die "Made in Germany" oder auch "Developed in Germany" sind.
Es gibt auch Dinge die aus Deutschland kommen und aus massig vielen anderen Ländern.
Ich sage nur Deep Deeper Deepest Parastation MPI usw.
Ein Supercomputer ist mehr als seine Einzelteile.
Drummermatze
Commander
- Registriert
- Sep. 2014
- Beiträge
- 2.764
Und wofür wird das Ding genutzt?
cuthbert
Captain
- Registriert
- Jan. 2007
- Beiträge
- 3.136
Interessant wären mal Werte von KI Rechenzentren wie von OpenAI. Sicher liegt hier der Fokus etwas anders als beim wissenschaftlichen HPC, aber am Ende müsste es sich doch grob vergleichen lassen.
Ich vermute mal, dass in KI Zentren deutlich mehr Kohle geht als in HPC.
Ich vermute mal, dass in KI Zentren deutlich mehr Kohle geht als in HPC.
Tekwin
Lieutenant
- Registriert
- Jan. 2013
- Beiträge
- 646
https://www.fz-juelich.de/de/forschung/unsere-forschung/information/supercomputing/exascaleDrummermatze schrieb:Und wofür wird das Ding genutzt?
Direkt von der Website:
"Als Forschungsinfrastruktur wird JUPITER dazu beitragen, grundlegende und drängende wissenschaftliche Fragen zu lösen, etwa zum Klimawandel, zur Bewältigung von Pandemien und zur nachhaltigen Energieerzeugung. Er wird den intensiven Einsatz von Künstlicher Intelligenz sowie die Analyse großer Datenmengen ermöglichen."
Zuletzt bearbeitet:
Nur teilweise. Drei Begriffe sollte man auf dem Schirm haben, wenn man über sowas redet: Scale Up, Scale Out, Scale Acrosscuthbert schrieb:Interessant wären mal Werte von KI Rechenzentren wie von OpenAI. Sicher liegt hier der Fokus etwas anders als beim wissenschaftlichen HPC, aber am Ende müsste es sich doch grob vergleichen lassen.
Sobald du Scale Across machst, kannst du es vergessen, einen HPL-Lauf über alles zu machen. Vielleicht läuftes sogar, aber ziemlich sicher mit miserabler Effizienz. Es ist dann eher so, dass man ein Datacenter als Netzwerk von Dutzenden verbundenen Clustern verstehen kann, als als ein großes System.
Entsprechend wäre meine Vermutung, dass OpenAI viele Plätze in der Top500 belegen könnte, aber nicht unbedingt die Spitzenplätze angreifen könnte.
Oh ja das tut es...cuthbert schrieb:Ich vermute mal, dass in KI Zentren deutlich mehr Kohle geht als in HPC.
sethdiabolos
Commodore
- Registriert
- Aug. 2004
- Beiträge
- 4.724
Ich finde es beeindruckend, dass jeder User mit halbwegs aktueller Hardware inzwischen die Power eines Super-Computers von vor 20-25 Jahren zuhause stehen hat. Mal schauen, was wir in 25 Jahren für eine Petaflop-Leistung zuhause stehen haben...;D
supertramp
Commander
- Registriert
- Juli 2003
- Beiträge
- 2.239
Und wie viel Prozent davon ist mit EU oder Deutscher Technologie realisiert worden?
Ähnliche Themen
- Antworten
- 13
- Aufrufe
- 2.172
- Antworten
- 35
- Aufrufe
- 9.567