News Top500 Supercomputer: Frontier hat mit 1,2 ExaFLOPS weiterhin keine Konkurrenz

Ich hatte in Erinnerung, dass China eine Zeitlang 5 der Top 10 Supercomputer gestellt hat. (神威·太湖之光, etc.)
Jetzt sind die Chinesen ziemlich weit abgeschlagen.

Hab ich was verpasst ?
Oder ist dies eine Auswirkung des Exportverbotes von Hightech CPUs / Produkten nach China?
 
  • Gefällt mir
Reaktionen: sNiPe
@Kantonspital

Ich denke, es liegt auch daran was offiziell zugegeben wird. In der Meldung wird ja auch beschrieben, dass es wahrscheinlich inoffiziell einen Chinesischen Supercomputer mit 1,7 ExaFlops gibt. Bleibt der frage wer sonst noch was verheimlicht, aber ich denke den ein oder anderen wird es in China noch geben
 
  • Gefällt mir
Reaktionen: Alpha.Male, Redundanz, nyster und eine weitere Person
Freiheraus schrieb:
Schon etwas überraschend, dass die effizienten Rechner mit Intel Xeon / Nvidia H100 in den Green500 generell wenig Leistung auf die Waage bringen, Platz 255 und 438 der Top500.
Die werden halt ein paar dutzend weniger Netzwerkkarten und andere IO Hardware brauchen.
 
Schon heftig was das für eine Leistung ist.
 
  • Gefällt mir
Reaktionen: Recharging
Axxid schrieb:
Irgendwie haben diese Computer doch etwas an Reiz verloren als ich realisiert habe, dass man sie theoretische beliebig skalieren kann und es am Ende nur darauf ankommt, wer am meisten Geld ausgeben kann/will.
Na so einfach ist es nicht. Klar braucht man ne Menge Schotter für die ersten Plätze, aber nur weil man das mit Geld bewirft funktioniert das nicht zwingend. Ich hatte schon mit nem 2000 Knoten System meinen Spaß mit den 10k von den ganz großen wird es nicht besser...
 
Axxid schrieb:
als ich realisiert habe, dass man sie theoretische beliebig skalieren kann und es am Ende nur darauf ankommt, wer am meisten Geld ausgeben kann/will.
Najaaa. Das würde ich so einfach nicht sagen.
Da werden ja nicht einfach nur beliebige Mengen Server zusammengeschaltet.
Die Hohe Kunst ist das Zusammenspiel der Komponenten. Also die Koordination der Aufgaben und vor allem Speichermanagement und Datenaustausch.
Rohleistung kannst du theoretisch beliebig skalieren aber du kannst sie dann eben in der Praxis nicht nutzen weil du überall Flaschenhälse in der Kommunikation hast.
 
  • Gefällt mir
Reaktionen: Recharging und LamaMitHut
Irgendwie krass und zugleich unglaubwürdig, dass ein System von 2013 heute noch auf Platz 10 der Weltrangliste ist.
 
DevPandi schrieb:
Oh, bei der RTX 4090 sieht es eigentlich noch schlechter aus als bei RDNA2 (1:16). Die 4090 schafft gerade mal 1,2 GFlop/s (1:64). Man benötigt also nicht NUR 14.500 RTX 4090, sondern mal schlappe 1.000.000.000. ;)

Es sind 1,3 TFlop/s nicht GFlop/s bei der RTX 4090, also stimmt deine Rechnung nicht ganz 😝 es sind also nur 918.461.

Es sagt aber auch wenig über die Möglichkeiten der Architektur aus, da die Consumer Karten bei fp64 künstlich beschnitten werden. So kommt ein einzelner Hopper Chip bei fp64 auf 30 TFlop/s und 60 TFlop/s bei den Tensor Cores. Es bräuchte also statt 918K 4090 nur run 13K H100 😉
 
Zuletzt bearbeitet:
1,2 Exaflops, yo, wozu braucht man soviel Rechenleistung ???
 
Weiß jemand was mit dieser kaum vorstellbaren Rechenleistung gemacht wird? Lohnen sich wirtschaftlich solche Server überhaupt oder steht da der Wettbewerb im Vordergrund?
 
Simulation von Kernwaffen Einsätzen, Kernfusion, Wirtschaftsentwicklungen, Wettermodelle (nicht für den Wetterbericht :D) usw.
Quasi alles womit jemand sich einen Vorteil gegenüber jemand anderem erarbeiten kann.
 
  • Gefällt mir
Reaktionen: Recharging, Col. Jessep und TechFunk
Ben_computer_Ba schrieb:
Weiß jemand was mit dieser kaum vorstellbaren Rechenleistung gemacht wird? Lohnen sich wirtschaftlich solche Server überhaupt oder steht da der Wettbewerb im Vordergrund?
Wettersimulation wäre eine Tägliche sache

Bio Forschung, Komplexe Berechnung oder Grafik Berechnung.

Naja was halt auch gemacht wird

Atombomben Simulation
Wasserstoff und Sprengbomben Simulation

Eigentlich kannst du darauf alles machen was du Willst wen du die Richtige Software dafür schreibst.


Schon Heftig wir haben vor Paar Jahren noch dem 1 100 Petaflop Server erwartet und sind ja mit 91 und 94 knapp Vorbei geschrammt.

Dann kommen aber keine 105 oder 110 Petaflop server sondern es geht gleich wider Extreme weiter
200+
300+
und dann schon direkt 500+ und attacke auf 1000PFlop

vor 10 Jahren hätte ich nicht geglaubt das wir so schnell auf 1Pflop+ kommen.
 
  • Gefällt mir
Reaktionen: Redundanz
Die Rechenleistung ist hilfreich um große Datenmengen schnell und präzise zu verarbeiten.

Ein einfaches Beispiel, genauere Wettermodelle für die Landwirtschaft (gleich Profit) oder eben um Faktoren für den Klimawandel noch genauer einbeziehen zu können (hilft Versicherungen).

Die Positionen von Öl und Gas Vorkommen können noch genauer berechnet werden, was bei der Erschließung eine Menge Geld spart. Hier kommen enorme Datenmengen aus seismischen Messungen, welche mit der Tektonik abgeglichen werden müssen.

Ganz großes Thema - Materialforschung z.B. Batterie Technik, Hitzeschilder für die Raumfahrt etc pp.

Medizin. Aerodynamik beim Flugzeugbau. Energie Sektor.

In den USA natürlich auch Simulationen für das Militär, da ja keine Kernwaffentests mehr möglich sind, findet die gesamte Weiterentwicklung der Kernwaffen nur noch in Simulationen statt. Simulation von Cyberangriffen, Konflikt Szenarien etc. da sind keine Grenzen gesetzt.

Am Ende ist eine geschätzte Investition von 2 Milliarden USD doch recht wenig (Frontier ja sogar "nur" ca. 600 Millionen USD), für das was dabei rauskommt. Insbesondere, wenn du schneller als die Konkurrenz arbeitest.

Der BER hat 5,9 Milliarden EUR gekostet. Hätten sie vorab einen Supercomputer gebaut, entsprechende Simulationen laufen lassen. Wäre es in Summe vermutlich genauso teuer gewesen, aber die Forschung hätte auf Dauer was davon gehabt. Und wir hätten heute ein exaktes Rechenmodell, wie sich Politiker und Firmen verhalten 😇
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, knoxxi, Recharging und 4 andere
Ben_computer_Ba schrieb:
Weiß jemand was mit dieser kaum vorstellbaren Rechenleistung gemacht wird?

Das ist u.a. Oak Ridge National Laboratory. Die machen hauptsächlich Nuklear-Simulationen. Aber sind auch recht breit aufgestellt.

Ben_computer_Ba schrieb:
Lohnen sich wirtschaftlich solche Server überhaupt oder steht da der Wettbewerb im Vordergrund?

Ja, die lohnen sich. Je nach Supercomputer kann man Zeit mieten und hat neben der eigenen Forschung noch eine Einnahmequelle.
 
  • Gefällt mir
Reaktionen: v_ossi
Die top 10 dieser Supercomputer müsste miteinander verbunden werden darauf dann eine Ki, und dieser dann bitte die Frage stellen wie Krebs geheilt werden kann.
 
  • Gefällt mir
Reaktionen: Redundanz und Leon1909
Justuz schrieb:
darauf dann eine Ki, und dieser dann bitte die Frage stellen wie Krebs geheilt werden kann.
Es gibt (leider?) nicht wirklich eine generelle KI die solche Fragen beantworten könnte, einfach nur weil genug Rechenleistung da ist.
 
Zurück
Oben