News Supercomputer: SuperMUC mit verdoppelter Leistung zurück in den Top 10

overflow schrieb:
Supercomputer schwerelos im Orbit solar betreiben, hahaha ;-)
Wäre besser als die Hanseln dort oben.

Ist wohl nicht ganz ernst gemeint, aber dennoch eine saubloede Idee. Die produzierte Waerme muss auch irgendwie abgefuehrt werden und ohne Atmosphaere ist das gar nicht mal so einfach.
 
Wolfsrabe schrieb:
Sind solche Siulationen nicht eher prädestiniert für GPUs?
Prinzipell sind Beschleuniger (GPU, Knights Landing) sehr gut dafür geeignet, jedoch ist das Hauptproblem die kommunikation zwischen den einzelnen Knoten bzw den Beschleunigern darauf. Im Höchstleistungsbereich (mehr als 10000 CPUs) ist es schon nicht ganz trivial einen gut skalierenden code für einen cluster mit nur CPUs zu schreiben. Wenn dann noch zusätzlich die kommunikation von CPU RAM in GPU VRAM erfolgen muss hat man dort schnell ein bottleneck der die performance einbrechen lässt. Außerdem ist man beim dynamischen loadbalancing eingeschränkter. Das größte Problem ist aber auch das es zuwenig Kapazitäten gibt um die vorhandene Software auf CUDA oder OpenCL zu portieren und wenn nicht ein Großteil der Nutzer die Vorhanden GPUS nutzt sind das erhebliche Beträge die alleine durch den Stromverbrauch im idle entstehen würden. Generell haben die Höchstleistungsrechner immer das Problem überhaupt (sinnvolle) Nutzer zu finden die wirklich einen hochskalierenden Code haben und damit Forschung (physik, medizin etc) machen können.
 
Zuletzt bearbeitet:
Das ist auch unser größtes Problem. Unsere Programme sind seit 30 Jahren in Entwicklung und vollständig auf CPU optimiert, und dabei gilt bei uns zur Skalierung auch schon eine Obergrenze von 256 Kerne, danach verheizt man nur Strom ohne sinnvollen Geschwindigkeitsgewinn. Wobei das aber auch selten angefordert wird, da in unserem Hochleistungsrechner mit ca. 6000 CPUs (bei voller Auslastung 200 kW) die Wartezeit sonst sehr hoch wird, bevor der Job überhaupt anläuft.

Die Programme auf GPU umzuschreiben würde erstmal 1-2 Jahre dauern, und dafür ist nach bisherigen Veröffentlichungen auch der Geschwindigkeitsgewinn noch nicht rentabel. Und das GPU-Supercomputing viel mehr Strom zieht, wird auch gerne vergessen. Aber nichtsdestotrotz, der GPU gehört auf dem Gebiet die Zukunft.

Bei Parallelisierung gibt es nicht einfach die Regel, je mehr desto besser. Gerade wenn innerhalb kurzer Zeit große Datenmengen produziert oder verfügbar sein müssen, werden andere Faktoren, wie Speichermanagement, Synchronisierung, Netzanbindung etc. viel wichtiger als die reine Flopanzahl.
 
Zuletzt bearbeitet:
aim.star schrieb:
Ist wohl nicht ganz ernst gemeint, aber dennoch eine saubloede Idee. Die produzierte Waerme muss auch irgendwie abgefuehrt werden und ohne Atmosphaere ist das gar nicht mal so einfach.

Weil das All so heiß ist? Klar, die Idee ist blöd, aber dann kommst du..
 
Spikos schrieb:
Weil das All so heiß ist? Klar, die Idee ist blöd, aber dann kommst du..

Die Wärmeleitfähigkeit im Vakuum geht gegen 0, da nur mittels Wärmestrahlung überhaupt Wärme übertragen werden kann. Um die Wärme eines Supercomputers abzuführen, bräuchtest du wahrscheinlich mehrere km² Kühlfläche im Weltall.
 
mediafrost schrieb:
Also bei 5 Mio Stromkosten kann man sich ja wohl n eigenes Kraftwerk bauen. Das amortisiert sich umgehend nach wenigen Jahren...:evillol:
Halb so schlimm, die Stromkosten übernimmt eh IBM. xD
 
Falc410 schrieb:

Vielleicht auch ein Hinweis auf die Wortverwandtschaft, man muss ja nicht immer gleich mit dem Hammer draufkloppen.
Es gibt vielerlei Verwendungszwecke für solche PCs. Die Simulation ist ein Bereich (Finanzwirtschaftswissenschaften, Mathematische Modelle, Simulation von Strömungen usw usf.), ein anderer wäre z. B. das Auswerten von Messdaten aus Experimenten (ähnlich wie CERN z. B.)...
 
wenn man dann bedenkt mit was für rechnern man das erstemal zum mond geflogen wurde........:)
 
Falc410 schrieb:
Leibniz != Leibnitz
Fail!

Da ist deine Antwort wohl eher ein FAIL! Erstmal recherchieren wie man das buchstabiert und dann den anderen so etwas vorwerfen.
 
Zuletzt bearbeitet:
chris12 schrieb:
wenn man dann bedenkt mit was für rechnern man das erstemal zum mond geflogen wurde........:)

Aua, so viele Rechtschreibfehler, das grenzt ja schon an Vergewaltigung der deutschen Sprache. Und dann auch noch inhaltlich bedenklich, da laut einigen Experten und Insidern kein Mensch den Mond betreten haben soll...
 
Antar3s schrieb:
Das größte Problem ist aber auch das es zuwenig Kapazitäten gibt um die vorhandene Software auf CUDA oder OpenCL zu portieren und wenn nicht ein Großteil der Nutzer die Vorhanden GPUS nutzt sind das erhebliche Beträge die alleine durch den Stromverbrauch im idle entstehen würden. Generell haben die Höchstleistungsrechner immer das Problem überhaupt (sinnvolle) Nutzer zu finden die wirklich einen hochskalierenden Code haben und damit Forschung (physik, medizin etc) machen können.

Signed. So habe ich es auch erlebt. Wer soll den ganzen Code umschreiben? Das wird schwierig! Vom Verständnis muss eine Person, die sowas macht, a.) das physikalische Problem verstehen (das hier kann ganz schön heftig werden!) und b.) auch noch die APIs von AMD oder Nvidia beherrschen. Zuletzt mussen die Ergebnisse verglichen werden, um die Korrektheit der Berechnung zu prüfen (Automatisierte Tests).

Außerdem muss die Person die Zeit dafür haben und dafür bezahlt werden. Nun wird der Kreis derer schon ziemlich klein.
 
Zuletzt bearbeitet:
Psychodelik schrieb:
Ins Kanzleramt wird gehacked, ins BND wird gehacked, in den Bundestag wird gehacked, aber einen Hochleistungscomputer haben wollen ! :king:

Da soll noch jemand die Welt verstehen ! :evillol:

Wie wäre es liebe Leuts, wenn ihr erst mal die Infrastruktur der IT in Deutschland sicherer macht, bevor ihr mit irgend welchen Schw...vergleich von Suptercomputern hier ankommt ! :king:

Es ist und bleibt einfach nur ein Armutszeugniss für Deutschland und auch auf eine Art und Weise peinlich für Deutschland - ist nur meine Meinung.

Wahrscheinlich werden dort virtuelle Atomexplosionen getestet und Szenarien virtuell getestet so in dem Stil wie "Eckard ich glaub die Russen kommen!".

Ist wirklich einfach nur peinlich für Deutschland, dabei bleibe ich.

Ich finde solche Kommentare Penlich. Hackingangriffe auf Öffentliche Einrichtungen (die auch in anderen Ländern passieren... Hust Amerika) haben recht wenig mit Anlagen die der Forschung und Entwicklung dienen zu tun! Solche Rechenanlagen werden in vielen bereichen der Industrie genutzt (Crashtest Berechnungen, Materialforschung, Physikalische Zusammenhänge berechnen etc.). Aber auch in anderen bereichen wird viel simuliert (Wettersimulationen, Vorgänge in der Natur, Berechnung von Auswirkungen einer Naturkatastrophe, erkundung und auswertung von Ergebnissen in der Erforschung des Universums, bekämpung von krankheiten durch DNA Analysen etc.). Das Auto in dem du jeden tag zur Arbeit fährst wurde z.B. größtenteils auf solchen Rechnern "Entwickelt" und getestet.

Die Simulation hilft der Forschung und macht die Entwicklung effizienter und schneller. Porsche kann natürlich auch 200 911er gegen die Wand fahren um Schwachstellen zu finden, man die auswirkungen aber auch wesentlich Effizienter berechnen.

Und natürlich werden darauf auch militärische Dinge berechnet... auf dem SUPER MUC dürfte das weniger der Fall sein, auf amerikanischen rechnern aber schon. Wobei mir da eine harmlose simulation auf einem Super Computer lieber ist, als wenn man wie in den 50/60ern ganze landstriche vernichtet (Bikini Atoll) und nebenbei wie die USA einfach ein paar Atomwaffen abhanden kommen, die bis heute nicht wider aufgetaucht sind...


Wenn man als Wirtschaftsstandort nicht massiv an Bedeutung verlieren will (was Deutschland macht), sollte man mit der zeit gehen. Ansonsten können wir Deutschland auch bald auf der Liste von ländern wie Burkina Faso und co sehen. Keine nennenswerten Hackingangriffe auf öffentliche Einrichtungen, da soweso nichts mehr von interesse vorhanden ist...
 
Shoryuken94 schrieb:
Wenn man als Wirtschaftsstandort nicht massiv an Bedeutung verlieren will (was Deutschland macht), sollte man mit der zeit gehen. Ansonsten können wir Deutschland auch bald auf der Liste von ländern wie Burkina Faso und co sehen...

Dazu sollte man erstmal den Export von Deutschlands werthaltigstem Gut stoppen. Ingenieuren und Wissenschaftlern! Stichwort wäre hier gute Bezahlung, feste Verträge und im Allgemeinen eine bessere Wertschätzung der Leistung. Ich selbst kenne 2 Biologen und 1 CFD Programmierer in den USA (Boston und Houston) und die sagen, sie wollen nicht zurück, weil es hier in Deutschland viel schlechter ist!
 
Habe selber in meiner Abschlussarbeit auf einem Supercomputer rechnen lassen.
Da kann man dann eine bestimmte Anzahl an Prozessoren und Arbeitsspeicher reservieren.

Es kann aber durchaus auch Sinn machen, Rechnungen "zuhause" auf einem Kern (oder von mir aus auch 4 oder 8) rechnen zu lassen. Denn die Simulationsdauer sinkt nicht proportional zur Anzahl der Kerne.
Je mehr Kerne, desto mehr Kommunikationszeit vergeht zwsichen den einzelnen Timesteps. Irgendwann lohnt sich es nicht mehr und man blockiert nur sinnlos die Rechenkapazität, die andere brauchen.

Vielleicht aber auch mal ein Beispiel, um die Größenordnung etwas einschätzen zu können. Habe damals CFD-Simulationen gemacht, also Navier-Stokes-Gleichungen in turbulenter Form gelöst.
Die turbulenten Naver-Stokes Gleichungen kann man *exakt* lösen, nur ist dafür ein solch feines Rechengitter und damit einhergehend eine solch feine Zeitauflösung von Nöten, dass selbst bei Re-Zahlen von 10^5 Rechungen erst in einigen Jahrzehnten innerhalb einiger Tage durchlaufen, wenn wir davon ausgehen, dass sich die Rechenleistung alle paar Jahre verdoppelt (da gibt es so eine "Gesetzmäßigkeit", mir fällt der Name nicht ein).

Wir sind also für dieses Jahrhundert noch extrem auf Hochleistungsrechner in der Forschung angewiesen, allein aus dem Blickwinkel der CFD. Wer interessiert ist, kann google mal nach "direkte numerische Simulation" fragen.
 
Zurück
Oben