News Supercomputer: SuperMUC mit verdoppelter Leistung zurück in den Top 10

Photon, vermutlich fehlt dem das Wissen zur Parallelisierung der Simulation. Eigentlich macht das keinen Sinn, lieber zu Hause zu rechnen, wenn man das Programm zum Rechenzentrum schicken kann und von dort die Ergebnisse bekommt...die Leistung auf einem Kern ist innerhalb einer Generation von CPU (sagen wir mal Haswell, wie im Artikel) so gut wie identisch. Andererseits könnte es auch Zeitdruck sein, denn oft muss man lernen, ein Linuxcluster anzusprechen. Das geht auch nicht in 5 Minuten...wenn der in ein paar Tagen die Arbeit einreichen muss, dann gibt es wichtigeres zu tun...und an ein Proof of Concept sind die Anforderungen eh geringer!
 
Zuletzt bearbeitet:
Photon schrieb:
Wie ist denn die Single Core Leistung der verbauten Xeons? Ein Kommilitone lässt seine Simulation, die nur ein Proof of Concept sein soll und deshalb nur auf einem Kern läuft, zuhause auf einem i7 laufen statt im LRZ, weil angeblich die Single Core Leistung des i7 höher ist, macht das Sinn?

2.6 - 2.7 Ghz. Da dürfte ein i7 mit Turbo (der dann einen Kern auf mind. 4.0 Ghz bringt) schneller sein. Und es ist halt doch etwas aufwendiger Rechenzeit zu bekommen. In seinem Fall würde er wohl eh eher auf dem Linux Cluster eine VM bekommen anstatt auf dem SuperMUC. Wenn er einen Antrag stellt dann würde das ja sowieso erst mal eine Zeit dauern bis er wirklich Ressourcen bekommt. Bis dahin ist das Semester vorbei :)
 
die rangliste bezieht sich doch aber auf den RMAX wert und nicht RPEAK.
somit erreicht Piz Daint 6,3 Petaflops und JUQUEEN 5,0 Petaflops

im verlinkten artikel vom november 14 habt ihr korrekterweise den RMAX wert verwendet.
 
Psychodelik schrieb:
Ins Kanzleramt wird gehacked, ins BND wird gehacked, in den Bundestag wird gehacked, aber einen Hochleistungscomputer haben wollen ! :king:

Da soll noch jemand die Welt verstehen ! :evillol:

Wie wäre es liebe Leuts, wenn ihr erst mal die Infrastruktur der IT in Deutschland sicherer macht, bevor ihr mit irgend welchen Schw...vergleich von Suptercomputern hier ankommt ! :king:

Es ist und bleibt einfach nur ein Armutszeugniss für Deutschland und auch auf eine Art und Weise peinlich für Deutschland - ist nur meine Meinung.

Wahrscheinlich werden dort virtuelle Atomexplosionen getestet und Szenarien virtuell getestet so in dem Stil wie "Eckard ich glaub die Russen kommen!".

Ist wirklich einfach nur peinlich für Deutschland, dabei bleibe ich.

Na, dann zieh doch nach Südkorea, wenn es dir in Deutschland zu peinlich ist. Da hast du deine 2 Gbit/s-Anschlüsse. Alles andere ist zwar beschissen, aber hey, das Internet ist schnell.
 
Der riesen Vorteil vom SuperMUC ist ja die Flexibilität, den kann man quasi für alles hernehmen. Die FLOP Leistung ist zwar nicht unbedingt die höchste, für die top 20 hätte es wohl gereicht dieses Jahr, aber viel wichtiger ist, dass man der Gerät für so gut wie alle Berechnungen verwenden kann. Da siehts mit den hochspezialisierten Monstern aus China oder USA anders aus. Kommt halt immer auf den Anwendungsfall an. Kann dazu den Heise Artikel empfehlen, der bereits oben verlinkt wurde.
 
Psychodelik schrieb:
Ist wirklich einfach nur peinlich für Deutschland, dabei bleibe ich.

Ja man Wissenschaft ist voll Peinlich!

Und deine Vergleiche sind auch Äpfel und Birnen. Was hat ein Supercomputer mit den Bundestag und Netzsicherheit am Hut? Das sind 2 paar Schuhe und verschiedene Felder und Ressourcen die dafür in Frage kommen.
 
but it run crysis in 16k?
 
Supercomputer schwerelos im Orbit solar betreiben, hahaha ;-)
Wäre besser als die Hanseln dort oben.
 
iHabAhnung schrieb:
Na, dann zieh doch nach Südkorea, wenn es dir in Deutschland zu peinlich ist. Da hast du deine 2 Gbit/s-Anschlüsse. Alles andere ist zwar beschissen, aber hey, das Internet ist schnell.

Nur mal so: "Alles andere" ist in Südkorea auch ziemlich gut ;)
Ergänzung ()

mediafrost schrieb:
Also bei 5 Mio Stromkosten kann man sich ja wohl n eigenes Kraftwerk bauen. Das amortisiert sich umgehend nach wenigen Jahren...:evillol:

Ich hoffe das war nicht ernst gemeint. Für 5 Mio. pro Jahr lohnt sich ganz sicher kein eigenes Kraftwerk! ;)
 
Daniel schrieb:
Mit der Phase 2 genannten Ausbaustufe wurde nun die Leistung des Supercomputers aber mehr als verdoppelt und somit landet dieser auch wieder in den Top Ten der schnellsten Computer.

Im Artikel auf SZ.de liest sich das aber anders:

Der bestehende Supermuc und die in der zweiten Phase hinzugekommene Anlage teilen sich zwar ein mit sehr schnellen Verbindungen angeschlossenes Speichersystem. Auf eine komplette Verschmelzung der alten und neuen Anlage hat man aber verzichtet...

...Auf der Liste der schnellsten Supercomputer, die in gut einer Woche neu erscheint, wird der Supermuc daher zwei Einträge erhalten. Schnellster Rechner in Deutschland bleibt die Anlage Juqueen in Jülich.
 
Jetzt noch 500.000 Radeon Fury X reinballern und dann gta 5 auf 320 mal 4K Monitoren spielen, die folgendermaßen angeordnet sind
tn_Ikosaeder4Dome.gif

360° mal 360° alles auf maximalen einstellen mit 16x anisotropischer Filterung und 16xSSAA
 
Der Artikel in der SZ ist korrekt. Ich habe auch nicht verstanden wieso das auf anderen Seiten so komisch kommuniziert worden ist. Es gibt kaum Projekte die mit der großen Anzahl an Cores zurecht kommen. I.d.R. bekommt ein Projekt eh nur einen Teil der verfügbaren Cores zugewiesen (so dass mehrere Projekte eben gleichzeitig berechnet werden können). Bis auf einen Benchmark würde also niemals die komplette Rechenleistung für eine einzelne Berechnung zur Verfügung stehen.

Macht im Endeffekt aber keinen Unterschied - die Rechenleistung ist ja trotzdem vorhanden nur eben für die Top 500 Wertung gibt es dann zwei Einträge anstatt einem.
 
Falc410 schrieb:
.... Für den Wirtschaftsstandort Deutschland ist es wichtig das wir weltweit in der Top Liga mitspielen was Forschung und Entwicklung angeht. Bodenschätze haben wir ja nicht.

Das kann man so nicht stehen lassen. Deutschland ist Rohstoffreich. Nur wirtschaftlich Gewinnbar ist wenig...
Und unseren Bodenschatz Braunkohle will ja keiner mehr, dabei könnte man damit so viele Rechenzentren stabil und zuverlässig versorgen.
 
Wolfsrabe schrieb:
Sind solche Siulationen nicht eher prädestiniert für GPUs?

Der Prof meinte mal, dass es einfach ein deutlich größerer Aufwand ist für GPUs zu programmieren und sich auch nicht alles dafür eignet. Es ist eh schon nicht einfach für die Anzahl an Cores ein programm zu optimieren, dafür können wir extra Kurse belegen und bla bla. Man seie damit einfach Flexibler als mit Grafikkarten meinte er.
 
Zurück
Oben