News Top500: China bleibt Spitzenreiter bei den Supercomputern

Daniel

Lt. Junior Grade
Registriert
Apr. 2008
Beiträge
468
Auch in diesem Jahr ist der Tianhe-2 der mit Abstand schnellste Computer der Welt. Damit verweisen die Chinesen vor allem die USA auf die Plätze, die mit Titan und Sequoia fast um die Hälfte langsamer sind. Doch auch die Erweiterung von SuperMUC ist in der Liste noch nicht angekommen.

Zur News: Top500: China bleibt Spitzenreiter bei den Supercomputern
 
Was sich jedoch an der weiteren Entwicklung der Liste gut sehen lässt, Bedarf an Rechenleistung ist immer gegeben. Sei es für Wetterforschung, Physik, Militär, Raumfahrt und viele weitere Aufgaben die große Rechenleistungen benötigen.

Drang diese Rechenleistung zu besitzen scheint groß zu sein, schließlich kosten diese Anlagen viel in der Beschaffung und auch im Betrieb.
 
Ohne diese Supercomputers und Forschung, würde wir immer noch in der Steinzeit leben^^
 
Der erste Platz ist doch eher eine Prestigesache. Kein Wunder, dass die Chinesen den belegen wollen.
 
Ja, natürlich gibt es die. Zum Beispiel wurde ein deutscher Supercomputer für die numerische Optimierung des Fusionsexperiments WENDELSTEIN 7-X eingesetzt.
 
Der Artikel strotzt nur so von Fehlern. Bitte das nächste Mal lieber von Heise abschreiben oder zumindest nicht nur in die Top 10 gucken, denn gucke mal was sich auf den Plätzen 20 und 21 versteckt: http://www.top500.org/list/2015/06/
 
Naja, da fehlen aber immernoch eine Petaflops zu den 6.8 die der im Leibniz-Zentrum hat. Und warum der geteilt aufgeführt wird, weiß ich auch nicht.
 
Finde den Artikel auch komisch. Etwas weniger Wirr-warr würd den ein oder anderen Satz verständlicher machen.

Zudem muss man sagen, Quantität kommt ganz klar vor Qualität. China kann noch so den Längsten haben, sobald die Leistung auf mehrere Standorte verteilt ist, können mehr Wissenschaftler sie nutzen. Das ist ungemein wichtig.
 
und schon wieder wurde der RPEAK wert anstelle des RMAX wert verwendet! die rangliste bezieht sich immer auf den RMAX wert!

im artikel vom november 14 habt ihr's richtig gemacht.
 
Zur Frage was mit Supercomputern alles erreicht wurde/wird:

  • Der LHC in Cern wertet seine Daten mittels Supercomputer aus und es wird auch simuliert, was zu erwarten ist mit dem bisher bekannten Wissen.
  • Microchips werden mittels leistungsfähiger Rechner optimiert und simuliert, daher moderne CPUs
  • Chemische Vorgänge werden betrachtet um zum Beispiel in der Pharmarzie die Wirkung von Medikamenten zu simulieren

Der Super Muc wird ansonsten doppelt geführt, weil der Aufwand beide Teile des Großrechners zusammen zu einem Benchmarklauf zu bewegen dem Betreiber zu hoch war. Einmal Bench laufen lassen bedeutet mindestens einen Tag Laufzeit, viel Vorlauf um den Bench an das System anzupassen und in Konsequenz oft Kosten im gut sechstelligem Bereich. Diesen Schwanzvergleich sparen sich viele Betreiber von Großŕechnern entsprechend, solang mit dem zweifelhaften Prestige nicht irgend ein Mehrwert verbunden ist.



estros schrieb:
[...]China kann noch so den Längsten haben, sobald die Leistung auf mehrere Standorte verteilt ist, können mehr Wissenschaftler sie nutzen. Das ist ungemein wichtig.

Total egal seitdem es sowas gibt wie Internet oder generell Netzwerke ist es unbedeutend wo die Daten verarbeitet werden. Ob da nun von 200m weiter der Cluster mit Aufgaben betraut wird oder aus einer Entfernung von 2000km fällt nicht auf solang die Bandbreite der Anbindung stimmt.
 
Zuletzt bearbeitet:
Mehr Leistung, mehr Power, mehr was weiß ich. Es geht doch bloß darum wer den Größten hat ;) . Zumal ich vermute, dass die Geheimdienste der verschiedenen Staaten auf Supercomputer Zugriff haben die mehr Leistung besitzen und nicht auf einer Liste aufgeführt werden. Außerdem frage ich mich ernst Haft für was die Chinesen solche Supercomputer brauchen außer ihr eigenes Volk zu überwachen oder Staatlich verordnete Hackerangriffe? Wirklich viel Wissenschaftliche Arbeit wird in China ja nicht vollbracht, weil wer kopiert muss nicht forschen. ;)
 
Piktogramm, der Gedanke hinter der Verteilung, also mehreren Zentren mit Supercomputern ist, dass verschiedene Forschungseinrichtungen auch so eine Art Wettbewerb betreiben und nicht nur eine Einrichtung das Wissen um die Maschine(n) aufbaut. Da ist es durchaus clever, das so zu machen, wie die USA. Wie gesagt, wer gerade Platz1 hat, ist eigentlich nicht so wichtig. Aus Sicht der Hersteller (Cray, IBM ...) sind mehrere Installationen natürlich auch besser, als nur eine.
 
Das KnowHow zum Aufbauen solcher Systeme kommt in der Regel von Firmen und beim Betrieb ist es oft eine Mischung aus Externen und Internen Mitarbeitern. Was die Anwendungen angeht ist das Vorgehen ansonsten gleich egal ob vor Ort gearbeitet wird oder Remote einige Hundert Kilometer entfernt.

Auch haben Universitäten die keinen Supercomputer haben meist doch einen Verbund aus einigen Servern, die sich im Kleinen in etwa Verhalten wie ein solcher Supercomputer. Um da entsprechende Anwendungen zu entwickeln und KnowHow mit verteilten Systemen zu sammeln reicht das in der Regel aus.

Auch sollte man nicht vergessen, dass viele Universitäten und Firmen ihre Server nicht in diese Top 500 Liste eintragen bzw. überhaupt keinen entsprechenden Benchmark fahren. Denn wie bereits gesagt, das macht Arbeit und frisst gut Rechenzeit und im Endeffekt viel Geld. auch will niemand der ein Großrechner für Geheimdienste und Militär abstellt, dass die "Gegner" wissen wie die eigenen Kapazitäten sind. Entsprechend sollte man mit allen Aussagen zum KnowHow, Verfügbarkeit von Rechenkapazitäten etc. aufgrund solcher Rankings sehr vorsichtig sein.
 
Letztendlich scheint mir die Liste uninteressant.

Wer kauft sich die meisten x64 CPUs + Grafikkarten und packt sie in ein Gebäude neben einem Kraftwerk? Das scheint mir die einzige Frage zu sein welchen Platz man bei der Liste der Supercomputer belegt.
 
Zurück
Oben