News Münchner Supercomputer mit 40 TByte RAM

Ist schon echt beeindruckend was so ein "Super Ding" im Stande wäre zu leisten! :)

Man stelle sich nur mal vor wenn auf so einem MegaRechner Seti@Home laufen würde, ich glaube dann könnte ich es auch noch miterleben wie andere Lebensformen im Universum gefunden werden und nicht erst wenn ich in vielleicht 50 Jahren schon gar nicht mehr lebe!

Hätte man in den 60er und 70er Jahren schon solche Rechner gehabt, dann wären mir bestimmt schon jetzt auf dem Mars und nicht wie damals "nur" auf dem Mond gelandet....

Aber ich glaube zu Zeiten des kalten Krieges zwischen Amerika und der Sowjetunion wäre es auch sicherlich ein großer Nachteil für die Weltbevölkerung gewesen, wenn es sowas damals schon gegeben hätte.... :rolleyes:
 
Zuletzt bearbeitet:
und in einigen jahren stehen von der leistung vieleicht sogar bessere pc beim supermarkt zwischen kühlregal und schokolade.....
 
Papa Schlumpf schrieb:
Aber ich glaube zu Zeiten des kalten Krieges zwischen Amerika und der Sowjetunion wäre es auch sicherlich ein großer Nachteil für die Weltbevölkerung gewesen, wenn es sowas damals schon gegeben hätte.... :rolleyes:

hatte es eh schon gegeben, ich glaube die amerikaner hatten sich einen "superrechner" gebaut der die koordinaten für ihr raketen gerechnet hatte
 
Tunguska schrieb:
Quelle 1:
Quelle 2:

Vielleicht hat SGI eine andere Definition von Clustern (sie nennen es ja auch Supercluster), aber die Technik ist, bis auf den "Numa-Bus", wohl vergleichbar ;)

Dieses "Supercluster" muss wohl von der Marketingabteilung von SGI kommen, bei dem System handelt sich trotzdem nicht um das, was gemeinhin als Computercluster bezeichnet wird.

Ein Cluster besteht aus mehreren unabhängigen Rechnern, die über Netzwerk miteinander verbunden sind und einem Scheduler, der die Arbeitspakete auf die einzelnen Knoten verteilt. Der Speicher ist also nicht global verfügbar, sondern auf jedem Rechner nur lokal ansprechbar, die Kommunikation muss in den Programmen explizit programmiert werden, dazu kommt dann z.B. MPI (Message Passing Interface) zum Einsatz.

Bei SMP/NUMA-Systemen, wie der Altix-Familie von SGI, kommt ein einzelner global adressierbarer Speicherbereich zum Einsatz, wobei die Zugriffzeiten bei NUMA auf den lokalen Speicher schneller sind als auf den Speicher der anderen Knoten, daher sind ausgefeilte Algorithmen notwendig um die Berechnungen möglichst effizient auf die CPUs zu verteilen und vor allem Cache-Kohärenz zu erreichen. Für den Programmierer sieht so ein System wie ein grosser Computer aus, um die Kommunkation zwischen den einzelnen Knoten muss man sich nicht kümmern.

Zugegebenermassen sind die Grenzen mittlerweile fliessend, NUMA ist sozusagen eine Clusterung von mehreren SMP-Maschinen und ein SSI (Single System Image) kann man mit Software wie Mosix oder OpenSSI auch auf Clustern implementieren, grundsätzlich ist es aber nicht sinnvoll Systeme wie SGI Altix als Cluster zu bezeichnen, da es einfach auf einem anderen Grundprinzip als typische Cluster aufbaut.


--Thomas
 
Burschi1620 schrieb:
Ich denke man sollte mehr an dem OS arbeiten anstatt der quantität, würde das nicht mehr bringen?

An dem OS (Linux in diesem Fall) wird doch auch gearbeitet, damit es noch besser in solchen Grössenordnungen skaliert. Die maximale Leistung eines Supercomputers liegt aber nunmal bei "Anzahl der CPUs" x "Rechenleistung einer einzelnen CPU" und man kann nur versuchen diesem Wert möglichst nah zu kommen, das Betriebssystem ist da nicht der wirklich limitierende Faktor, sondern die Speicheranbindung in NUMA-Systemen.

Ich denke da an solche dinge wie HT unterstützung vom OS was es bestimmt nicht gibt (war nur ein beispiel ich weiß in solen system wird HT bestimmt nicht viel nutzen)

Meinst Du mit "HT" Hyper Threading? Mal abgesehen davon, daß der Itanium AFAIK kein HT unterstützt (Intel packt lieber zwei komplette Dies auf einen Prozessor), funktioniert Hyper Threading doch unter Linux schon lange, wenn man die entsprechenden Pentium IV oder XEON-CPUs verwendet.


--Thomas
 
Zurück
Oben