News Supercomputer mit 1,6 Mio. CPUs von IBM

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.175
IBM hat von der US-Regierung den Auftrag erhalten, das Lawrence Livermore National Laboratory bis 2012 mit einem neuen Supercomputer auszustatten, der in seiner ultimativen Ausbaustufe über 1,6 Millionen Prozessoren (PowerPC, 45 nm) samt 1,6 Petabyte Arbeitsspeicher verfügen wird.

Zur News: Supercomputer mit 1,6 Mio. CPUs von IBM
 
Atomwaffensimulationen :p
 
Auch der Sequoia wird hauptsächlich zur Simulation von Atomwaffentests eingesetzt werden,

Das war ja mal wieder klar. Man könnte ja vielleicht auch sinnvolle Sachen damit berechnene, aber NEIN...
Was schert uns der Klimawandel, wenn wir Atomwaffen haben ;)

P.S. Nein, man kann Crisis nicht darauf spielen :freak:
 
Ich habe zwar eine grobe vorstellung, was diese Computer machen, und wofür sie eingesetzt werden. Kenne die alten Evans/Southerland GOULD Maschinen, die mitte bis Ende der Achziger für Flugsimulation eingesetzt wurden, aber bei diesem Computern frage ich mich, wie die Topologie und generell das "Processing" verläuft?

Ist das eine gewaltige "Parallele" Rechenmaschine? Also wie derzeit mit den Streamprozessoren von aktuellen Grafikkarten gemacht wird?

Wenn das so ist, wäre da nicht die Verwendung der GPUs mit ihrer RISC Eigenschaft viel effizienter? Ich meine es steht zwar nicht in den News welche CPUs verwendet werden, dennoch denke ich, dass z.Zt. kaum ein Wirkungsgrad höher ist, als der einer Graphic Processing Unit.

Gruß, GuaRdiaN
 
Der Roadrunner (momentan schnellster Rechner) wird ja auch praktisch nur für die Simulation von Atomwaffen benutzt... scheint für die Amis wohl leider das wichtigste Anwendungsgebiet für Supercomputer zu sein.
 
Erinnert mich an den Film Kriegsspiele. Ich hoffe dieser Computer kommt auf das gleiche Ergebnis = totale Vernichtung der Menschheit. Und dafür braucht man 1,6 Millionen CPU´s, naja...:lol:

MfG

Edit: @SonaN - warum nicht ganz lassen?
 
Zuletzt bearbeitet:
Die sollen ruhig die Atomwaffen in Computern testen anstelle die Tests an der Erde durchzuführen. Von daher kann ich das nur befürworten.
 
GuaRdiaN schrieb:
Ich habe zwar eine grobe vorstellung, was diese Computer machen, und wofür sie eingesetzt werden. Kenne die alten Evans/Southerland GOULD Maschinen, die mitte bis Ende der Achziger für Flugsimulation eingesetzt wurden, aber bei diesem Computern frage ich mich, wie die Topologie und generell das "Processing" verläuft?

Ist das eine gewaltige "Parallele" Rechenmaschine? Also wie derzeit mit den Streamprozessoren von aktuellen Grafikkarten gemacht wird?

Wenn das so ist, wäre da nicht die Verwendung der GPUs mit ihrer RISC Eigenschaft viel effizienter? Ich meine es steht zwar nicht in den News welche CPUs verwendet werden, dennoch denke ich, dass z.Zt. kaum ein Wirkungsgrad höher ist, als der einer Graphic Processing Unit.

Gruß, GuaRdiaN

Ja, es handelt sich wohl im Großen und Ganzen wieder um ein Cluster auf dem dann parallel gerechnet wird... Grakas sind für bestimmte Gebiete sehr gut geeignet, können aber bestimmte Aufgaben auch wieder nicht so erfüllen wie vollwertige CPUs. Allerdings sind ja GPGPU Supercomputer scheinbar momentan schon ein wenig im Kommen. Für Numerische Verfahren sind Grakas ja im Allgemeinen gut geeignet.

P.S. Es sollen PowerPC CPUs sein.
 
Zuletzt bearbeitet:
Also handelt es sich in diesem Fall um einen Cluster aus GPGPUs oder aus normalen CPUs (CISC)? Weil grundsätzlich stelle ich mir das nun so vor, dass die Detonation einer Nuklearwaffe, und deren Auswirkungen eine riesige Parametergleichung, oder evtl eine art Matrix ist, die gelöst werden muss. Müssten nicht gerade dafür wirklich die RISC Architekturen wesentlich effektiver sein?

Eigentlich könnte man doch mit solch gewaltiger Rechenleistung auch Verbrennungs- & Strömungsprozesse im Otto oder Selbstzündungsmotor optimieren, oder sehe ich das falsch? Ich meine wäre es nicht potenziell viel sinnvoller in diese Richtung zu forschen? Aber das muss man wahrscheinlich nicht verstehen, sondern einfach nur hinnehmen. :)

Danke für die Antwort.
Gruß, GuaRdiaN
 
@suessi22: mich hat der Rechner auch an den Film erinnert ^^
Atomtests ganz lassen, klar würde ich mit meinem funktionierenden Menschenverstand auch befürworten... aber es wäre Utopie zu glauben Amerikaner, Russen und die anderen Großmächte, ja fast alle Regierungen, hätten noch gesunden Menschenverstand.
 
Schon krass das ganze. Was der wohl an Strom verbrauchen wird :freak:
Die Amis spinnen halt. Sich für sowas Sinnloses wie Atomwaffentests nen Supercomputer hinzustellen... Krank :freak:

Jan schrieb:
"der in seiner ultimativen Ausbaustufe über 1,6 Prozessorkerne"

ganze 1,6 Kerne. wow :D Sollte wohl "über 1,6 Mio Prozessorkerne.." heißen :)
 
Zuletzt bearbeitet:
GuaRdiaN schrieb:
Also handelt es sich in diesem Fall um einen Cluster aus GPGPUs oder aus normalen CPUs (CISC)? Weil grundsätzlich stelle ich mir das nun so vor, dass die Detonation einer Nuklearwaffe, und deren Auswirkungen eine riesige Parametergleichung, oder evtl eine art Matrix ist, die gelöst werden muss. Müssten nicht gerade dafür wirklich die RISC Architekturen wesentlich effektiver sein?

Eigentlich könnte man doch mit solch gewaltiger Rechenleistung auch Verbrennungs- & Strömungsprozesse im Otto oder Selbstzündungsmotor optimieren, oder sehe ich das falsch? Ich meine wäre es nicht potenziell viel sinnvoller in diese Richtung zu forschen? Aber das muss man wahrscheinlich nicht verstehen, sondern einfach nur hinnehmen. :)

Danke für die Antwort.
Gruß, GuaRdiaN

Es handelt sich ja um PowerPC CPUs (sind ja RISC). Natürlich könnte man den auch zur Simulation von anderen Dingen nutzen... bloss braucht man für nen Ottomotor wohl nicht soo gigantische Rechenleistung.
 
Ich denke der Begriff "Atomwaffentests" ist ehr die Überschrift. Sprich das Hauptziel, daß damit erreicht werden soll.

Wenn man aber die Physik von Atomtests mal in einzelne Aufgaben herunterbricht, dann geht es um Grundlagenforschung.

Der Supercomputer soll am LBL eingesetzt werden. Diese arbeiten mit der UCB (University of California, Berkeley) und dem Energieministerium zusammen. Die Erkenntnisse werden also auch zur Informationsgewinnung der Energieerzeugung genutzt.

Am LBL arbeiten hunderte Fakultäten, die Rechenzeit auf diesem Monster mieten können. Für alle Wissenschaftler dort ist das ein Traum, der auch abseits von waffenfähiger Atomnutzung Erkenntnisse bringen wird.

Dieses Cluster wird mit einem Unix Derivat betrieben und mittels Accounting die Rechenleistung an Wissenschaftler vermietet. Diese müssen nun nicht mehr ihre Rechenzeiten lange im Vorraus buchen, da das bisherige Systeme ausgelastet war.

Weitere Nutzung der Systeme dort: Erzeugung von Bio Sprit und medizinische Heilungsmethoden mittels Lasern
 
Zuletzt bearbeitet:
Das war ja mal wieder klar. Man könnte ja vielleicht auch sinnvolle Sachen damit berechnene, aber NEIN...
Was schert uns der Klimawandel, wenn wir Atomwaffen haben

Nicht so vorschnell.
Wahrscheinlich berechnen die damit, wo, wie,welche und wieviel Atombomben hochgehen müssen, um durch den in die Atmospäre geblasenen Staub der Erderwärmung entgegen zu wirken. Das wäre eine zur Menschheit passende Problemlösung. ;)

Gruß
Raubwanze
 
Da hat bestimmt wieder irgend ein Beamter gesagt, dass ihm das alte System zu lange bootet. Ich will zwar nicht den Sinn des Systems anzweifeln, bestimmt braucht man so ein System für Atomwaffentests aber wofür braucht man Atomwaffentests? Damit man simulieren kann welche Auswirkungen es hat wenn man eine Bombe auf Bagdad wirft?
Wäre es nicht viel angebrachter das, in Amerika mittlerweile auch kostbare, Geld für sinnvolle, zivile Zwecke wie etwa zum Zwecke der Erforschung der Umwelt oder zur zukünftigen Vermeidung von Wirtschaftskatastrophen einzusetzen?
Ehrlich gesagt stößt mir das bitter auf wenn ich sehe wie wichtig den Amis ihre Waffen sind.
 
Naja IBM weiß halt WO man Gewinn macht und wo es keine Geldprobleme gibt ;)
 
Zurück
Oben