News IBMs Roadrunner knackt Petaflop-Marke

Frank

Chefredakteur
Teammitglied
Registriert
März 2001
Beiträge
8.768
Bereits im September 2006 vermeldete IBM den Bau des ersten Cell- und Opteron-basierten Supercomputers. Das US Department of Energy und die zugehörige National Nuclear Security Administration hatten IBM damals für das Projekt ausgewählt.

Zur News: IBMs Roadrunner knackt Petaflop-Marke
 
Wow, was eine irre Rechenleistung. Warum IBM aber bei 16.000 AMD-Kernen nur knapp über 6.000 CPUs eingesetzt hat ? Das wäre doch wohl eine leichte Möglichkeit, die Rechenleistung noch zu erhöhren, wenn man jetzt ein paar der stromsparenden Varianten des 4-Kern (Barcelona) einbaut; vom Sockel her dürfte es wohl kein Problem sein. Und bei 133 Mio Dollar kommt es auf vielleicht 3.000 4-Kerne für je ca. 200 EUR auch nicht mehr an...

Nachtrag: dochdoch, einfach ein paar 4-Kerne kaufen, in den Serverraum werfen und dann ist alles erledigt. Schnarchnasen...
Klar ist das Konzept alt, das steht ja selbst im Artikel drin ! Nur ist es gerade für IBM sicher kein Problem, von den vermutlich 4384 Zweikernprozessoren (und 1808 Vierkernprozessoren = 16.000 CPU-Einheiten bei 6192 CPUs, unterstellt, es wurden nur 4- und 2-Kerner verbaut) einige durch 4-Kerne auszutauschen. Wenn bei 16.000 Einheiten "nur" 6.192 CPUs verbaut wurden (2,58 Einheiten pro CPU) geht es gar nicht ohne 4-Kern-CPUs, diese laufen also auf den Sockeln/MoBos, die garantiert allesamt dieselben sind. Dann gibt es zweifellos auch kein großes Problem, noch weitere auszutauschen.
Und wenn die CPUs dafür 700 EUR kosten und es werden noch 2.000 ausgetauscht, dann wären das 1,4Mio Teuro + Personalaufwand abzgl Gewinn aus dem Verkauf von 2.000 Dualcores, das erscheint überschaubar bei den Gesamtkosten...

Der wesentliche Aspekt wurde aber genannt: das macht den Kohl angesichts des geringen Anteils an der Gesamtrechenleistung wohl wirklich nicht fett. Und auch nochwas wichtiges wurde gesagt: wenn IBM das nicht macht, dann wirds wohl keinen Sinn haben...

Aber wenn die Entwicklung auf dem CPU-Markt gerade was die Mehrkerne angeht seit der ersten Fassung des Konzepts (2006) so weit fortgeschritten ist, dann wird man das wohl berücksichtigen müssen und HAT es auch bereits berücksichtigt. Denn wie gesagt bekomme ich bei 6.192 CPUs keine 16.000 Kerne ohne 4-Kern-CPUs hin. Und wer 2006 einen Großrechner plant und den bis 2-3 Jahre später unverändert so durchzieht, der wird keinen Erfolg haben. Und wie gesagt HAT IBM ja tatsächlich aktuelle CPUs verbaut, die erst nach Fassung des Konzepts marktreif waren.
 
Zuletzt bearbeitet:
Eigentlich ist des ja garnicht so teuer, wenn man denkt dass ein Miltitärflugzeug (Jet) angeblich nochmal deutlich mehr kostet als dieser supercomputer, und jets tausender-weise gekauft werden.

@ RIPchen

ein normaler Phenom bzw Opteron kostet rund 200 €, für so einen rechner braucht man aber andere cpus: http://geizhals.at/deutschland/a282688.html und diese sind deutlich teurer
 
Zuletzt bearbeitet:
ahm die opertons machen d
as kraut nicht fett wie man gerne sagt...

die cell prozessoren sollten 1,4 pflops und die opterons 60Tflops spize hinbekommen ^^ da kannst du dir vorstellen wie die leistungsverteilung liegt ^^

zum vergleich: 1 eurofighter kostet 100mio euro
 
Jo, die Kerne kann man dann einfach in den Supercomputer schmeissen, laufen dann sofort - wo man die anbringt ist egal, denn die übertragen ihre Leistung wireless, also keine zusätzlichen Kosten!

Ahja. Ich denke die wissens etwas besser und werden schon ihren Grund haben :rolleyes:



Fetter Supercomputer :) Auf dass er gute Simulationen abliefert...
 
Die werden kaum von heut auf morgen beschließen andre CPUs zu verbauen :)
Man hat zum Zeitpunkt X beschlossen, die CPU zu nehmen und das bis zur Fertigstellung durchgezogen. Was zwischenzeitlich erschienen ist, wäre sicherlich noch schneller gewesen aber bei so Projekten schwenkt man da nich mehr um. Die Computertechnologie ist so rasant, solche Großprojekte können da nich immer solche sponanten Optionen (bzw. solche gibts bei Projekten eh kaum bis gar nicht) offen halten.

@Eggcake
:lol:
 
NIcht schön sicherlich, es gibt wichtigere Probleme, aber besser, als die Waffen in der Realität zu testen. Und genau das soll das Gerät ja übernehmen und Atomtests damit weitesgehend vermeiden.
 
Letzer Satz: sollte statt "Ende" wohl eher "endete" heißen.

gern geschehen. :)
 
Mhhh, interessant... möchgte nicht wissen wieviele der "einzelenen" Rechner da zusammen geschaltet sind, denn so wird das ja eigentlich gelößt: Zig tausende einzelenen "Server" zu einem großen Cluster zusammen schalten. :D

So und um die Leistung mal zu würdigen: BOAH, KRASSES PFERD.
 
also ich find solche rechenmonster schon geil ^^ ich hab mir bei einer konferenz in münchen mal das leibniz rechenzentrum angschaut, einfach nur FETT

und wenn man die kosten echt gegen einen jet oder flugzeugträger (was die amis ja massig haben) anschaut ist das echt ein witz :)
 
Welchen zweck erfüllt eigentlich die Kombination zweier Prozessorarchitekturen? Werden vom Cell hier sozusagen nur die SPEs genutzt?

P.S.
Ein Glück spart sich CB die Geburtstagsmeldung. :cool_alt:
 
Dass bei solchen Rechnern nicht unbedingt die neuesten CPU´s verwendet werden ist kein Wunder, wenn man bedenkt, dass Planung und Vorbereitung für den Roadrunner bereits 2006 in vollem Gange waren. Da waren Barcelona und co. noch in weiter Ferne.
Dass roadrunner vorwiegend militärisch genutzt werden wird ist zwar schade, aber wenigstens entfallen so reale Kernwaffentests in Zukunft wohl völlig. Ist immerhin auch etwas. Und die Bereiche, in denen er zivil genutzt wird, werden dadurch wohl auch gewaltig profitieren.
Den Leistungsverlust gegenüber den früheren Prognosen finde ich aber schon interessant. Ob das wohl an der relativ schlechten Out of Order Leistung und einigen anderen Besonderheiten von Cell liegt?
Oder muss vlt. nur die Software besser angepasst werden? Immerhin ist die Arbeitsweise bei Cell doch etwas anders als bei den bisher verwendeten Power PCs und x86 CPUs.

Edit:
@MountWalker:
Cell ist eigentlich so gedacht und konzipert, dass der G5 Kern sozusagen als Moderator zwichen den SPE´s dient und die Ergebnisse nachher zusammenfast.Mag zwar so nicht ganz korrekt ausgedrückt sein, aber die Vorgehensweise ist doch etwas anders als bei anderen mehrkernern.
 
Zuletzt bearbeitet:
Eigentlich ne Demütigung für AMD, dass man deren CPUs nur das Networking anvertraut^^

133 Mio. ... war regelrecht geschockt, dass das Ding so wenig kostet 0.0 Hätte da fast ne 4-stellige Mio-Zahl vermutet!
 
Es soll mal dahingestellt sein, welche CPU die wahre Mehrleistung in diesem System erzeugt.
Werbung für AMD CPUs ist es allemal, zumindest im Desktop und Serversegment.
Der Cell-Chip besitzt zwar eine enorme Leistungsfähigkeit, wird aber durch die Architektur limitiert und ist in diesem System somit auf AMD CPUs angewiesen.
Ein Supercomputer bietet einen Ausblick auf die nächsten 5-10 Jahrzehnte, wo eine CPU hingehen kann und vielleicht wird.
Denn heutige Rechenleistungen wurden damals auch noch in Supercomputern verpackt.
Interessant ist es allemal, jedoch bezahlt mal die Stromrechnung von dem Teil.
 
Ein normalo kann sowas nicht bezahlen... ja und? Sowas ist in einem Unternehmen drin. Die GSI in Darmstadt hat auch so nen art Monsterrechner und und und und. Die Teile werden oft vermiete später, auch die Hochleistungsrechner usw.
Hier wird eben ein GErät vom Staat dafür genutzt verschiedenen Projekte Staatlicher Firmen zu berechnen.
 
Ich sag euch irgendwann kommt ein prototyp mit Namen T-1000 :D^

Spätestens dann kann man sich sorgen machen^^
 
captain carot schrieb:
...
@MountWalker:
Cell ist eigentlich so gedacht und konzipert, dass der G5 Kern sozusagen als Moderator ...
Das ist mir klar, ich frage hier nach dem Zweck der Opterone in diesem Computer! ;)
 
Und noch ein Stromfresser mehr. Super!
 
wirklich krasses gerät, respekt an ibm! genauso krass dürfte aber die stromrechnung sein ^^
dieser vergleich mit den 46 jahren ist wirklich heftig
 
Zurück
Oben