News Neuer 300-TFLOP-Supercomputer mit 96 GPUs

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.596
Abseits der eigenen Heimcomputern existieren für völlig andere Berechnungszwecke die so genannten Supercomputer, durch die zum Beispiel wissenschaftliche Daten oder das Wetter ausgerechnet werden. Nun soll ein neues NovaScale-System gebaut werden, das neben den übliche Prozessoren auch auf Grafikkarten setzen wird.

Zur News: Neuer 300-TFLOP-Supercomputer mit 96 GPUs
 
wie krass is das denn? der GT200 muss echt ordentlich was reisen. bin gespannt was AMD/ATI da in der Bahn hat. bin echt gespannt wie sehr sie auch gegen Intel server auffahren. und dann dauert es ja evtl. nicht mehr lange und NV wagt den schritt in eigene CPUs.. was ich pers. aber noch nicht glauben kann...
 
@5:
Innovation? Schau dir mal folding@home an. GPGPU für den Heimrechner.
 
Ist es möglich, dass 1,1 TFLOPs gemeint sind und nicht GFLOPs ?

@Thema einfach nur geil. Ein Supercomputer aus Standardpcteilen.
 
@bigot

wahrscheinlich schon, aber mit AA wirds schon happig ^^

wie siehts eigentlich mit den quantencomputern aus? hat sich da schon was entwickelt? weil ein quantencomputer würde den supercomputer da ja als taschenrechner benutzen -_-

grüße
 
Naja ich mag die FLOP/s-Angaben irgendwie nicht, die sind eigentlich so ziemlich nichtssagend... als wenn man die Durchschnittsgeschwindigkeit eines Autos anhand der Motor-PS ableiten versucht...

@/root: Hä? Ein Quantencomputer würde einen Supercomputer als Taschenrechner benutzen? Bitte? Benutzt du deinen Taschenrechner um dir solche Sätze auszudenken oO
 
es gibt viele Supercomputer, die auf normalen Xeons oder Operons basieren. Daran ist nichts neu. Schau mal in die Liste der Supercomputer.
warum müssen eignetlich diese schwachsinnigen und begriffsstutzigen 3d Mark und Crysis Kommentare immer kommen?
1,1TFlops sind nicht so übermäßig viel. Die 3870 X2 kommt doch auch auf knapp 1TFlop, somit eine Steigerung von ca 10% (logischerweise von 2 auf 1 Kern)

So wirklich interessieren würde mich, ob die entsprechenden Applikationen dann so ausgerichtet sind, dass der eine Programmteil bzw die einen Berechnungen "nur" auf den CPUs und die anderen Berechnungen "nur" auf den GPUs gemacht werden und somit dann eine deutliche Leistungssteigerung möglich wäre, da die entsprechenden xPUs einfach jeweils ihre Stärken ausspielen können. Wie wird den die Verbindung zwischen den unterschiedlichen xPUs realisiert? Eine übergreifende Architektur würde ja einen speziellen virtual machine layer benötigen, der Performance frisst. bei der Realisierung über einen speziellen Bus oä würde mich interessieren, ob damit nicht ein Falschenhals geschaffen wird bzw wie diese Verbindung dann dimensioniert ist...
 
Zeigt, dass mittlerweile auch GPUs solche speziellen Aufgaben erfüllen können. Find ich sehr sehr geil..so lässt sich evtl auch nen etwas flexiblerer Supercomputer bauen..GPUs bei einer Aufgabe schneller, CPUs bei ner anderen..würde Kosten senken, weil man nicht unbedingt mehr trotz eigenem Superrechner woanders Zeit mieten muss^^

Ein Quantenrechner kann eigentlich nur bei sehr speziellen Aufgaben wirklich davonziehen. Da halt dann recht deutlich. War mal n interessanter Artikel in der PM drin.
Dadurch, dass n Quantenbit 4 Zustände, und nicht nur 2 haben kann, steigt halt mit der Bitzahl der Vorsprung enorm..spezielle Aufgaben, wie z.B. aus ner Zahl die beiden Primzahlen rauszusuchen, die multipliziert eben diese Zahl ergeben kann so ein Rechner recht gut erledigen.

Das ist auch der Grund, wieso mit Einführung von Quantenrechnern quasi jedes Sicherheitprotokoll umgeschrieben werden muss^^bzw man sich neue Methoden ausdenken muss
 
Ohne Größe und Stromverbrauch lassen sich keine Aussagen treffen. Schließlich ist das Ding nicht mal der Schnellste Supercomputer. Relativ gesehen wird die Leistung natürlich enorm gestiegen sein. Aber um wie viel?
 
Interessant zu sehen, wie sich die Landschaft an Supercomputern in den letzten Jahren verändert hat und wie sie sich anscheinend zukünftig noch ändern wird. GPUs als Rechenknechte sind der letzte Schrei, in den letzten Monaten hört man auch vereinzelt immer mal was von Coprozessoren (jaja, die guten Zeiten Anfang der 90er Jahre kehren vielleicht zurück), auch ein L3-cache wird wieder in Mode kommen, Physikbeschleuniger mit zT irrsinnig hohen Rechenleistungen gibt es auch schon seit mehr als einem Jahr, usw...

Die Zahl der möglichen Rechenknechte hat sich damit von der üblichen CPU vervielfacht ! Ob sich so exotische Systeme mit CPUs und GPUs und vielleicht noch anderen Rechenknechten durchsetzen wird bleibt abzuwarten. Das wird denke ich auch einfach eine Frage des Preises sein und vor allem auch des Stromverbrauches. Denn GPUs sind zumindest derzeit noch nicht als wirkliche Stromsparwunder bekannt, schon gar nicht unter Volllast (wovon bei einem solchen System wie geplant ja wohl auszugehen ist).

Vielleicht kommen irgendwann auch bei den CPUs frei programmierbare Einheiten, auf denen dann mit voller CPU-speed in Hardware komplexe Rechenoperationen durchführbar sind.

Auch dieser Artikel zeigt, dass im IT-Bereich eine ständige und schnelle Entwicklung statt findet. Es wird und wird nicht langweilig...
 
Feine Sache.

Was mich Persönlich aber irritiert ist, das 96GPU´s einen irgendwo einen ähnlichen wert in sachen Flops erreichen als über 1000CPU´s ...
Wobei ich mir unter Flops nichts vorstellen kann, auch nach wiki nicht ....
 
Ich kann die genannten Zahlen nicht nachvollziehen, geschweigen denn mir vorstellen.

8.544 Nehalem Kerne sollen 192 TFLOPs leisten, soweit so gut.
Aber im Verhältnis dazu sollen 96 GT200 103 TFLOPs Rechenleistung bringen?

Also entweder unterschätze ich die Leistung dieser GPUs massiv, oder aber die Zahlen stimmen nicht. Mal ganz ab gesehen von dem bereits oben angebrachten Einwand:

96 GT200 zu je 1,01 GFLOPs = 103 TFLOPs

so what? Bitte kann mir das jemand erklären?
 
Ich muss bei Supercomputern immer und immer wieder an
diese News denken.
Es ist aber doch höchst erstaunlich wie viel Rechenleistung GPU's
im vergleich zu CPU's haben...
verwunderlich das trotzdem bei vielen Dingen die Graka limitiert ^^.
 
Ein Core2Duo mit 2,66GHz hat ca. 12,5GFLOPs
Ein Nehalem müsste 22,5GFLOPs haben, damit 8544Stk 192TFLOPs schaffen.
Klingt realistisch find ich.

Aber es die GT200 müssen ja 1,1TFLOPs haben, damit durch 96GPUs weiter 105 TFLOPs erreicht werden.

ABER warum hat der GT200 50mal(!) soviele FLOPs wie ein neuer Nehalem ????

Bitte um Klärung!
 
Zurück
Oben