News Noch ein Petaflop-Supercomputer von Cray

bigboss_sb schrieb:
(...) 2011 (...) 32 multi core cpus in einen DIE (...) sagt intel
Intel will nach eigener Aussage alle zwei Jahre eine Neuentwicklung auf den Markt bringen. Heißt - sagen wir mal - 2007 Quadcore (und das ist schon optimistisch), 2009 Octacore und 2011 dann 16 Kerne. Huch, das sind ja gar keine 32!!

Was wollen die machen, bis dahin durcharbeiten, oder was?? :freaky:
 
Purple2 schrieb:
warum kommen die news im mom später als bei gstar?
Wahrscheinlich weil die Redaktion - da sich wohl kein Mod hier mit Spam und Trollerei beschäftigt - öftersmal den Kommentar-Thread (den man leider von der Hauptseite sehen und erreichen kann) fürchtet.

@MacroWelle
Hab noch nirgendwo gelesen, daß Intels 'zweijährliche' Neuerungen sich auf die Verdopplung der Kerne beziehen/reduzieren (?)
 
Zuletzt bearbeitet:
@Purple2

Weil wir evtl. noch etwas anderes zu tun haben, als jede Meldung sofort zu newsen? Und Inquirer-Meldungen (mit deren Fehlern plus eigenen) mal eben mehr schlecht als recht zu übersetzen, würde ich nicht unbedingt als adäquate Berichterstattung bezeichnen.
 
bezüglich stromverbrauch: solche dinger haben eh oft ihr eigenes kraftwerk nebenan stehn

@ news: sollte es nicht 38TB heißen (letzter absatz), 9500 * 4 = 38000 nicht 39000

mfg
 
Kleinstadtcomputer? Also bei 675 kW wäre das schon eine sehr kleine Kleinstadt. Damit kannst du höchstens ein Dorf oder eine kleine Fabrik betreiben wobei das schon fragwürdig ist.

Tja das andere wegen der Sitzecke. Die Cray's von früher, die hatten so was mit feinem Leder bezogen und sahen auch noch schick aus.

Heute sinds halt nur noch Rechenknechte inner Blechkiste :-)

Gruss Projektil :-)
 
@M3ph1st0

Da steht mehr als 9.500. ;)
Und 39 TB ist die Aussage von Cray.
 
Ihr Spaten!

Was ihr meint ist das Moor´sche Gesetz !

http://de.wikipedia.org/wiki/Moore%C2%B4sches_Gesetz

Und das sagt nicht aus das man alle 2 Jahre Kerne dazu haut, sondern bezieht sich auf die Transistorzahlen der CPU´s!

:schaf:

PS :

Und was schließen wir aus Moores Law ?

...Dass die Rechenleistung der Computer exponentiell anwächst, kann daraus jedoch nicht gefolgert werden....
 
Zuletzt bearbeitet:
Hmm...Laut meiner Stromrechung verbrauche ich ~13MWh Jahr ^-1 also ~35.5KWh Tag^-1 also ~1.5KWh Std^-1

Wenn also der Stromverbrauch des Hood beiner 1MWh liegt, dann braucht er immernoch ~670x mehr Strom als mein Haushalt

mfg
 
webbi schrieb:
Bei einem 3D-Benchmark sicher weniger als (fast) jeder einzelne User im Forum erreicht ;)
Der ist nicht für Grafik, sondern für aufwendige Berechnungen ausgelegt... Wie schon erwähnt könnte damit wohl kaum einer hier mehr damit anfangen als ihn bei Ebay ordentlich teuer zu verticken :)
Falsch. Eine Grafikkarte besitzt auch nur einen Prozessor der rumrechnet. Nur ist dieser eben für Vektor/Matrixrechnung optimiert wodurch die Beschleunigung bei 3D Spielen zustande kommt. Man kann auch alles auf der CPU berechnen lassen. Dort dauert es zwar länger, aber bei 9500 Dual Cores dürfte das keine Rolle spielen.
 
@ webbi noch dazu gibt es mittlerweile im 3D-Mark einen CPU-Test, und ich denke, da könnte unser Baby da oben mal nen neuen CB_Record aufstellen ;)

krasses Teil, jedoch wirklich für uns irgendwie - unsinnig ;)

Ich freu mich erstma auf den Memrom_dual_core für lappys :D dann schauen wir mal^^
 
da gebe ich t3rm1 recht.
besonders ist aber die ähnlichkeit von graka und dem cluster hervorzuheben. beide sind schnell, bei hoch parallelisierter abarbeitung von daten. in einer graka können 24 pixelshader (aktuell ... das werden schon noch mehr :) 24 pixel gleichzeitig berechnen. dieser cray könnte sich um mehr als 9500 pixel gleichzeitig kümmern. und das auch noch bei höherem takt pro einheit. aber auch enorm viel mehr stromverbrauch und auch enorm viel höheren kosten für die hardware :)))
ich warte ja noch drauf, dass die in jeden server einen quadcore tun und 4 grakas, die für parallele ausführung von berechnungen besser geeignet sind, als normale x86 cpus.
btw:
das wär mal was fürs oktoberfest:
"oa petaflop gehd no, oa petaflop gehd oiwei" zu hochdeutsch: "ein zusätzliches petaflop an rechenleistung kann nicht schaden" (ausser dem geldbeutel natürlich :)
 
Zuletzt bearbeitet:
Eagle_Eye schrieb:
Hmm...Laut meiner Stromrechung verbrauche ich ~13MWh Jahr ^-1 also ~35.5KWh Tag^-1 also ~1.5KWh Std^-1

Wenn also der Stromverbrauch des Hood beiner 1MWh liegt, dann braucht er immernoch ~670x mehr Strom als mein Haushalt

mfg

whoa, das is aber ein hoher verbrauch. ich verbrauch, zusammen mit meiner mutter grad mal 3-4MWh. schon geldbeutel und umwelt. was man von diesem monstersupercomputern ja nich behaupten kann. stellt euch vor wenn in 20 jahren jeder so einen im kleinformat zu hause hat Oo
 
Schön schön schön.
Aber ohne schickes design ist das für mich kein echter Cray. Die alten Supercomputer von denen hatten alle das besondere etwas. Der hier sieht nur aus wie jeder andere.

Ist natürlich nur nebensächlich aber trotzdem.
 
@30/31: ja, 3D Mark 06 z.B. unterstützt ja multi Core, also bringen viele kerne schon was. aber ich glaube nicht das sich das berechnen in so viele threads aufteilen lässt. wenn doch dann wär das echt geil :D 100000 CPU Punkte ^^

@17: Intel erzählt viel wenn der Tag lang ist...vor einigen Jahren haben die auchmal gesagt das sie 2006 die 20GHz erreicht haben. aber davon sind wir ja noch weit weit entfernt. so ein hoher takt wäre ja alleine wegen der enormen wärmeentwicklung/verlustleistung gar nicht möglich. zumindest jetzt nicht.
 
Ich will mal wissen was die in Langley für nette Kisten im Keller stehen haben...bei popeligen 52 Mio für dieses Projekt. Bei einem IT-Etat der NSA & CIA bei dem man getrost nochmal 2 Nullen dranhängen kann geht bestimmt noch einiges...

dazu fällt mir auch noch folgendes ein:

klickmich
 
wer weiß was der für 3D mark ergebnisse bringt :-P
Bei einem 3D-Benchmark sicher weniger als (fast) jeder einzelne User im Forum erreicht
Der ist nicht für Grafik, sondern für aufwendige Berechnungen ausgelegt... Wie schon erwähnt könnte damit wohl kaum einer hier mehr damit anfangen als ihn bei Ebay ordentlich teuer zu verticken

Vergleich:
"Wer weiss wie schnell die Katze rückwärts laufen könnte :-P


Beim Rückwärtslaufen wäre die Katze wohl langsamer als eine Katze die vorwärts läuft. Diese ist nicht zum rückwärts laufen geboren, sondern zum vorwärtslaufen, wie schon erwähnt, könnte keiner was mit einer rückwärts laufenden Katze anfangen, ausser sie als Attraktion im Zirkus zur Schau zu stellen.


Ich kann dazu nur sagen: Wenn die Katze, von der hier die Rede ist, mit entsprechender Lauftechnik versorgt werden würde, würde sie rückwärts 1000000 mal schneller laufen, als vorwärts laufende Katzen...

got it?


kleiner Tipp: Lauftechnik ist als "Emuliersoftware" zu verstehen ^^ :)
 
Zuletzt bearbeitet:
Hehe 9,.500 AMD Opterons werden eingesetzt, cool, und wieder ein Supercomputer mehr ,^^
omg und die leistung erst,,^^
 
T3rm1 schrieb:
Falsch. Eine Grafikkarte besitzt auch nur einen Prozessor der rumrechnet. Nur ist dieser eben für Vektor/Matrixrechnung optimiert wodurch die Beschleunigung bei 3D Spielen zustande kommt. Man kann auch alles auf der CPU berechnen lassen. Dort dauert es zwar länger, aber bei 9500 Dual Cores dürfte das keine Rolle spielen.

Eben, Der Rechner braucht keine Graka mit Hardware3D...
Ein kleiner Null-Treiber der die FP-Operartionen geschickt auf die über 9000 CPUs verteilt, dürfte dafür sorgen, das auch noch Spiele in 5 Jahren mit max.Settings laufen und immernoch mehrere hundert FP/s machen. XD

:D
 
-a!pha- schrieb:
Ihr Spaten!

Was ihr meint ist das Moor´sche Gesetz !

http://de.wikipedia.org/wiki/Moore%C2%B4sches_Gesetz

Und das sagt nicht aus das man alle 2 Jahre Kerne dazu haut, sondern bezieht sich auf die Transistorzahlen der CPU´s!

:schaf:

PS :

Und was schließen wir aus Moores Law ?

"...Dass die Rechenleistung der Computer exponentiell anwächst, kann daraus jedoch nicht gefolgert werden.... "



"Ist das Potenzial einer speziellen Technologie ausgeschöpft, so wird sie von einer neuen abgelöst..."
 

Ähnliche Themen

Zurück
Oben