News NEC SX-9 – Angriff auf die Top 500?

Nette Anlage, wie so oft in jedem Punkt verbessert, so muss das sein.
 
-oSi- schrieb:
Jeder sieht Abends im TV die Arbeit von Supercomputern.

Und trotzdem ist die Genauigkeit der Wettervorhersage meist nicht besser als die meiner 12 € Wetterstation im Wohnzimmer.

Sascha
 
Deine 12€ Wetterstation kann aber bestimmt nicht die Wolkenbilder vorherberechnen. ;)
 
@23

doch sogar die anzahl der atome, welche sich just in time in den wolken der welt befinden /IRONIE OFF

@topic

interresant wie weit die technik heutzutage ist und vorallem welche pläne es schon gibt ... 10 Petaflop usw
 
@16

hauptsache mal nen sinnlosen kommentar los werden
vermute mal das es dich auch interessieren würde

erst überlegen und dann schreiben
 
bin von haus aus ein lustiger mensch
außerdem hat es Mizukag3 in beitrag 19 gut beschrieben
 
Sieht aus wie ein kühlschrank, nur die farbwhalt passt nicht:evillol:

wirklich interresannt das die jetzt shcon wissen wie schnell so ein ding in 4 jahre sein wird. als hätten die schon ein kompletten bauplan, nur noch nicht angefangen zu bauen weil sie erst noch mit der "alten" neuen technik geld machen wollen:eek:
 
mom mal, nen QX6850 erreicht ca. 48 "teraflops" und der supercomputer im leibniz rechenzentrum mit zigtausend prozessoren an die 60 ?! aehm, irgendwas stimmt doch da nich
 
@29 das sind 48 Theoretische Gigaflops und bei dem aus aus dem Rechnenzentrum sind das Terraflops also ich finde da ist schon ein kleiner unterschied drin :)


zum Thema:

schönes Sache das die immer schneller kleiner leistungsstärker werden.. bringt die Menschheit allgemein ein ganzes Stück weiter
 
Ich glaub, der würde bei QMC, F@H, S@H, E@H usw. die WU's nur so wegknallen das die Projekt Server glühen :evillol:

Aber wenn man den knoten von vorne sieht, denkt man eher an ein externes HDD Gehäuse als an einen Computer, aber sieht echt schick aus.

btw: der wär doch was für Schäubles Onlinedurchsuchungen :freaky:
 
@30
Nur wohin bringt das die Menschheit? Wahrscheinlich werden nicht alle Menschen Großrechenanlagen dazu verwenden, gute Dinge zutun. Vielleicht werden damit Massenvernichtungswaffen entwickelt usw... Ich denke ihr wisst worauf ich hinaus will.

Es hat halt alles Vor -und Nachteile... Auch der Fortschritt :)

@16
Du scheinst wohl der Obergeilste hier zu sein, oder? Wie kommst du dazu, ihn so zu reduzieren? Nur weil es ihn interessiert, wie das Ding in einem Benchmark abschneidet? Meiner Meinug nach sehnt sich da einer nach Aufmerksamkeit... Hättest du mal lieber Zeit damit verbracht, einen Sinnvollen Beitrag zum Thema zuverfassen, anstatt wiedermal dummes Zeug zulabern...
 
Zuletzt bearbeitet:
MrEisbaer schrieb:
Ich glaub, der würde bei QMC, F@H, S@H, E@H usw. die WU's nur so wegknallen das die Projekt Server glühen :evillol:

Aber wenn man den knoten von vorne sieht, denkt man eher an ein externes HDD Gehäuse als an einen Computer, aber sieht echt schick aus.

btw: der wär doch was für Schäubles Onlinedurchsuchungen :freaky:

Würde BONIC auf dem Rechner überhaupt laufen ?
 
Das wird der Aldi Rechner 2020;).mit etwas peripherie vielleicht dabei(diskettenlaufwerk z.b. oder hunderte messstationen für luftdruck,temp,wind,regen usw,wer weiss)...
 
Das wird der Aldi Rechner 2020
Das ist ja jetzt schon der Fall! Ich finde man macht viel zu grosse Unterschiede zwischen den Teraflops einer CPU, einer GPU und eines Vektorrechners.
Kauf dir zwei Radeon HD 3870 x2 mit je 1 Teraflops, dann hast du schon eine sehr gute Leistung. Schade nur, dass sie nicht double precision sind.

Oder besser:
Kauf dir 3 Dutzend Rechner mit je zwei HD 3870 x2. Mach einen Linux Beowulf Cluster. Da hast du eine ENORME Rechenleistung. (Wenn man addieren dürfte 72 Teraflops single precision).
Da zahlst du für die ganze Anlage die Hälfte von einem Knoten PRO MONAT (ist ja wahnsinnig).
Ich bin sicher: Ein solcher Cluster stellt einen NEC-Knoten locker in die Tasche.
 
eigerhar schrieb:
Ich bin sicher: Ein solcher Cluster stellt einen NEC-Knoten locker in die Tasche.

Nein tut er nicht. Es gibt diverse Probleme, die auf Clustern nicht gut skalieren und dann sehr stark von der Kommunikationsinfrastruktur abhängen. Cluster sind nur für Probleme geeignet die sich sehr gut in relativ unabhängige Päckchen zergliedern lassen.
 
eigerhar schrieb:
Und ein VEKTORRECHNER soll da besser sein?!

Hier werden wieder Äpfel mit Birnen verglichen. Cluster ist eine Bezeichnung für den "Makro"-Aufbau eines Systems, wohingegen Vektorrechner sich auf die "Mikroarchitektur" bezieht. Ich kann auch einen Cluster aus normalen Rechner bauen und in jeden zwei nVidia-Tesla stecken. Müssen die Knoten viele Daten austauschen knickt die Leistung mit gängiger Infrastruktur ein. Die Entwicklung eines HPC-fähigen Systems umfasst eben nicht nur die reine Rechenleistung der einzelnen Komponenten.

Deine beiden "Statements" haben in dieser Hinsicht überhaupt keine Aussage. Ich sage auch nicht, dass das eine oder andere besser ist aber Pauschalisierungen bringen auch nichts. Es zeigt mir nur, dass du auf die gängigen Marketing-Instrumente hereingefallen bist.
 
Zuletzt bearbeitet:
Für Vektorrechner (Mikroaufbau) müssen die Probleme in mehrere gleichwertige Aufgaben zerlegt werden, damit sie effizient arbeiten. Wenn die Vektoren nicht aufgefüllt werden sind sie langsam.

Das ist ein völlig analoges Problem, zur Aufteilung einer Aufgabe auf parallele PC's in einem Cluster (Makroaufbau).

Auch die HD3870 x2 arbeitet in jedem ihrer 640 Streams vektoriell (in sehr kleinem Masse).
 
Zuletzt bearbeitet: (Typo)
Zurück
Oben