News 13 GPUs in einem Desktop-Supercomputer

Fazinierend wie eine hier öfters schon belächelte Innovation (Mehrfach GPU Processing) durch geringe technische Anpassungen (Flex PCIe Kabel / Bios Modding) fast schon revulotionäre und vor allem produktive Formen annehmen kann, die nicht von der Hand zu weisen sind.

Die Vorteile muten wirklich extrem an und wenn überhaupt würde ich ein Problem bei der Ausfallsicherheit sehen, der Rest scheint ja durchdacht. Inwiefern böte sich dafür denn ein WaKü-System an? Ist sowas in der Größenordnung 13 GPUs überhaupt realisierbar, was Durchlaufleistung und Kühlung im Radiator angeht?

Was mich schmunzeln lies war das Spiel mit dem "Nerd-Klischee" sowohl die Yt Comment Einblendung als auch die Schauspielerische Art im Video. :thumbsup
 
Zuletzt bearbeitet:
@haudrauff: eine spiele 3d-grafik ist einfach eine textur über ein "hohles" 3d-model gelegt. bei ct handelt es sich um ein komplett durchgängiges "massives" 3d-objekt. das ist ein vielfaches an erforderlichen informationen.

allein die grafik selbst besteht in einem spiel in 1650 x 1050 aus 1,7 millionen pixeln, die in diesem fall besteht aus über einer milliarde pixeln
 
burnout150 schrieb:
Ich wette wenn die auf der Kiste Furmark oder ein sehr anspruchsvolles Spiel bzw. Anwendung laufen lassen überhitzen die Grafikkarten innerhalb kürzester Zeit.
Die Karten in der Mitte bekommen einfach keine Luft. Bei diesen Gesamtkosten sollte man ein drittel des Budgets für die Kühlung aufwenden. Das wird auch bei Servern so gehandhabt.
Ich würde mich auch freiwillig melden und denen eine Wasserkühlung bauen, die mit diesem Ungetüm fertig wird. Vielleicht melden sie sich ja bei mir.

lol du siehst doch selber dass die nicht im sli betrieb laufen, die haben bei spielen die power von einer gtx 275. die anderen grakas würden sich zu tode langweile, da keine der grakas genutzt wird weil sie eben nicht per sli laufen.

ne wakü müsste man eigentlich schon zusammenkriegen, sind ca 1kw die die an wärme abführen müssten.
einfach die seitenwand komplett durch 9 120mm radiatoren ersetzen, dann noch vorne 2 rein und oben hat das gehäuse glaub ich auch noch 2x 140mm bohrungen.
da könnte man dann schon mindestens 1000watt wärme abführen bzw wahrscheinlich 1500watt. da wären die karten dann bei ca 50°C unter vollast

was mich aber interessiert ist, mit wie viel lanes die karten jeweils angebunden sind. da würde sich sicherlich das evga classified anbieten das den nv200er draufhat der die lanes quasi verdoppelt, hat zwar dann "nur" 6 karten aber wäre dann immernoch besser wie wenn die karten bei je 2 lanes laufen
 
Ist schon super krass. Das dürfte AMD garnicht schmecken, dass da Nvidia verwendet wurden.
Aber ist natürlich gute Werbung für NV wenn zukünftige Medzintechnik auf Tesla GPUs oder generell Nvs setzt.
 
was mich aber interessiert ist, mit wie viel lanes die karten jeweils angebunden sind. da würde sich sicherlich das evga classified anbieten das den nv200er draufhat der die lanes quasi verdoppelt, hat zwar dann "nur" 6 karten aber wäre dann immernoch besser wie wenn die karten bei je 2 lanes laufen

Mich auch, die laufen bestimmt nicht mit 16x. 48 Lanes sind vorhanden, dann müssten es theoretisch 8 Lanes oder weniger sein pro Grafikkarte. Glaub aber nicht das die Lanes großartig aufhalten, im Vergleich zum Fastra I ist die Leistung um den Faktor 4 gestiegen.

Bei der Kühlung muss ich auch mal ein wenig Kritik loswerden. Da haben sie schon einen Weg gefunden die Grafikkarten nicht in den Mainboard-Slot stecken zu müssen und ein extra angefertigtes GPU Gehäuse bauen lassen und dann lassen sie zwischen den Grafikkarten wieder keinen Platz. Ein paar cm hätten sie schon Abstand halten können, Spielraum vom Platz im Gehäuse ist ja vorhanden.

MfG Kasmo
 
Zuletzt bearbeitet:
@Kasmopaya
Wenn du die Daten vorher effektiv paralellisiert und dann komplett auf die Karten kopierst, spielt die geringer Bandbreite nicht so ne rolle.

Wenn du ständig IO hast, bermst du die Karten außerdem aus.

Für Spiele entscheidend, für GPGPU nicht umbedingt so wichtig.
(Hängt auch vom Problem ab)

lg Sheeep

EDIT:
@SturmFux
AMD sollte dringend was in sachen programierbarkeit ändern. CAL ist nicht zukunftsfähig (bzw. eingestellt soviel ich weiß), OpenCL ist noch nicht so weit, und für DirectCompute hat AMD kein runtime (gut, Supercomputering unter Windows würde ich auch nicht machen wollen!).
Also müssen sie was aus OpenCL machen, bzw. mal ein brauchbares SDK zur verfügung stellen!
 
Zuletzt bearbeitet: (vgl. Edit)
Wie kann man bloss diesen 13-GPU-Cluster mit einem CPU-Cluster bzgl. Preis und Geschwindigkeit vergleichen? Natürlich ist die Preis/Leistung um Welten besser, aber der Andwendungsbereich ist mit GPUs ja auch ausschliesslich auf grafische Berechnungen begrenzt. Für die meisten Unis/Unternehmen wird dies jedoch unzureichend sein, also wird man in vielen Fällen nicht um die Investition in CPU's herumkommen (welche ja natürlich auch grafische Berechnungen durchführen können).
 
Da bist du aber gewaltig auf dem Holzweg Dreadslayer :
Das Monster wird wahrscheinlich Nvidia's CUDA Schnitstelle nutzen. Mit dieser Schnittstelle ist es möglich , auf der Grafikkarte Berechnungen durchzuführen - ohne Grafik :)
Kannst dich ja mal bei gelegenheit hier umschauen:
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/
oder dich über Boinc informieren bzw Boinc Cuda Projekte.
 
Zurück
Oben