News 13 GPUs in einem Desktop-Supercomputer

obs ein solcher pc mit 7 x dual-fermi in die top 500 der schnellsten supercompter der welt schafft? :D
dann würden sich alle institutionen schwarz ärgern, millionen und abermillionen von ihrem etat in einen intel oder ibm supercomputer gebuttert zu haben, wenn sie für ca 10000 € so einen supercomputer bekommen könnten und für nur eine mio gleich ganze 100 supercomputer :D

und jetzt, wo der fermi ja mit dp so gut skaliert, wird er für viele aufgaben erst richtig interessant ;)

ich find die idee echt klasse :)
 
Zuletzt bearbeitet:
wenn dir ein normaler pc mal abschmiert, dann startest du ihn neu, wenn dir ein supercomputer abschmiert, dann geht unter umständen die arbeit von tage, wochen oder sogar monaten verloren mit allen konsequenzen wie nichteinhaltung von zeitplänen und verlust wertvoller rechenzeit.

heutige heimrechner laufen mit windows schon sehr stabiel und bei 0-8-15 anwendungen ist das fehlerrisiko minimal. aber auf den profibereich ist das erstens nicht übertragbar und zweitens bei weitem nicht sicher genug.
 
weil bei deinem desktop-pc im falle eines speicherfehlers höchstwahrscheinlich ein blauer bildschirm und/oder fehlermeldungen entstehen

bei nem server, bzw. supercomputer, der die ganze zeit durchläuft und dabei wesentlich mehr zu tun hat, als ein normaler desktop, sollte sowas nicht auftreten, darum ECC
 
eXEC-XTX schrieb:
Man kann mir ja viel erzählen, aber eine Wakü im normalen Unternehmensumfeld (~100 Mitarbeiter) hat sicherlich keine Verwendung, da die in der Regel einen eigenen Serverschrank besitzen und eine gängige sehr laute Luftkühlung zum Einsatz kommt - Lautstärke ist ja sowieso egal, da alles Schallgedämmt ist. Bei den gängigen HP-Servern reicht eine Luftkühlung locker aus, solange der Raum klimatisiert ist, bzw. ich habe noch keinen HP-Server gesehen, der überhaupt Wakü anbietet. Auch von IBM kenne ich kein System mit einer Wasserkühlung.

Eine Wakü würde das Casual-System nur noch weiter bestätigen.
- Desktop CPU
- Standard-RAM ohne ECC
- Grafikkarten-Videoram ohne ECC
- Zweifelhafte Kühlung der Grafikkarte
- Kein Redundantes Netzteil, generell überhaupt keine Redundanz in diesem System

Ich kann mir kaum vorstellen, dass dieses System in den produktiven Einsatz gehen wird und schon gar nicht im medizinischen Bereich(!) Das ist schlichtweg Marketing

warum muss immer alles Speziell sein für Server und Professionelle Anwendungen. Eine Tesla ist auch nur eine GTX 285er mit mehr Ram. Ich fand es ziemlich schlau einfach nur Gamerkarten zu holen und ein Programm für die zu schreiben.
 
Echt interessant.

Der Typ ist allerdings der Knaller und ich finde das eher im positiven Sinne.
Immerhin ist er total auf Telekolleg & Co getrimmt, außer, dass der Vollbart fehlt.
Aber der Pullover passt, Hemd sitzt schief usw.
Aber er hats drauf und dass die Bande sich dessen bewusst ist, sieht man ja auch an den Zwischeneinspielern, die das ganze nett auflockern.
Ich muss allerdings auch zustimmen, dass eine Wasserkühlung dem ganzen sicherlich gut stehen würde, zumal diese ja auch industriell häufig eingesetzt werden. Und gerade auf dem engen Raum würde das extremen Nutzen bringen.
Und den Preis dürfte das auch nicht mehr extrem pushen, jedenfalls wenn man nur die Grafikkarten per Wakü kühlen würde. Der Preis wäre dann nach wie vor extrem viel günstiger als die Alternativen.
 
an die wakü hatte ich beim lesen des artikels auch gedacht, aber vor allem wegen den platzproblemen. damit hätte man alle karten direkt in den slots unterbringen können und diese aufwendigen verlängerungen und halterungen gespart.

Nicht ganz, die zusammengepappten GTX 295 sind immer doppel slot, nur die single PCB Version wird mit Wasserkühlung auch zur single Slot Grafikkarte. Aber eine nette Idee ist es schon, am besten den Wasserkreislauf an die Zentralheizung des Hauses anschließen und man kann sich die Heizkosten komplett sparen. :freaky: Ultra green IT, grüner gehts gar nicht mehr. :D

Fermi hat übrigens 6GB ECC Vram, weis nicht ob das schon mal erwähnt wurde. Bei Games ist das wurst, aber bei komplexen Berechnungen würden sich sonst die Fehler bis zum Schluss durchziehen und eventuell falsche Ergebnisse erzeugen. Daher ist Fermi auch so ein großer Deal für NV, die erste echte reine GPGPU Karte die sich in keinem Bereich verstecken muss.

Aber keine Sorge, es kommt auch eine Gamer Version ohne teuren ECC Vram...

MfG Kasmo
 
Zuletzt bearbeitet:
Zwei Pumpen und drei 420'er Radis hätte man rein bekommen
und das hätte sicher gereicht. Hätte den Preis aber um einen
Tausender nach oben getrieben.
 
dorndi schrieb:
Auf einem normalen PC wird auch ganz normaler Ram (non-ECC) verwendet und es kommt auch zu keinen Fehlern, warum also ECC?
Nicht immer werden die Fehler bemerkt und nicht alle Fehler sind auf einem Desktopsystem kritisch. Ein gekipptes Bit im Hintergrundbild deines Desktops ist weit weniger kritisch, als eins im Codesegment eines Kerneltreibers. Noch schlimmer sind Bitfehler in "wichtigen" (also für kritische Berechnungen genutzen) Datensegmenten. So etwas später herauszufinden, erfordert unter Umständen die komplette Neuberechnung. Das kann man sich in diesem Segment einfach nicht erlauben, weswegen nVIDIA ja nun mit Fermi auch ECC-Speicher unterstützen wird.

Im 24/7-Betrieb ist zudem die Wahrscheinlichkeit größer, dass ein Bitfehler auftritt und zu Problemen führt. Wer da am ECC-RAM spart, kann in E-Fall massive Probleme bekommen, die Kosten in der vielfachen Höhe der für den ECC-RAM eingesparten € verursachen.

Solche Bitfehler im RAM sollte man nicht unterschätzen. Siehe auch http://ct.de/-828883.
 
burnout150 schrieb:
Die Wärmebildkamera misst nur die oberste Karte und auch nicht direkt den Chip zudem ist glaube ich die Seitenwand auch noch offen.

wenn die seitenwand geschlossen wäre würde nach ner halben std kein muks mehr von dem ding kommen.

@topic

finde das ding irgentwie cool aber die tatsache das man 2-pcb karten verwendet hat finde ich wieder nich so berauschend. gegeben muss es die 1-pcb karte ja schon haben sonst würde wohl kaum eine bzw zwei verbaut sein ;)
 
Zuletzt bearbeitet:
Wenn man 6000 Euro Projekte hat sollte man doch in der lage sein eine vernünftige Domain zu finazieren.
xxxx.ab.ac.ad.ah.gh ist doch etwas lang :D
 
Geiles Ding! Am Abend wird dann wahrscheinlich heimlich Crysis drauf gezockt:D


Haudrauff schrieb:
Ich versteh einfach nicht warum man bei einem CT so dermaßen viel Rechenleistung benötigt. Wo ist der Unterschied zwischen einem aufwändigen 3D-Spiel?
Kann mir das mal ein Compter-Peter-Lustig erklären?

Ich vermute, dass sich der Algorithmus letztlich auf die Lösung von linearen Gleichungssystemen reduziert (wie sehr viele mathematische Algorithmen). Diese sind dann teilweise sehr groß.
Wenn z.B. das Ergebnisbild 1024x1024x1024 Pixel hat, kann man davon Ausgehen dass das Gleichungssystem eine Koeffizientenmatrix mit jeweils 1024^3 = 1,07 Milliarden Zeilen und Spalten hat. Also ein "eine Milliarde mal eine Milliarde" lineares Gleichungssystem.

Ein Spiel löst typischerweise 4x4 oder bestenfalls 5x5-Gleichungssysteme.

Die besten Löser für lineare Gleichungssysteme haben lineare Komplexität, d.h. der Rechenaufwand steigt direkt mit der Größe. Also im Ergebnis ein Aufwand von einer Milliarde (Tomographie) vs. 4-5 (Spiel). Selbst wenn das Spiel 1000 Gleichungssysteme pro Sekunde löst ist das kein Vergleich.

So große Systeme sind nicht schwer lösbar; aber es kann halt etwas dauern. Nur in der Anwendung (d.h. in der Arztpraxis) macht es doch einen Unterschied, ob das Ergebnis nach 20 Minuten da ist, oder nach 2 Minuten. Da zahlt sich jede Rechenleistung sofort aus.
 
Zuletzt bearbeitet:
Mannitou schrieb:
Ist schon nicht schlecht, dass die mit 6000 Euro 12 Teraflpos Rechenleistung bekommen,
Da sieht man halt mal wieder, dass die Zukunft der Supercomputer in der Verwendung von Grafikchips liegen wird.

Naja das würde ich so nicht sagen. Das kommt immer auf den Einsatzbereich drauf an.
GPUs sind längst nicht so flexibel wie CPUs und beherrschen nur Vektorrechnung gut. Mehr nicht.

K
 
Zuletzt bearbeitet:
Zurück
Oben