News 13 GPUs in einem Desktop-Supercomputer

Wie funktionieren herkömmliche Tomographen? Es kann doch nicht sein, dass hinten immer eine Rechnerfarm dranhängt, die aus den Messdaten ein Bild zaubert?

Geht es in dem Projekt um besonders hohe Auflösungen, die so bis jetzt noch nicht im Krankenhausalltag Verwendung finden? Wobei ich bis jetzt immer dachte, die Auflösung ist durch die Feldstärke begrenzt.

Oder wurde das CT Beispiel nur genommen, um die Rechenkraft anschaulich darstellen zu können - wobei es eigentlich nur um die Leistung des Computers geht?


EDIT: Feldstärke spielen natürlich nur bei der Magnetresonanztomographie eine Rolle.
 
Also auf die Frage, warum die die Dual PCB Version genommen haben, ich schätze mal deshalb, weil diese die Heißluft direkt rauspustet, im Gegensatz zur Single PCB Version.
Aber das Projekt wird dann wieder relativ unspektakulär, wenn man bedenkt, dass man sich mit einer Single Slot Wasserkühlung auch die PCIe Apdapter und den "neuartigen" Käfig hätte sparen können.
Das heißt, das einzige Besondere daran sind wohl das spezielle BIOS und die Linux Kernel-Veränderungen.

Trotzdem ein tolles Projekt. Aber ich glaube nicht, dass die die Grafikkarten upgraden werden, hätten sie ja auch beim Erscheinen der GTX295 mit dem FASTRA 1 machen können, ham se aber nicht.
Evtl, wenn nVidia sie sponsert... oder wenn die Software für DirectCompute verfügbar (möglicherweise nochmal deutlich effizienter?) wird und ATI sie sponsert.

Gruß
Hate
 
Hatebreeder91 schrieb:
Trotzdem ein tolles Projekt. Aber ich glaube nicht, dass die die Grafikkarten upgraden werden, hätten sie ja auch beim Erscheinen der GTX295 mit dem FASTRA 1 machen können, ham se aber nicht.
Gruß
Hate

Du hast vergessen das sie nicht nur neue Grafikkarten drin haben.

Die haben ein Board mit gleich 3 PCIe mehr Steckplätzen genommen!
Wäre ja auch Quatsch wenn sie bei 4 geblieben wären!
 
Hat einfach zu lange gedauert die Entwicklung zum Fastra II, jetzt steht Fermi vor der Tür... Bin aber trotzdem begeistert von der GPGPU Leistung und dem ganzen Setup. Man muss sich das mal nur vorstellen, hättet ihr gedacht wenn man die GTX 295 auf engsten Raum massenweise zusammenquetscht, das die dann noch stabil und ohne Probleme 24/7 durchlaufen? Solche selbstgebauten low-Budget Supercomputer sind für mich immer wieder der Beweis der Qualität, jeder verbauter Komponente. Schneller und effizienter und günstiger geht es einfach nicht. Einfach der Hammer, mehr kann man dazu nicht sagen. Hier meine Fan Zusammenstellung von weiteren GPGPU Supercomputern inkl. Fastra I: https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110

MfG Kasmo
 
Also ich halte das System für gar nicht so sinnlos und kann nicht verstehen was hier einige zu meckern haben. Dieses System würde wenn es in einem Krankenhaus zur erstellung und Auswertung von 3d-Modellen von Knochen eingesetzt wird nicht den Ganzen Tag laufen sondern immer bei Bedarf eingesetzt werden. Dadurch wäre die Wärmeentlicklung nicht so hoch wie hier einige Denken.
Das es normaler Ram ist sehe ich weniger als Problem, die Uniklinik Frankfurt/Main nutzt so weit ich sehen konnte für die Auswertung von CT und MRT Bildern auch nur Workstations mit Intel Xeon und normalen Ram.
Ich fände es gut wenn solche systeme häufiger gebaut und eingesetzt werden, um MRT-Bilder auszuwerten oder für andere Berechnungen.
 
Falls sich einer fragt, warum man wieder keine ATI(HD 5970) genommen hat:
Nvidia für Rechenleistung
Seine Rechenleistung erreicht FASTRA II durch sechs Nvidia GeForce GTX295 Dual-GPU-Grafikkarten sowie eine GTX275-Karte. Dafür, auf Nvidia-Grafikkarten statt ATI-Modelle zu setzen, spricht laut Batenburg einzig und allein die CUDA-Architektur. "Sie wird verbreitet genutzt und unterstützt. AMD hat einfach keine so fortschrittliche Programmierplattform", erklärt der Wissenschaftler. Dabei stoßen Grafikkarten-Superrechner auf breites akademisches Interesse.

Als Beispiel verweist Batenburg auf seine Beteiligung an The Little GREEN Machine http://www.littlegreenmachine.org. Das ist ein geplanter GPU-basierter Cluster aus Serienhardware, der in den Niederlanden unter Beteiligung mehrer Universitäten entstehen soll. Meteorologen und Astronomen zählen demnach ebenso wie Strömungsdynamiker und Finanzmathematiker zu Wissenschaftern, die ein FASTRA-ähnliches System für ihre Rechenaufgaben als geeignet sehen. Beispielsweise sei ein GPU-Superrechner gut für die in vielen Gebieten anwendbare Methode der Monte-Carlo-Simulation geeignet.
Quelle: http://www.dasjournal.net/news/140/ARTICLE/25520/2009-12-15.html
Vielleicht kommt das Statement von NV nun besser rüber."Wir sind eine Softwarefirma" Genau darum sind sie es...

MfG Kasmo
 
Ist schon nicht schlecht, dass die mit 6000 Euro 12 Teraflpos Rechenleistung bekommen,
Da sieht man halt mal wieder, dass die Zukunft der Supercomputer in der Verwendung von Grafikchips liegen wird.
 
Yeah für alle alle Leute , die immer rumgeflamt haben "Wofür braucht man 1500 Watt Netzteile Oo?!" Hier habt ihr ein Beispiel ^^.

Frag mich wann der erste Post kommt: " Sowas ist in Zeiten des "Klimawandels" doch mehr als daneben und total umoralisch. xD
 
Intel dürfte langsam aber sicher Panik schieben und Larrabee II pushen. Wenn der dann wieder floppen sollte...:eek: Die stehen dann ohne GPU da und wie einige schon richtig erkannt haben, GPUs sind definitiv die Zukunft. Meiner Meinung nach sogar im allgemeinen Desktop PC. Sobald man mit der GPU alles machen kann was eine CPU auch kann, sollte die ineffiziente CPU komplett aus dem Rechner fliegen, damit man Strom sparen kann.(und das nicht wenig bei zb. Core i7) Larrabee I hätte sowas schon geschafft bzw. gekonnt. Bin ja gespannt wie weit NV mit Fermi geht. :D Wer hätte das gedacht vor ein paar Jahren, Intel in die Ecke gedrängt und AMD/ATI und NV als Gewinner... Was ne geile Entwicklung, von Grafikkarten nur für Spieler zu den mächtigsten Chips der Welt.
 
Zuletzt bearbeitet:
Damit könnten wir Gamer uns als Teilinvestor der Zukunft betrachten:king::king:
 
Vielleicht haben die ja deshalb 4 "alte" Dual-PCB-GTX295 verbaut, weil diese kurze Zeit im Fastra I gewerkelt haben und sich dann herausgestellt hat, dass sie doch zu langsam sind für die verdoppelte Auflösung in allen 3 Raumrichtungen. Als man dann noch weitere für Fastra II eingekauft hat, war eben das Single-PCB-Modell draußen und man hat das genommen.
 
Naja, dass die CPU ganz rausfliegt glaube ich nicht - in der Integer-Leistung kommen Grafikkaten nicht mit.

Da ist eher der Ansatz interessant, der bei AMD Bulldozer deutlich wird: Im Vergleich zur Vorgängerarchitektur wird die Integer-Logik verdoppelt, aber die Floating-Point-Logik stagniert - vermutlich, weil sie eh mittelfristig durch GPGPU ersetzt wird.

P.S.
So wie SSE die x87 FPU in den Schatten stellt, stellt GPGPU SSE in den Schatten. GPGPU ist die neue FPU.
 
Zuletzt bearbeitet:
Ne Wakü hätte dem Teil bestimmt nicht schlecht getan, dann nen Durchlauferhitzerin den Ausgleichbehälter und dann is gegeb Mittag des Kaffewasser auch soweit fertig. Spaß bei Seite: MIt ner Wakü wärs zwar noch n gutes Stück teurer geworden, aber die Leute brauchen keine Gehörschutz wenn die daran arbeiten und der Raum wird nicht so schnell zur Sauna, weil des Wasser ne gewisse "Pufferfunktion" hat.
Aber die Konstruktion is schon echt scharf, ich frag mich nur, warum die ne einzelne GTX275 drin haben, da hätte man doch sicher auch noch ne 14te GPU einbauen können.
 
Papst_Benedikt schrieb:
....ich frag mich nur, warum die ne einzelne GTX275 drin haben, da hätte man doch sicher auch noch ne 14te GPU einbauen können.

Für FASTRA III braucht es ja noch Steigerungsmöglichkeiten. ;)
Dann heißt es : Supercomputer mit 14 GPUS und 30 TeraFLOPS, dank 7x GTX395.
 
Eindeutig Nerd. Mit einem leicht femininem Touch. Man bemerke das Geräusch, welches entsteht, wenn die Spucke in seiner festen Zahnspange steckenbleibt. :volllol:

Nichtsdestotrotz Wahnsinn, was man alles in einen Lian Li Desktoptower reinbekommt. ^^
 
schlimm, wie man hier so manchen dummen Kommentar zu Gesicht bekommt...

einen Desktop Supercomputer für unter 6000 Euro, da gibt man dann eben 1 Mio Euro aus und hat ECC :rolleyes:. Dass keine ATI Karten genommen wurden liegt nur daran, dass FASTRA auf CUDA basiert.
Mit Fermi wirds wohl Fastra III geben, dann vergleichbar mit Rechnern der 5 Mio Euro Klasse.
 
@MountWalker

AMD hat mal wieder Jahre vor Intel die richtigen Weichen gestellt.:daumen: (erinnert mich irgendwie an Netburst v. A64:evillol:) Intel setzt immer noch auf CPUs, auch bei Larrabee. Völlig unverständlich, der Cell hat ja auch schon bewiesen das eine CPU niemals so effizient sein kann wie eine GPU.

Sehe das genauso wie in deinem verlinkten Artikel, Fusion geht genau in die richtige Richtung. Jetzt muss AMD nur noch durchhalten und Fusion I+II+III(was leider noch Ewigkeiten dauert) raus bringen. Die CPU wird natürlich nie ganz verschwinden, sie wandert halt in die GPU. Die GPU hat ja die Hauptlast, darum kann man nicht davon sprechen das die GPU in die CPU wandert. AMD definiert die APU genau so: http://de.wikipedia.org/wiki/Apu

Ein Chip weniger im System dürfte den Stromverbrauch ordentlich senken, Fusion wird wohl der nächste Quantensprung in der Performance per Watt werden. Ich freu mich drauf und wir Gamer sind live dabei...
 
Sehr interessantes Projekt, 3D-Tomografie dürfte wohl einer der Bereiche sein, der extrem von GPGPU profitiert.
Das wird zwar sicher nicht in allen Bereichen so sein, aber da, wo eine GPU besonders fix arbeitet lassen sich eben extrem Kosten, Stromverbrauch, Systembauzeit und durch die geringere Komplexität der Hardware sicher auch ganz drastisch Wartungs- und Supportkosten senken.
Solche Projekte wie FASTRA 1 und 2 sind erst der Anfang, aber längst nicht der Tod der CPU.
 
Zurück
Oben