Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bereits im vergangenen Jahr ging die Universität Antwerpen einen sehr individuellen Schritt, um genügend Rechenleistung für ihre Forschungsprojekte zu erhalten. Damals stellten sie ihren ersten Desktop-Supercomputer mit ganzen vier potenten Nvidia-Grafikkarten vor, was dem damals möglichen Maximum entsprach.
Aber die Planung dürfte schon etwas länger her sein, oder? Sonst würden wohl HD5970 drin werkeln. Die bringen ja nochmal 15-20% mehr Leistung als die GTX295 und sind komplett auf einem PCB.
Wird sicher technische Gründe haben. Davon abgesehn sind Wissenschaftler und Nerds nicht allzu abergläubisch. Und genau betrachtet war die 13 früher mal (vor der kath. Kirche) eine "heidnische" Glücksszahl.
Sieben PCIe Slots, sechs Dual-GPU Karten und eine Single-GPU Karte für die Ausgabe ergeben insgesamt 13 GPUs. Das entsprechende Asus Board wird im ersten Video erwähnt. Dass nVidia GPUs gewählt wurden, ist mit der Entscheidung für CUDA begründet.
weil ne lange planung nötig ist, die zu zeiten begonnen hat, als es noch keine hd5k serie gab.
Und vllt. auch weil's finanziell von Asus und NV gefördert wird? Ist doch verdammt gute PR und von dem bereich versteht AMD leider net viel
@Mysterion
Schau dir mal die youtube-kommentare an, welche im ersten video eingeblendet werden
Davon leite ich ab, dass der Spezi dort sein Nerd-Gehabe (angefangen bei den klamotten xD ) mittlerweile aus spass bis zum exzess betreibt
@topic
daran sollten sich andere Uni's mal nen beispiel nehmen, große Rechenzentren in denen die meiste Leistung in Hitze verpufft finden sich an fasst jeder uni - ein wechsel ist mittlerweile, wie man im Video gesehen hat, auch leicht finanzierbar - was sich noch schneller durch die gesparten strom/platz/mietlkosten armortisiert.
@Schnitz: Nur dass ein GPU-Computing-System längst nich alles tun kann, was ein x86-System kann, das ganze ist immernoch sehr speziell. Für allgemeine Aufgaben taugt das nix, zumindest wenn sich da keiner hinsetzt und ein komplexes Programm dafür schreibt.
Respekt an Asus, dass die da ein modifiziertes BIOS bereitgestellt haben.
Im Endeffekt ist es ja kaum eine Entwicklung der Uni, sondern ganz normale Serienhardware.
ich weiß ni, warum hier manche über das P/L Verhältnis meckern. Ich denke die werden sich da schon ganz schön Gedanken drüber gemacht haben. Und scheinbar sind die GPU´s dafür besser gerüstet und die Software genau darauf optimiert, dass das System sich wirklich rechnet..
Ich sag zumindest erstmal "Daumen hoch" für den Taten- und Basteldrang, gemischt mit der Idee des Versuchs findsch guddi
Über Sinn und Unsinn lässt sich hier streiten. Das Preis/Leistungsverhältnis stimmt hier jedenfalls nicht, aber dafür braucht man in dem Raum keine Hezkörper!
Stimmt nicht?
Ich finde 6'000 EUR für etwas, das sonst 2'000'000 EUR kostet,
doch recht gut. 100% Leistung bei 0,3% Preis, was willst du mehr?
Dass sie den Raum nicht mehr Heizen müssen, haben sie auch erwähnt.
klasse Projekt! Super Leistung!
Das Video ist doch auch ganz nett gemacht^^, mit nen paar Späßchen und so.
jetzt sollte man das ganze noch ein wenig ausreifen, sodass andere Unis & Unternehmen das ohne den selben Aufwand bauen können, also das Bios & diesen GPU-Käfig offiziell bereitstellen.
Nicht schlecht, vll besteht ja später die Chance einfach die Grakas mit den Fermis auszutauschen, damit haben sie mehr Leistung bei so gut wie keinem Aufwand.
Die GTX295 können sie dann billig an mich abgeben...
Ich finds geil wie die Sicherung kommt als er die Möhre einschaltet!
Wenn sie jetzt ne WaKü reinbauen könnten sie damit vll nen Durchlauferhitzer bauen um damit Kaffee zukochen !
Schöne News zeigt doch auch mal ein wirkliche Nutzung von GPU´s als Cluster und das besondere an dem Projekt ist gerade Preis/Leistung wie die Grafiken im Video verdeutlichen.
Ich bin beeindruckt auch von der Qualität der News wenn ich da (sry muss aber raus) an das Ding aus dem Sumpf von gestern denke...
Danke dafür und weiter so
Ps: Das mit dem Kaffeekocher wäre wohl das Megaupgrade wobei ich mir auch schön vorstellen könnte das NV ihnen Fermi´s gibt und das ganze grade nochmal als Werbung nutzt.
Ich wette wenn die auf der Kiste Furmark oder ein sehr anspruchsvolles Spiel bzw. Anwendung laufen lassen überhitzen die Grafikkarten innerhalb kürzester Zeit.
Die Karten in der Mitte bekommen einfach keine Luft. Bei diesen Gesamtkosten sollte man ein drittel des Budgets für die Kühlung aufwenden. Das wird auch bei Servern so gehandhabt.
Ich würde mich auch freiwillig melden und denen eine Wasserkühlung bauen, die mit diesem Ungetüm fertig wird. Vielleicht melden sie sich ja bei mir.