News IDF: PCIe-Switch ermöglicht 16 Grafikkarten

zumindest aus der Sicht eines normalen Benutzers :daumen:
 
Man könnt ja auch 16 Soundkarten reinmachen und dann ein 112.16 (112 Lautsprecher, 16 Subwoofer; 16x7.1) System einsetzen. Dann könnte man sich einen Raum aus Lautsprechern bauen. Da bekommt der Begriff Raumklang eine ganz neue Bedeutung bzw. man könnte es in diesem Fall in Klangraum umbenennen :D
 
Das heisst dann also dass man schon bei 200 FPS Mikroruckler bekommen würde? :lol:
 
Wieder mal lustig zulesen was hier geschrieben wird.

Es scheint wohl bedarf da zusein in der Industrie an solchen Lösungen.
Glaube kaum das ne Firma irgendwas ins blaue plant und produziert.
 
doesntmatter schrieb:
Netzteile für derart viele Grafikkarten sind wohl noch nicht erfunden.

als ob es keine Netzteile für 3KV gäbe.
Wer da ein Standard Netzteil einbauen will, ist selber schuld
oder aber man nimmt 3-4 davon...

alex.s schrieb:
Aber bei Verwendung von einer einigermassen potenten Grafikkarte und dann voll bestückt
zieht die das "Ding" an die 3000 Watt.

Zwei Heizlüfter haben mehr :rolleyes:
 
SAN wäre logisch, 500 MByte/s pro Richtung und Anschluss wären auch noch genug. Dort dann noch einen SCSI / SATA Controller a 4 Anschlüsse drauf ~125 MB pro Platte und Richtung.

Dann fehlen da nur noch 2x - 3x Glasfaseranschlüsse um sie auf die Switche zu verteilen.
Dies dann im Raid 10 Verbund und von den Teilen 2 Stück im Rechenzentrum verteilt.

Und die virtuellen Server kriegen dann eine virtuelle Raid 1 Festplatte eingebunden jeweils eine virtuelle Festplatte von einen der beiden Geräte im RZ

Das ist dann Redundanz :)
64x1 TB bei Raid 10 => 32 TB nutzbar ;) (-Dateisystem)

Nur die IO Performance muss natürlich stimmen, also das die Daten dann auch mit der nötigen Bandbreite auf den nächsten Switch gehen, ansonsten wäre die Performance ja sinnlos.

Und vom Strombedarf her gesehen, lieber ein großes Teil mit viel Power als viele Kleine mit weniger Power da sich ja auch die Verlustleistung im Leerlauf erhöht. Und die Platten verbraten die Energie ja so oder so ob das jetzt 10 Systeme machen oder nur eins ist auch recht egal.
 
Zuletzt bearbeitet:
Ich könnte mir vorstellen das z.B. das Militär an so etwas Interesse haben könnte. Soweit ich weiß haben die auch mal für ihre Simulatoren mehrere, zusammengeschlossene 3dfx Voodoo 5 6000 Karten benutzt. Das so ein Produkt nichts für den Endverbraucher ist sollte eigentlich klar sein.
 
Kann mir schon das nächste Tesla-Dingens von Nvidia mit dem Board vorstellen >_> *sick*
 
JackBlackstone schrieb:
schonmal daran gedacht das nicht unbedingt grakas drauf müssen ???
Doch! 16 GTX280 für Cuda Andwendungen :)

djblacksheep schrieb:
ist mit sicherheit auch für grafikkarten gedacht, aber nicht unbedingt um darauf crysis & co laufen zu lassen. ....(die CUDA & co nutzt)
Intel und AMD werden bald im Serverbereich das Nachsehen haben, wenn alle anfangen mit Grafikkartenclustern ihre Server zu bauen :D

Ich stell mir grad das Netzteil vor, dass 16 GTX280 versorgt :evillol:
 
Für RaceTrace könnte es doch gut sein ich meine im letzten bericht wurden ja auch 4 GPU benutzt.
Klar ist das nichts für den Normalen User alleins schon der Strom Verbrauch würde mich einmal INterresieren wenn das Board voll bestückt ist.
 
Manche Kiddies haben echt einen beschränkten Horizont, sorry.
Schonmal daran gedacht, dass so ein stück Hardware im wissenschaftlichen Bereich genutzt werden kann?

Man brauch mehr Lanes nur für massiv mehr Daten, sprich bei Games primär für Texturen.

Für wissensch. Berechnungen werden sicherlich keine Texturen benötigt. Für die Programmierung der Shader und übertragung der zu berechnenden Daten sind die Lanes mehr als ausreichend... es geht schließlich um komplexe Berechnungen.
Man stelle sich mal den BOINC-Client mit 16 Grakas vor... das Ding rechnet ja alles in Grund und Boden.

Es bleibt aber (im Moment) sicherlich ein stück Exotenhardware ;-)
 
Klar, für Heimanwender ist es nicht, aber wenn man Festplatten außen vor lässt bleiben wirklich vor allem GPGPU-Anwendungen. Da ich mich im Serverbereich nicht so auskenne möchte ich mich nicht über den Sinn oder Unsinn für SAN und co auslassen.
Aber wenn man das für Grids oder vllt. für Grafikkartencluster oder was weiß ich verwenden kann, wäre das im wissenschaftlichen Bereich sicher interessant. Mal eben unter 10.000,-€ an einen Rechner zwichen 8 und 16 TFLOPS zu kommen wäre doch sicher in manchen Bereichen verlockend.
Und auch wenn sich GPU´s nicht für jede Berechnung eignen gibt es eine Menge an sinnvollen Einsatzbereichen.
 
doesntmatter schrieb:
Mit Grafikkarten-Anschlüssen, 6-Pin usw. ? Oh, da bin ich wohl nicht auf dem neusten Stand, sorry.

Die Stecker sind doch vollkommen egal.
Das sind Standard Stecker die man auch an andere Kabel machen kann ;)

und ein 12V /300Ampere Netzteil kann man auch kaufen.
 
Abgesehen davon, dass es Strom ohne Ende schlucken würde, kann man aufgrund der engen Steckplatz Bauweise nur 1Slot Grakas draufpacken. Wäre mal geil zu wissen, wie z.B. Crysis mit 16 Grakas laufen würde.
 
alex.s schrieb:
Naja, ich weis nicht für wenn sich das rentieren soll ?!
Wie die meisten gesagt haben, Grafikkarte sind wohl das Einzigste was Sinn macht.
Aber bei Verwendung von einer einigermassen potenten Grafikkarte und dann voll bestückt
zieht die das "Ding" an die 3000 Watt = 3 kW = ~ 0,60 EUR/Std. aus der Dose.
Bisschen oversized und ziemlich weit von "Green IT" entfernt.


wenn man dafür rechenoperationen an einem tag schafft statt mit einem langsameren system in 2 wochen, dann spart man sich 13 tage zusätzliche laufzeit...
bevor man 8 komplette rechner hinstellt, die jeweils 2 grafikkarten enthalten, reicht eben ein rechner mit 16 grakas. also spart man sich nochmal 1000W und viel hardwarekosten

und wie das richtung green-it geht :)
 
stellt euch mal die SLI Brücke vor xD - ich weiß es ist keine notwenig, aber lustig wär sie sicherlich.
Und wer sich das Teil anschafft kann sich au ein oder mehrere passende Netzteile anschaffem...

Die idee mit dem Raumklang find ich lustig, wär cool wenn man die Boxen wirklich drauf abstimmen könnte...
 
Also da es hier um SLI geht scheiden Sachen wie Netzwerk- oder Laufwerkscontroller imho aus - da ich kein SLI brauche um mehrere Netzwerkcontroller in einem System zu verwenden. (es sei denn, ich würde sie alle für ein und denselben Netzwerkanschluss verwenden wollen, was irgendwie Quatsch ist) Für mehr Monitore durch mehrere Grafikkarten brauche ich sowas auch nicht (vielleicht auf Windows, keine Ahnung...). Das Ding ist imho nun völlig eindeutig, womit es ja auch in einem der ersten beiträge schon verglichen worden ist, einfach eine Rechenmaschine, die da mit Cuda (oder Brook++) spezielle hoch parallelisierte Aufgaben berechnen soll. Nvidia hat seit Monaten eine Tesla-Workstation im Prpogramm die sowas mit vier Cuda-Karten ist, jetzt geht sowas eben auch mit 16 Cudakarten. Da kommen dann, wie von der Nvidia Tesla gewohnt, "Grafik"-Karten ohne Monitoranschluss rein, die nie Bilder berechnen.
 
Ich würde dann gerne ein NT dafür sehen das die dafür benötigten Ansclüsse alle hatt.
 
Zurück
Oben