News IDF: PCIe-Switch ermöglicht 16 Grafikkarten

MountWalker schrieb:
Also da es hier um SLI geht scheiden Sachen wie Netzwerk- oder Laufwerkscontroller imho aus
Wo steht im Artikel etwas von SLI? Desweiteren warum kein Crossfire? :p

Und SLI braucht man für Laufwerkskontroller wirklich nicht, aber performante Schittstellen und da kommt halt nur PCI E. oder AGP in Frage. Und ob AGP sowas kann weiss ich nicht b.z.w. ob zwei AGP Karten überhaupt möglich wären ohne einen zweiten Kontroller zu benötigen.
 
Was sind denn bspw. die SLI-Schaltmodule da auf den Bildern? Sind das keine SLI-Schaltmodule? Um die PCIe-Lanes eines Chipsatzes auf 16 normale PCIe-Steckplätze zu verteilen braucht man glaube ich keine besonderen Switches. Imho gaukelt der Switch auf einer Zwei-Chip-Radeon auch einfach dem Chipsatz vor, da wäre nur ein Steckplatz bzw Rechenknecht - also SLI bzw. Crossfire.

Mehrere Grafikkarten nebeneinander für mehr Monitore konnte man schließlich schon zu Win98-Zeiten in PCI-Steckplätzen sehen, durch AGP und mehrere Monitoranschlüsse auf einer Karte (mit der Matrox G250 eingeführt - bei nvida ein paar Jahre später) kam das aus der Mode.
 
Immer noch günstiger als alles mit CPU alleine zu rechnen. GANZ GENAU - soviel zum Thema Green IT

Hab schon gedacht, das dies keiner mehr vorschlägt.
Wer hat denn behauptet das man ein Netzteil nutzt ??! keine Ahnung - einer hat getippt - man müsste es erst erfinden.
Wieso muss man sich beim denken immer an die privaten VerbraucherWare begrenzen ? .. schlimm :)
GPU als CPU - da ist einiges machbar. Oder ein Testlabor - wenn die einzeln - oder als päärchen ansteuerbar sind. brauch man nicht 1000x umstecken .. nuja - wohl kaum ;)
 
@alex.s
Einziger wie einzig geht nicht.Muss heissen das "einzige"
ist wie beim tot , toter wie tot geht nicht , oder hast du schon mal was von am totesten gehört?

Gruß
 
Hat jemand eine Ahnung, wozu solch ein Stück Hardware denn eingesetzt wird?

Das wurde für spezielle Crysis pc´s entwickelt ! Jetzt kann man endlich 16 geforcegtx280 zusammenschliessen um dann mit einem Verbrauch von 3,2KW Crysis auf 1280x1024 "ultra high" flüssig darzustellen. ;)

mfg
 
nVidia könnte für solche anwendungen auch SingleSlot-Karten ohne Anschlüsse auf der Slotblende basteln. Dort wird dann nur ein Gitter angebracht, ähnlich en 2slot Karten. Dann nen dünner Kupfer-Lamellenkühler. mehrere Karten nebeneinander, einen 92mm Delta Lüfter davor, fertig wäre die HighPower-Lösung ;)
 
Am besten das Teil mit 16 Nvidia Geforce GTX 280 Grafikkarten bestücken, damit Crysis endlich einmal ruckelfrei läuft in Very High. :evillol:

Achja und 6-8 1000 Watt Netzteile dazu .... :D
 
Zuletzt bearbeitet:
bitte ein cb test mit okta-sli mit 16 4870x2 karten auf einmal. bestimmt hat crysis größer 100 fp/s was denkt ihr?

EDIT
oben@
lol fast die gleiche idee
 
HD4870X2 = 2 Tflop
2tflop mal 16 = 32 Teraflop!
(zumindestens Theoretisch)
problem ist nur das gpus nicht x86 fähig sind, deshalb kann man nicht einfach sagen: eine hd3850 ersetzt x cpu-kerne.
Larabee soll das x86 problem ja lösen, und hat laut ct ebenfalls grob geschätzt 2 teraflop.
mfg illegalz
PS: nvidia sagt ja immer gpu wird die cpu irgendwann ersetzten, intel behauptet das gegenteil, mit larabee vernichtet intel sich aber selber...

Edit: @chinamaschiene wie kommst du darauf? ich hab nur die hd4870x2 genommen, weil die glaube mehr rohleistung als eine gtx280 hat!
war nur ein bseispiel kannst von mir aus auch 16 geforce 8400gs nehmen...
und wie in meinser signatur steht benutze ich intel und amd insofern ist dein kommentar überflüssig
 
Zuletzt bearbeitet:
Der Larrabee wird unter anderem aus mehreren Pentium-Kernen bestehen. Das und noch einiges mehr zu Larrabee ist zu lesen in der aktuellen c't auf seite 42.
 
illegalz schrieb:
... mit larabee vernichtet intel sich aber selber...
Nö, mit Larrabee bringt Intel eine Manycore X86 CPU heraus die die aktuellen Grafikkarten und deren Bindung an bestimmte Schnittstellen überflüssig machen soll. CUDA-Programmierung soll ja nun nicht wirklich einfach C-Programmierung sein (auch wenn der Nvidia-Entwicklungs-Chef das behauptet), "Streams" und sowas sind jedenfalls glaube ich nichts, was in einem klassischen C-Lernbuch auftaucht. Larrabee ist aber als X86-Manycore (bzw. x87 - nehme ich mal für die FPUs an) genauso ansprechbar wie ein X86-Prozessor - man braucht nichts vergleichbares wie CUDA und ist demzufolge auch nicht an sowas gebunden, sondern nur an einen möglichst guten (auf x86 verfügbaren :D) C-Compiler, der Manycore-Optimierungen kennen wird.

Wenn die Leistung eines einzelnen Kerns von Larrabee-Nachfolger-X dann irgendwann für die Sachen, die sich nicht hochgradig parallelisieren lassen, ausreichen wird, kann die klassische CPU dann damit ersetzt werden.
 
Zuletzt bearbeitet:
Hier geht es weniger um Darstellung von Grafik als vielmehr um Parallelisierung von Rechenpower von 3D-Chips. Diese sind viel Leistungsfähiger als der heute schnellste Quad-Core. Anstatt Rechenoperationen durch "langsame" CPUs zu bremsen, schickt man die Daten direkt durch die Grafikkarten.

Bei Nvidia wäre das z.B. über CUDA angesprochen! Also sind Programme in C-Programmierung jederzeit möglich. Stelle ich mir sehr kosteneffiezient vor. In ein Serverraum wird beispielsweise ein Server mit sagen wir mindestens 2x Quad-core und daneben eine Art Backplane für Grafikkarten (diesen PCIe-Switch).

Von den 16 PCIe-Slots werden dann jewels mit hochperformen Grafikkarten vollgestopft. Ich würde da 4x 3 Grafikkarten (12!) und jeweils 4x 1 Controllerkarten (Fiber-Channel oder SAS) eingebaut werden. Um die Ergebnisse dann auch schnell genug über viele Hundert Kanäle in die Verteilerknoten im Rechenzentrum zu jagen. Daran angeschlossen wären dann bis zu 4x 128 Festplatten im NAS oder SAN (Art der Datenträger offen) - je nachdem was für eine Speicherlösung dahinter steht.

Um die Kühlung sollte man sich aber schon gedanken machen. Das entsprechende Gehäuse für diesen Switch müsste entsprechend abgekühlt werden, sonst gibt es Flächenbrand :lol:. Allerdings dürfte das leichter sein als ein ganzes Rechenzentrum mit mehreren Klimaelementen auszustatten.

Fazit:
Ich hoffe das hat jemand verstanden! Es geht hier nicht um eine "Spieleplattform" sondern eine Zusammenfügung von diversen Servern in einen einzigen Verbund mit dem Ziel: Maximale Rechenleistung. Spielen würde auf dieser Plattform keinen Sinn ergeben, da die heutige Software nicht wirklich gut mit SLI / Crossfire umgehen kann. Außerdem wäre der Stromverbrauch dafür zu ..... sagen wir überdimensioniert.
 
MoZ schrieb:
@alex.s
...hast du schon mal was von am totesten gehört?
Klar, das ist dann wenn untote sterben, die sind am totesten LOL :D:lol::evillol:
 
Habe nochmal darüber nachgedacht. Das Argument mit dem SAN stimmt vollkommen, das macht 16 Massenspeicher-Controller überflüssig. Ebenfalls stimme ich zu, dass eine Reihe von Netzwerkkarten im Vergleich zu einem vernünftigen Cisco-Switch nur bedingt sinnvoll wäre.

Für Blödsinn halte ich den ganzen Kram mit Grafikkarten. Da gibt es bessere Wege. Was würde denn z.B. gegen eine CPU-Erweiterungskarte sprechen? Gibt es sowas überhaupt noch? Vom Prinzip her wäre das einer Grafikkarte ähnlich, hätte aber durch einen anderen Befehlssatz ein ganz anderes Anwendungsfeld.

Und wie wäre es, wenn da 16 Fiberchannel-Karten drauf kämen? Damit könnte man z.B. ein SAN kontrollieren--
 
Nochmal: Um 16 Controller zu vershcalten brauchst du keine besionderen "Switches" und auch nicht die auf dem Bild deutlich zu erkennenden SLI-Steckmodule - du kannst bei jedem herkömmlichen Chipüsatz einfach den "Grafiksteckplatz" weglassen und die PCIe-Lanes auf 16 verteilen - ist üüberhaupt kein Problem, das irgendwas besonderes erfordern würde. Deswegen sind eure Argumente um Controllerkarten Humbug. Ich brauche auch keine 16 Controller, die als ein einziger gemeinsamer logischer Controller funktionieren, das ist totaler Quatsch.

Für diese Zusammenschaltung, die an diesem Board das besondere ist, ist sowas wie Nvidia Tesla der einzige sinnvolle Einsatzzweck.
 
Zurück
Oben