News Nvidia Maximus lässt Tesla und Quadro zusammenarbeiten

Jetzt nur noch Desktop Grafikkarten abschalten mit der Optimus Technologie und die HD 3000 in den Intel CPUs hat sogar einen Sinn.

Auf jeden Fall geht NV beharrlich seinen Weg in Sachen GPGPU. Immer wieder erstaunlich was sich NV alles einfallen lässt. AMD und Intel sind weit abgeschlagen. Intel noch weiter als AMD.
 
Echtzeit Fluidiksimulation *sabber*

Naja, werden die wenigsten gebrauchen können ... wen ich Teile kriege ist das Design/ Strak schon fertig ... aber interessant wäre es schon.

Wäre geil zusehen wie der Abteilungsleiter den Kaffee über den Tisch prustet wenn er die Betriebsmittelauslösung sehen würde :D .. n' schnapper wird das net!
 
@impressive
wie war das... wenn man keine Ahnung hat...^^ selten so ein Quatsch gelesen :D

Aber kostengünstiger wirds dann schon, da man sich ein zweites system sparen kann und somit werden auch die Anschaffungskosten geringer ;)
 
an sich ne coole sache

aber wenn der treiber so gut läuft wie mein optimus treiber
dann gute nacht
 
Bauen beide Technologien nicht auf der selben "Architektur" auf (z.B. GF110)? Oder stellt Nvidia da wirklich extra speziallisierte Chips für jeden Aufgabenbereich her?


So wie ich das verstanden habe, wird die selbe Hardware zum Einen für das Rendering (Bildausgabe ähnlich wie bei normalen Grafikkarten nur mit angepassteren Treibern) und zum Anderen für massiv parallelisierbare Aufgaben (ähnlich wie Cuda?) verwendet.


Nun werden die Treiber für die Quadro Karten und der Tesla Karten zu einem Treiber "verschmolzen", sodass die Karten, wie im Desktopbereich, sowohl für die Bildausgabe (Rendering), als auch die Berechnung von beispielsweise der Physik zuständig sind. Habe ich das Richtig verstanden?
Wenn ja, was wäre daran jetzt SO besonders, denn die Desktopkarten können schon seit Jahren (ich glaube seit der 8000er Serie) beide Berechnungen simultan auf einer GPU ausführen.
 
Schöne Sache, hoffe das klappt besser als Optimus. Ich kann immer noch kein L.A. Noire zocken :(
 
@And.!
nunja, bei massiv Parallelen Berechnungen kommen oft Matrixmultiplikationen zum einsatz (bspw. im HPC-Bereich oder eben diesen Fluidiksimulationen). Diese sind auf ein hohes Mass an Genauigkeit angewiesen, will heissen, möglichst alle Berechnungen sollten in DP (Double Precision, 64Bit) ausgeführt werden. Diess Einheiten sind auf den GEforce-Karten ziemlich kastriert, machmal bis auf 1/16el der ursprünglichen Anzahl.

Tesla hat glaube ich ein SP/DP-Verhältnis von 1:2 (also halb soviele 64Bit FLOPS wie 32BIt FLOPS ->FLOP = floating Point operation per second)
bei den Quadros ist deise Verhältnis 1:4? ich weiss die genauen zahlen nicht...
Desktop aka GEforce 1:8 bis 1:16.

Ausserdem sind eben die Treiber bei den Teslas ncht auf Rasterization und Bildberechnung Optimiert, sondern auf GPGPU.

Logischerweise könnte man oben erwähnte Aufgaben auch auf einer oder 2 einzlenen GEforce-Karten Druchführen, nur werden die Ergebnisse unbrauchbar (Da nicht genügende Genauigkeit) und zusätzlich ist die Geschwindigkeit besch...eiden (Da 1. unoptimierte Treiber und 2. Viel weniger DP-ALUs).

Was NVidia hier anbietet ist in erster Linie ein Tool, das den Entwicklern nützt, in dem es Ihnen die Zuteilung und das Threadmanagement bei der Kombination einer Tesla und einer Quadro abnimmt. Bringt dem Endkunden direkt nix, aber je Einfacher und intuitiver die Parallele Programmierung für GPUs wird, desto eher wird sich ein Entwickler mal damit beschäftigen und sein Programm dafür optimieren. Dies ist der eigentliche Vorteil dieser Treibergschichte aka Maximus.

Zum Vergleich mit AMD: NVidia stellt im Beriech GPGPU definitv Referenzen auf. Sie haben erkannt, dass in erster Linie eine Sinnvolle und Zweckmässige Softwareentwicklungsumgebung vorhanden sein muss, damit sich GPGPU für die Entwickler lohnt. und nur wenn die Entwickler einen Mehrwert sehen, werden sie ihre Programm dafür Optimieren. Leider ist AMD wie erwähnt davon noch weit entfernt. Die Hardware ist bei beiden Herstellern vorhanden und gut (Ok ECC fehlt bei AMD), aber bei OpenCL vs CUDA geht einduetig letzteres als Sieger hervor. Ich bin zwar definitv kein Freund von geschlossenen Systemen, aber ich komme nicht umhin, Nvidia in diesem Bereich Respekt zu zollen. Sie haben Gute Hardware, Gute Tools und sie unterstützen die Entwickler bei Fragen und mit Finanzmitteln. Von AMD weiss ich, dass sie Gute Hardware haben (werden, GCN steht in den Startlöchern inkl. ECC und GPGPU Optimierung). Gute Software (Open CL) kann ich nicht beurteilen, Tools auch nicht, und Support ist auch weniger asugeprägt als bei Nvidia.

Alles in Allem wäre ein offenes System für beide hersteller udn Etwas Konkurrenz zu Nvidia von seiten AMD zu begrüssen.

mfg memory_stick (sry für etwas OT)
 
Zurück
Oben