News Nvidia: Dual-GPU-Karte mit 2 × GM200 kurz vor Präsentation

Hatte ich aber auch so im kopf das maximal 4gpu's genutzt werden können.
Andererseits möchte ich auf diesen octaSystem mal nen vernünftig skalierendes Spiel sehen;-)
 
Mehr als 2 Karten sind doch Mist, zumindest wenn man Spiele spielt, die eine schnelle Reaktion benötigen. Was bringt es, wenn 3 oder mehr Bilder mit den aktuellen Daten im Voraus berechnet werden? Ich sehe dann auch in der nahen Zukunft das Ergebnis meiner Handlung aus der Vergangenheit --> Input-Lag!
 
Luffy schrieb:
yeah! UNENDLICH HALFPRECISION POWER darauf habe ich schon immer gewartet, meine 16 Bit anwendungen werden rennen, ich bin gespannt wie teuer es sein wird.
Sollte dieses Modell wirklich im Vollausbau sein, dann mindestens 1.500 - 1.600 Euro mit 12 GB RAM. Unter diesen Preis es wohl kaum liegen. Maximal schätze ich so um 1.700 Euro.
 
Eigentlich interessant, wenn die Honks von NVIDIA nicht auch auf ihren Dual-GPU-Karten für Consumer die NUMA-Funktionalitäten deaktivieren würden. Das nehme ich NVIDIA fast so persönlich, wie dass sie auf Maxwell den L1-Cache entfernt haben.
 
@Nai

Un welcher Vorteil hätte NUMA? Was bringt es mir wenn der Fremdspeicher Zugriff "so lange" dauert, dass es anfängt zu ruckeln?
 
Was bringt es mir wenn der Fremdspeicher Zugriff "so lange" dauert, dass es anfängt zu ruckeln?
Komplexere Kommunikation zwischen zwei GPUs ist bei komplexerer Lastbalancierung (als SLI) immer nötig und auch schnell genug, dass das ganze prinzipiell in Echtzeit ablaufen kann. Der Vorteil bei NUMA ist, dass die Kommunikation sich damit oft viel schneller und eleganter gestalten lässt.

Ohne NUMA bilden die beiden GPUs einen Rechner mit verteiltem Speicher. Dadurch kann ein GPU-Thread nicht direkt auf den Speicher einer anderen GPU zugreifen. Wenn in einer Anwendung die beiden GPUs miteinander kommunizieren müssen, muss aus dem Grund die Anwendung die entsprechenden Kopierfunktionen der verwendeten GPGPU-API oder 3D-API verwenden. Durch die Kopierfunktionen ergeben sich m.E. vor allem folgende Nachteile:
-Die Programmierung mit Kopieroperationen ist in der Regel deutlich hässlicher als das einfache Dereferenzieren von Zeigern mit NUMA
-Diese Kopierfunktionen können auch nur von einem CPU-Thread und nicht von einem GPU-Thread aus gestartet werden. Dies ist kein Problem, wenn die Anwendung im voraus weiß welche Daten ein gegebenes Kernel von der anderen GPU benötigt, da sie hier einfach die Kopieroperation im voraus starten kann. So richtig hässlich wird das nur, wenn es erst zur Laufzeit des Kernels bekannt wird, welche Daten das Kernel von der anderen GPU benötigt. Denn in diesem Fall muss das Kernel mit der CPU kommunizieren, welche dann die Kopieroperation zwischen den GPUs startet. Durch den Umweg entsteht nicht nur eine erhöhte Latenz und ein deutlicher ein Overhead, sondern die Programmierung ist ebenfalls sehr hässlich.
-Die Kopieroperationen besitzen auch gegenüber den direkten Zugriff einen erhöhten Overhead, gerade wenn die zu kopierenden Daten verstreut im Speicher der anderen GPU stehen. Denn in diesem Fall muss die Anwendung entweder einen Kernel um die benötigten Daten zusammenzusammeln oder viele Kopieroperationen starten.
-Erschwerend kommt hinzu, dass NVIDIA auch den Kopiervorgang künstlich auf Consumer-GPUs verschlechtert, so dass er nicht direkt von GPU zur GPU abläuft (eigentlich praktisch da Dual-GPUs immer ihre PCIE-Bridge auf dem Board haben), sondern einen Umweg über die CPU nimmt.
 
eruanno schrieb:
Aha und wer munkelt das? Ist natürlich völliger Quatsch, aber den Kram musste ich trotzdem schon zu oft lesen.

So, habs gefunden, here we go: "Nehmen wir uns im gleichen Fall nun Call of Duty: World at War, benötigt unsere Benchmark-Szene auf Titan X satte 7,5 GByte an Hauptspeicher. Ist damit bewiesen, dass diese Speichermenge benötigt wird? Die Frage beantworten wir mit einem Nein! [...] Vergleichen wir die Aufnahmen der Speicherauslastung mit den Resultaten hier, dann stellt sich die Frage, ob Fury X nicht absolut überlastet in der Praxis ist. Ist sie aber nicht. Die Furie geht nur komplett anders mit dem vorhandenen Hauptspeicher um und kommt nicht in Zwänge. AMD erklärte uns, dass dies auch der hohen Bandbreite zu verdanken sei. Letzteres allein kann ein, aber nicht der einzige Punkt sein. Wir gehen davon aus, dass AMD das Verhalten clever über den Treiber mit beeinflussen kann."

Quelle

Wie gesagt, es ist nur eine Vermutung (man munkelt). Es muss nicht der Wirklichkeit entsprechen.

Übrigens, muss man das dann eigentlich gleich als "völliger Quatsch" hinstellen? Gewisse Leute sollten in Foren ihre Ausdrucksweise mal überdenken... danke.
 
Wird sicher wieder ein rießen Teil. Da sind wir mal auf die Partnermodelle gespannt, wenn es NV zulässt.
 
Guter Punkt mit den Partnermodellen. Die High-End GPUs sind ja seit einiger Zeit (eigentlich seit der Titan-Serie) quasi "closed source - don't touch the PCB". Ich würde für die 2xGM200 auch eher zum Handling wie bei der Titan X tendieren, denn zur 980Ti.
 
Keine direkten, allerdings gibt es in den letzten Wochen erstaunlich viele Berichte über Multi-GPU Systeme (eben auch 2 x GM200), hier der Jüngste.
 
Wolfgang schrieb:
Mitte Juni hat AMD angekündigt, eine Dual-GPU-Grafikkarte auf Basis zweier Fiji-GPUs und der neuen HBM-Speichertechnologie zu entwickeln, die noch dieses Jahr erscheinen soll. Nvidia will nach neuen Gerüchten AMD zuvorkommen: Mit einer doppelten Maxwell-Grafikkarte.

DAS ist jetzt wirklich mal was neues, Nvidia bringt nicht nur ne DUAL-GPU-Karte, sondern will auch gleichzeitig auf HBM umsteigen? Respekt!
Ergänzung ()

SavageSkull schrieb:
Die Frage bei dem Karten ist ja immer, was kann sie besser als zwei Single GPU Karten im SLI?



Einfache Antwort: nur einmal Platz verbrauchen (solange es keine SingleSlotKarten gibt)
 
Maschendraht schrieb:
DAS ist jetzt wirklich mal was neues, Nvidia bringt nicht nur ne DUAL-GPU-Karte, sondern will auch gleichzeitig auf HBM umsteigen? Respekt!

Du bist mir ja mal ein Troll. Liest Du jeden Satz dem Buchstaben nach und schaltest Dein Hirn aus?


Maschendraht schrieb:
Einfache Antwort: nur einmal Platz verbrauchen (solange es keine SingleSlotKarten gibt)

Das ist ein Argument. Dem stehen jedoch i.d.R. geringere Taktraten (ab Werk) und weniger OC-Potential gegenüber. Ich würde immer die aus Einzelkarten aufgebaute Lösung bevorzugen, sofern man denn den Platz auf dem Board und im Gehäuse hat.
 
Faust2011 schrieb:
Ironie ist nicht jedermanns Sache

Ich zitiere da mal deine Sig ^^

Ich hab nur auf eine Feststellung in losem Zusammenhang eine Beachtung zum Ausdruck gebracht. Darf ich das nicht? Wenn man was anderes schreiben will, muß man was anderes schreiben! Wenn man bei der AMD dieses Feature mit dem HBM-Speicher herausstellt, dann geht man doch bei einem direkten anschließenden Vergleich / Verweis davon aus, dass die Karte der Konkurrenz das Feature auch besitzt.

Ich bin schließlich nicht Doktor Allwissend und freue mich über jede Neuerung, die uns Kunden Vorteile verschafft. Und HBM-Speicher bei Nvidia zähle ich eindeutig zu Vorteilen im Vergleich zu dem bisherigen Speichertyp und dessen Anbindung, wenn sich die News dahingehend bewahrheiten sollte. Am Ende war es ja nur ein Seitenhieb des Redakteurs gegen Nvidia. Sowas machen zwar sonst nur Fanboys, aber der Redakteur kann ja durchaus im Besitz eines Faltblattes sein, das uns eine gewissen Vorfreude bereiten könnte. Weg vom lahmen DDR, hin zu flottem HBM!

Manche Leute sind ja total überrascht, wenn ein Satz nicht endet wie zuvor Hosenbund! Mir kann das aber nicht Klossmasse!
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Keine direkten, allerdings gibt es in den letzten Wochen erstaunlich viele Berichte über Multi-GPU Systeme (eben auch 2 x GM200), hier der Jüngste.

es wäre schon cool wenn man auch irgendwann was genaueres weiß, ansonsten nützt die News ja auhc gar nichts :D
 
ob die dabei wieder die DP-Leistung kastrieren werden? die letzte Graka von Nvidia mit ordentlich Bumms war die Titan Z - nicht wegen der zwei GPUs sondern wegen KeplerVollausbau x2.

Eine Maxwell hat heute noch maximal 206GFlops DP (Titan X) und hinkt dabei einer alten Titan hinterher, dass man noch 5 weiter Titan X einbauen könnte, eine alte Titan wäre immernoch stärker mit gut 1300GFlops DP. das ist total unverständlich.
 
Zuletzt bearbeitet:
Nur weil die nun 2 x den GM200 verbauen, wird sich an der DP-Performance nicht mehr als eine Verdoppelung der Performance eines Einzelchips zeigen.
 
Ich bin einmal gespannt, ob es Presse Sample geben wird und wir somit Testberichte sehen werden. Ein ganz wichtiger Faktor ist natürlich der Preis. Die Vernunft sagt, dass eine Dual-GPU etwas billiger sein sollte als 2 einzeln gekaufte GPU's. Ist halt wie immer: Abwarten und wir werden sehen was dabei heraus kommt. Die nächste Dual-GPU von NVidia wird sicher nicht vor 2017 kommen und somit darf man zumindest gespannt sein auch wenn ich kein Kunde von so etwas bin.
 
Naja, bei der Titan-Serie ist gar nichts mehr vernünftig und der Preis erst recht nicht :D Da gelten bei Nvidia andere Gesetze... leider scheinen sie damit Erfolg zu haben.
 
Zurück
Oben