News Nvidia DGX-2: NVSwitch verbindet 16 GV100-GPUs für 81.920 Shader

kilosp schrieb:
Und wenn man sich mal mit dem Thema beschäftigen würde, statt nur Überschriften zu lesen, würde man wissen, dass es wohl eher die Software ist die falsch rechnet.

wurde man mal den ganzen original Bericht lesen, anstatt andere dumm zu belehren wusste man das es an den GPUs liegt.

Hauptsache deinen Gott verteidigen
🤣🤣🤣
 
-Ps-Y-cO- schrieb:
Ich glaube Sie reden vom "Größten Chip" Weil die DIE-Size wohl diesmal Extrem groß wird (über 880mm²).

=>Nvidia spricht von „der weltweit größten GPU“.

Es sind x GPUs die mit einen solchen Switch Chip verbunden werden.
By RyZen ist das Protokoll bzw der Part bereits im CCX.
Würde NV also so eine Gaming Version bringen, wäre das auf einem Interposer dann 3 Chips.
(2 GPU + SWITCH)

Oder habe ich da was falsch verstanden ?

NV bezeichnet aber die 16 GPUs + dem Switch Chip (I/O) als „der weltweit größten GPU“. , wie AMD Epyc als 1 CPU (obwohl 4 Dies am Interposer) bezeichnet.
 
Zuletzt bearbeitet:
Was haben die Leute hier immer mit Ihrem Mining, dass ist ja schlimm. Kein Miner wird sich sowas kaufen. Warum sollte er auch? Man braucht die Bandbreite dort doch nicht. Da könnte sich ein interessierter Miner auch einfach 16 Titan V's kaufen. Wäre mir aber neu, dass die Titan da wesentlich besser ist. Für den Preis einer solcher karten bekommt man mehrere 1060s, 1070s oder auch polariskarten.
 
Ich finde es lustig, dass bei diesem Konstrukt ~5 € pro CUDA Core (aka Shader) fällig werden. Damit ist das Verhältnis € pro Shader ähnlich gut wie bei einer geforce 8800 GTX zu Release von vor 12 Jahren.......
 
biente schrieb:
Bringt was? in der Wissenschaft wohl genau 0, hatte sich nicht vor kurzem eine gpu Serie von NV bei Wissenschaftlichen Tests verrechnet
🤣🤣🤣
Jede CPU hat Bugs und Fehler, für die Patches oder Workaround her müssen. Und ich meine jetzt nicht unbedingt sowas wie Spectre und Meltdown, sondern einfache Rechenfehler. Warum sollte das bei GPUs anders sein?

Gut dass du vor Jahren nicht entschieden hast, dass CPUs nix bringen, weil Intels Pentium sich bei Excel verrechnet hat (nicht der erste, aber der erste Fehler, der etwas bekannter wurde). Da ist es doch wohl sinnvoller, Fehler per Software oder Microcode/Firmware zu fixen, anstatt zu erklären dass das ganze 0 bringt.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Ein echtes Schnäppchen bei den Eckdaten. Das Ding könnte auch locker das 3-fache kosten und wär immer noch hochattraktiv.

Das war auch das, worauf Huang bei der Show rauswollte:
Du bekommst mit Nvidia mehr Rechenleistung für weniger
Geld und weniger Folgekosten (Strom) als bei Intel oder AMD
CPU basierten Servern/Clustern.
Der geringere Platzverbrauch ist nett, auch wird wohl die
Wärementwicklung geringer und die Belüftung leiser sein.
 
Nai schrieb:
Ich finde es lustig, dass bei diesem Konstrukt ~5 € pro CUDA Core (aka Shader) fällig werden

Der Preis pro Euro ist bei dem Teil halt nicht der Sellingpoint, sondern die Gesamtleistung in einem so kompakten System und die Kommunikation untereinander. Zumal die Rechnung hier wenig Sinn macht, da du vom Gesamtsystempreis ausgehst, in dem ja neben den reinen GPUs noch einiges mehr verbaut ist.

Ich vergleiche ja auch nicht den Preis Pro Kern zwischen einem aktuellen gut ausgestatteten 4 Sockel Xeon Server und einem Pentium 4.

@borizb :

Zumal man die Betriebs und Folgekosten nicht vernachlässigen sollte. Gerade wenn man riesige Cluster betreiben möchte. Man spart durch die Größe ganz schön was. Rackspace kostet auch Geld, ganz zu schweigen vom Wartungs- und Kühlungsaufwand. Die Ersparnis hört nicht beim Stromverbrauch auf.
 
Zuletzt bearbeitet:
Erstmal danke für die Aufklärung bzgl. NV-Switch...also erstmal wieder leichtes Aufatmen!


-Ps-Y-cO- schrieb:
Wir nehmen das, was NV und AMD uns vor wirft.
Data-Center und AI/Computing ist die Zukunft von NV und AMD....
Sie Entwickeln für Diese! ... Alles was wir bekommen ist quasi "Hier, nimmt das... dass ihr auch was habt"

Das hatte Jim von AdoredTV auf Youtube auch Mitte letzten Jahres in einem seiner Videos gesagt...finde jetzt das Video natürlich nicht...hatte aber mit dem Entwicklungsstand des GPU-Marktes zu tun. Ich hoffe ich trete dir nicht zu nahe...ich glaube er ist hier sehr verpönt und als Aluhutträger geächtet, obwohl er in seinem letzten Video Computerbase als eine der letzten Bastionen des seriösen und aufrichtigen Tech-Journalismus bezeichnet hat. ( https://www.youtube.com/watch?v=WYvOhJsO71I bei 10:55 für diejenigen die sein Lob gegenüber CB interessiert)

Ich mag seine Videos sehr gerne, da er mit den meisten seiner "Prophezeihungen" direkt auf den Punkt trifft. Aber naja, das ist jetzt off Topic. Ich sehe das aber auch so. Wir sind jetzt auf das Nebenprodukt der Grakahersteller angewiesen.
 
Zuletzt bearbeitet:
FreedomOfSpeech schrieb:
But can it run Crysis?

Das hab ich mich auch gefragt. Es fehlen noch Gaming-Benchmarks, damit die Zocker hier entscheiden können, ob sich so eine dezente Anschaffung für sie lohnt.
 
Dieses Ding kostet fast 400.000€ Und Ihr Fragt euch ob man damit Crysis Spielen Kann oder "Minen" kann....
Das ist schon bissl Skuril.
Ist zwar nen Netter Joke btw usw. aber ... Irgendwie finde Ich's nich so Lustig ^^

Lustiger ist eher was man mit diesem Teil WIRKLICH machen kann ;)
 
Hallo @ all,

Also das ist wirklich eine dämliche Frage:

FreedomOfSpeech schrieb:
But can it run Crysis?

Heutzutage muß es natürlich heißen:

But can it run Kingdom Come Deliverance?

Also ich bezweifle das mal, mangels passender SLI-Profile.:evillol:
 
Computerbase, ich zahle euch ja Geld für Premiumzugang. Es wird Zeit, was daraus zu machen und Geld auszugeben. Besorgt euch das Teil und benchmarkt es. Ist OK, ihr dürft mal auf die Pauke hauen und mein Geld dafür verschwenden. Yolo style. :D
 
biente schrieb:
wurde man mal den ganzen original Bericht lesen, anstatt andere dumm zu belehren wusste man das es an den GPUs liegt.
🤣🤣🤣

Und würdest du auch nur den Hauch einer Ahnung von GPU-Programmierung besitzen würdest du nicht versuchen Leute zu beleidigen, die dieses Wissen besitzen. Da es keine reproduzierbaren(!) Tests gibt, ist derzeit die wahrscheinlichste Ursache ein Bug bei der Floating-Point Reduktion verursacht durch Dynamic Load Balancing. Denn anders als bei Integers ist es für Floating-Point nicht egal ob man A+(B+C) oder (A+B)+C berechnet.
 
Zuletzt bearbeitet:
Vorallem selbst für den Laien: gleiche Software + unterschiedliche Hardware= unterschiedliche Ergebnisse. Es wird bestimmt an der fehlerhaften Software liegen.
 
Faust2011 schrieb:
Haha, totaler Klassiker hier :rolleyes:

Wenn man die Frage ernst nimmt, dann lautet die Antwort: Nein! Ihr beiden könnt Euch ja mal das Datenblatt zum Vorgänger ansehen, der nvidia DGX-1. Na, was meint Ihr?

Also, Crysis wird darauf nicht laufen (und das nicht nur, weil auf der DGX-1 und DGX-2 ein Linux läuft), but it can run CUDA! :)

Also, wenn Linux drauf läuft, wird doch vmware fix auch drauf laufen, und wenn wmvare drauf geht, kannste dir ne Windows VM drauf bügeln, usw. usf.
 
UNRUHEHERD schrieb:
Bist du dir sicher? Soweit ich weiß war Gaming bis Ende 2017 ein Wachstumsmarkt und einer der wenigen Teile des PC-Segments, die kontinuierlich zulegen.

Overall legt er zu, ja.


UNRUHEHERD schrieb:
Zudem trägt der Gaming-Markt erheblich zum Betriebsergebnis von Nvidia bei. Die Margen sind allerdings, wie du auch sagst, im HPC sehr viel höher. Trotzdem wäre mir neu, dass der Gaming-Markt schrumpft.

Das ist der springende Punkt dabei. Mit dem Statement "Gaming ist tot" meinte ich (wie ja an den Ergebnissen von Pascal sieht), dass NVIDIA es sich leisten kann die Gamingsparte stiefmütterlich zu behandeln. Was für HPC entwickelt wird, kann mit Monaten oder mittlerweile gar Jahren Verzögerung dann mal irgendwie für Gaming umgesetzt werden, weil das grundsätzlich noch reicht um den Gamingmarkt entsprechend zu schröpfen.

Bei "Gaming ist tot" geht es primär ja um den Fokus, um die Innovation. Dahingehend hat NVIDIA bei Kepler schon Datacenter priorisiert, bei Pascal war es dann so weit, dass HPC auch beim Launch vorgezogen wird, dann explizit für HPC optimiert wird, dass eine Titan X primär Features bekommt, die für Workstations interessant sind usw. und seit Volta gibt es nicht mal mehr jede Generation ein Update für Gaming. Es wird nur noch für HPC entwickelt und mittlerweile ja sogar im Bereich von Jahren später erst für Gaming was gelaunched.

Das meint "Gaming ist tot". Es ist schlicht nicht mehr interessant für NVIDIA, weil die Margen im HPC-Markt viel größer sind, weil die Wachstumsraten im HPC-Markt viel größer sind (und auch rasend steigen) und vor allem, weil es für NVIDIA vollkommen ausreicht den Gaming-Markt mit dem zu bedienen, was 1-2 Jahre später aus der aktuellen Entwicklung abfällt.

Oder anders gesagt: sie verdienen auch so gut genug, warum sollten sie den Gamingmarkt also nicht links liegen lassen. Da wäre nicht viel mehr zu holen als derzeit.
 
-Ps-Y-cO- schrieb:
Dieses Ding kostet fast 400.000€ Und Ihr Fragt euch ob man damit Crysis Spielen Kann oder "Minen" kann....

Die Frage nach dem Mining finde ich nicht skurril, besonders nicht, wenn es gewerblich betrieben wird.
 
@HerrRossi

Doch eigentlich schon, wenn man sich auch nur minimal mit dem Thema beschäftigt hat.... Man muss sich nur mal ausrechnen, wie viele klassische Miningkarten man für das Geld bekommt. Nach aktuellem geizhals Stand beispielsweise 1481 GTX 1060 - 6GB, sprich eine Tesla V100 müsste ca. die 92 fache Miningleitung einer 1060 haben
 
Zuletzt bearbeitet:
Also wenns um DP geht, da sprechen wir doch vom Faktor 50. Jetzt ist nur die Frage, welcher Coin ist rentabel und setzt auf DP...
 
Shoryuken94 schrieb:
Nach aktuellem geizhals Stand beispielsweise 1481 GTX 1060 - 6GB, sprich eine Tesla V100 müsste ca. die 92 fache Miningleitung einer 1060 haben
Du darfst allerdings nicht die restlichen Kosten für Hardware (MB, CPU, RAM, PSU, HDD/SSD, Rig) vergessen, da kommt bei diesen Mengen schon noch einiges dazu.
 
Zurück
Oben