News Nvidia: Quadro GV100 mit Volta, 5.120 ALUs und 32 GB HBM2

Hannibal Smith schrieb:
Weil technisch nicht mehr ging bei HBM1

Das ist mir klar, aber es war ein extremes Limit für die damaligen Karten. Wie gesagt, ich vermute, dass man HBM eigentlich früher auf den Markt bringen wollte. 4GB waren damals einfach zu wenig. Zu wenig für Gamingkarten und viel zu wenig für Profikarten.

Hannibal Smith schrieb:
Was bei einer Gaming Karte durchaus sinn macht.

Welchen besonderen Sinn macht es? Ja es ist günstiger. Aber technisch bringt es keine echten Vorteile. Ganz im Gegenteil. Man ist noch immer deutlich teurer als GDDR5(x), man hat keine Vorteile in der Bandbreite und man ist wieder in der Größe limitiert. Mit zwei Stacks sind maximal 16GB möglich. Die Gamingkarten bieten sogar nur 8GB, obwohl sie in etwa die rechenleistung der 1080Ti besitzt. HBM bringt Vega außer höhere Kosten und eine geringere ausbeute nichts...


Die AMD Pro WX-Serie ist die Konkurrenz zu Quadro und die Instincts gegen Tesla oder ?
Ja, und? Ich verstehe nicht ganz was du mir damit sagen möchtest. Also ja, AMD hat ein Konkurrenzprodukt, das ist aber mehr ein Gegenspieler für die Tesla P100, also dem Voltavorgänger.

Volta hingegen ist doch ein gutes stück weiter als Vega. Eine GPU auf Augenhöhe von Volta hat AMD aktuell noch nicht im Programm. Und was das mit HBM zu tun hat verstehe ich auch nicht ganz.... Es bleibt dabei, dass AMD maximal 16GB mit nicht mal 500GB/s anbietet, dass schafft man allerdings auch günstiger mit GDDDR5X an einem 384 Bit Speicherinterface.

AMD hat eine Karte mit 4 Stacks und 32gb in Planung als Konkurrenz für die Volta.

AMD wird auch keine Vegakarte mit 32GB HBM2 bringen, da dafür ein komplett neuer Interposer nötig wäre. Vielleicht bei Vega Refresh in 7nm. Aber so ohne weiteres mit aktuellen vegakarten ist es nicht möglich. Da wird frühestens was kommen, wenn Vega refresht wird. Aber auch ansonsten mit 32GB ist Vega nicht wirklich eine Konkurrenz zu Volta. Da fehlt es massiv an Rechenleistung.
 
Vega FE ist nicht weit entfernt von Volta (FP16/FP32...)

Das wird auch sehr schwierig mit einem Konkurrenzprodukt zu Volta.
In Volta Steckt nicht nur HBM2 und der GV100 Chip, sondern noch die TPU's von Google, welche sicherlich mit zusätzlichen immensen Lizenzkosten daher kommen...

Es seidenn Google hat kein Patent auf die TPU's was komplett Schwachsinn wär und die TPU's somit Lizenzfrei wären....

Dementsprechend wird es wohl erst sehr Spät ein Konkurrenzprodukt für Volta geben von AMD.

Bis vor 2 Jahren war Geheim was in den Rechnern von Google Steckt bis sie die eigen Entwickelten TPU's öffentlich gemacht haben.
NV hat das ganze nun in GV100 gesteckt und AMD wird das Früher oder Später ebenso machen, nur ist NV und Google eben schon 3 Schritte Weiter als AMD.......
Und Intel springt auch auf den TPU Zug auf! ... Trotz FPGA! ...
 
Zuletzt bearbeitet:
-Ps-Y-cO- schrieb:
Vega FE ist nicht weit entfernt von Volta (FP16/FP32...)

Na ja, bei realistisch anliegenden Taktraten, bei Vega ca. 1500mhz im Mittel und bei Volta 1700mhz sind das schon 40% Unterschied. Das ist schon ein gutes Stück. Deutlicher wird es, wenn man mit den Taktraten mal die FP64 Performance anschaut, da ist Volta mehr als 11 mal so flott (0,77 Tflops bei Vega vs. 8,7 bei Volta).

Vega kann in gewissen Punkten mithalten bzw. liegt nicht so weit abgeschlagen, aber ein wirklich vergleichbares Produkt hat AMD aktuell leider nicht im Angebot. Für FP64 Berechnungen hat AMD aktuell noch die FirePro W9100 im Angebot. Die liefert aber auch nur etwa 1/ 3 der Rechenleistung.

Ich gehe davon aus, dass sich Google das gut bezahlen lässt. Aber genau der Aspekt macht Volta aktuell halt ziemlich interessant. Auch die Verbreitung von Cuda ist mittlerweile ein Argument, neben der reinen Hardware,

Ich bin gespannt, was AMD noch so bringt. Ich denke zumindest mit 7nm Vega wird eine 4 Stack Variante kommen, so dass man zumindest beim Speicher gleichziehen kann. Würde mich nicht wundern, wenn mit Navi dann auch wieder eine FP64 Starke Karte kommen wird, damit man endlich mal Hawaii ablösen kann
 
Hannibal Smith schrieb:
Hast du da was konkretes was man nachlesen kann ? :)

Ja ne ganze Menge. Ich meine Vega20, die Karte die nur auf Deep Learning etc ausgelegt sein soll und wohl die erste in 7nm sein wird.

Das wäre ein Link

Wenn man Vega20 googelt findet man aber noch sehr viel mehr. Ob die Karte jetzt wirklich so rauskommt weiß natürlich keiner.
 
Auf PCGamersN gab es auch vor einer Weile einen interessanten Artikel den ich in einem Thema auf CB schonmal verlinkt hatte.

Dabei ging es um den Polaris Vollausbau, sprich die fehlende 590. Allerdings arbeitet die wohl in der Xbox One X und ist leider (wohl Teil des Deals) exklusiv für Microsoft und deshalb nicht mehr im PC Markt erschienen. Die Karte hätte ich mir gewünscht. :/
Und ursprünglich war sie wohl auch auf den Roadmaps von AMD drauf.
 
Zuletzt bearbeitet:
Wenn die Daten von 3dCenter Stimmen ist der Vega 20 Chip aber Verdammt klein mit 300-350mm²
Aber AMD hat seit HD 3850 immer wieder mit (Teilweise!) massiv kleineren Chips NV überflügelt oder kam nahe an deren Leistung ran.

Und ja Stimmt. Eine RX 590 fehlt tatsächlich... Die 580 8GB macht aber Ihren Job auch richtig gut uns als Nächst größeres ist ja dann Vega 56 da.
Preislich (UVP!!) Liegen die beiden auch nicht weit voneinander Entfernt.

Und so bleibt die Hoffnung dass die Xbox One X noch eine ganze weile die Top Konsole bleibt (GPU Technisch)
 
ascer schrieb:
Nichts ja und - du hast die Problematik eben noch nicht verstanden.

Wenn du 2 GPUs mit 5 TFlops fp32 betreibst, dann ergibt das nur dann in der Realität <= 10 TFlops für deine Simulationen, wenn sich die Arbeitslast gleichmäßig auf beide GPUs verteilen lässt und du alle notwendigen Daten ausreichend verteilen und wieder einsammeln kannst.

Benötigen bestimmte Operationen schon vor dem Endergebnis Informationen aus dem ganzen Datensatz der aktuell bearbeitet wird, dann muss auch vor dem Endergebnis schon untereinander kommuniziert werden. D.h. VRAM1 <-> GPU1 <-> PCI-E <-> CPU/RAM <-> PCI-E <-> GPU2 <-> VRAM2.
Das wird natürlich umso schlimmer, wenn man mehr als nur 2 GPUs einsetzt. Das ist ja auch der ganze Punkt von NVLINK: da basteln die in einem DGX einen Interlink, wo jede GPU mit jeder GPU kommunizieren kann, ohne PCI-E / CPU / RAM Bottleneck.

Das typische Szenario ist ein map-reduce, wo man Datensatz D optimalerweise in D/2 aufteilt, dann das jeweils auf einer GPU berechnet und am Ende auf der CPU per reduce wieder zu einem Gesamtergebnis zusammenführt.
Wenn bei den Operationen nun viel mit dem VRAM kommuniziert werden muss, limitiert der stark, weil jede GPU ja nur 500 GB/s in deinem Beispiel hat, nicht fast das doppelte, wie die V100.


Das sind gänzlich unterschiedliche Probleme. NVLINK beseitigt das Problem, Daten schnell untereinander auszutauschen, besonders für Zwischenergebnisse. Schneller VRAM beseitigt das Bottleneck, dass Daten nicht schnell genug der GPU zur Verfügung gestellt werden können.

AMD hat hierfür die Infinity Fabrik und GPU Prozesses lassen sich immer sehr einfach auf zwei GPUs verteilen ansonsten würde man sie nämlich auf einer CPU laufen lassen.

Der Vorteil der GPU zur CPU ist das die Prozesse relativ unabhängig voneinander erst Mal bearbeitet werden könne und dann auch Recht einfach zusammengefügt werden können. Das braucht zwar Bandbreite aber auch nicht so massiv wie du es darstellst.

Du hast dann 5200 zu 8200 Shader. Die 3000 zusätzlichen Shader bei den 2 AMD Karten können Locker nebenbei das Ergebniss zusammensetzen.

Die zusätzlichen Leistung kann man auch erst einmal dazu nutzen das Matrizensystem umzustellen schon alleine das könnte Rechenzeit und Bandbreite sparen.
 
Zuletzt bearbeitet:
-Ps-Y-cO- schrieb:
Wenn die Daten von 3dCenter Stimmen ist der Vega 20 Chip aber Verdammt klein mit 300-350mm²
Aber AMD hat seit HD 3850 immer wieder mit (Teilweise!) massiv kleineren Chips NV überflügelt oder kam nahe an deren Leistung ran.

Und ja Stimmt. Eine RX 590 fehlt tatsächlich... Die 580 8GB macht aber Ihren Job auch richtig gut uns als Nächst größeres ist ja dann Vega 56 da.
Preislich (UVP!!) Liegen die beiden auch nicht weit voneinander Entfernt.

Und so bleibt die Hoffnung dass die Xbox One X noch eine ganze weile die Top Konsole bleibt (GPU Technisch)

AMD hatte früher meistens mittelgroße GPUs so um die 3000 - 350mm². und man hat dann die Leistungsspitze mit Dual GPU Grafikkarten abgebildet. (3870x2, 4870x2, HD5970, HD 6990 etc.). AMDs erster wirklich großer Chip war ja Fiji, Vega hingegen ist ja wieder ein gutes Stück geschrumpft. Schade, dass man die Dual GPU Technik ja halbwegs sterben lassen hat. Gerade heutzutage würde es durchaus Sinn machen, dann hätte AMD auch eine RX 495 mit zwei Polaris Chips gegen die 1070 / 1080 bringen können. Dann hätte man zumindest leistungstechnisch etwas gehabt und es wäre in der zeit nicht alle Oberklassekunden zu Nvidia gewechselt.

Ich glaube übrigend nicht, dass in der Xbox one X ein Vollausbau von Polaris steckt. Ich denke das wird ein spezieller Semil-Custom Chip sein. Alleine das große Speicherinterface spricht dagegen, dass es 1 zu 1 Polaris ist. Würde in der SoC Konfiguration auch wenig Sinn machen. AMD würde niemals bei allen Polariskarten das Speicherinterface so stark beschneiden.

Ich denke Polaris wird auch bei AMD abgeschrieben werden. Ich schätze mal auf absehbare Zeit wird eine Vegabasierte Ablösung kommen. Irgendwas in richtung 2560 Shader plus GDDR Speicherinterface. Vielleicht 256Bit GDDR5X.

Die Xbox One X wird so lange GPU Technisch die beste Konsole bleiben, bis sony eine PS5 auf den markt wirft ^^ Aber warum hoffst du, dass die Xbox One möglichst lange die beste bleibt? Es wäre eher Wünschenswert, wenn die entwicklung da nicht so lange stagniert.
 
AMD wird wohl irgendwann die selbe Technik wie bei Threadripper auch für große GPUs nutzen (Infinity Fabric). Es hat - wie man bei Threadripper und Epyc sieht - viele Kostenvorteile eine GPU so herzustellen, dabei aber vermutlich kaum einen Leistungsnachteil. Dazu eliminiert man die Probleme die man mit der Bandweite hat wenn man zwei Karten nur per PCI-E Daten tauschen lässt (auch NV-Link sollte davon Geschwindigkeitstechnisch weit übertroffen werden, nur bei der Skalierbarkeit nicht).
 
snickii schrieb:
Kauf mir dann lieber einen Kleinwagen.
Was sind das denn für Preise..


Diese Karten sind ja auch nicht für Privatpersonen, sondern richten sich an Professionelle Anwender. Die Quadros sind Nvidias Serie für Workstations. Die Lizenzkosten für Software und Herstellersupport sind da meistens teurer als die Hardware. Mit solchen karten verdienen die Besitzer in der Regel Geld ;)

Das dürfte mit einem Kleinwagen relativ schwierig sein. Solche Karten kommen bei großen Studios und in der Industrie zum Einsatz, Vereinzelt vielleicht auch bei Freelancern. Während dein Kleinwagen nur von tag zu Tag an Wert verliert und Geld kostet, verdienen die User mit diesen Karten Geld.
 
Zurück
Oben