News Samsung: GDDR6 mit 2 GB und 18 Gbps für GPUs geht in Serie

Manche Leute haben hier echt Träume da fasst man sich an den Kopf.

Sollte Nvidia Volta tatsächlich im Sommer rausbringen wird der Chip richtig viel kosten denn Konkurrenz gibt es keine. VEGA ist nur noch ein Nischenprodukt und die 580er schon weit abgeschlagen hinter der 1070er.

Bei Nvidia würde es locker reichen, wenn man einfach die 1070 Ti und 1080 Ti umlabelt und als 1170 oder 2070 bzw. 1180 oder 2080 verkauft und die GDDR 6 einfach für die Titan nimmt.

Ich wäre mir nicht so sicher, dass Volta im Sommer raus kommt warum sollte Nvidia das tun? Konkurrenz gibt es keine.

Aus Sicht von Nvidia kann man sich also ganz entspannt zurücklehnen und abwarten was AMD macht. Danach kann man immer noch reagieren.
 
SaschaHa schrieb:
Vllt. weil die GTX 1080 bei 157 Watt Realverbrauch die gleiche Performance erreicht wie die Vega 64 bei 300 Watt, und das trotz 16 nm statt 14?

???
du meinst wohl den realverbrauch der 1080ti von 60 watt über pcie only durch undervolt und gleichzeitigen 2400mhz core gegen vega oc crossfire mit 2240 watt bei gleicher performance :freak:. /s

natürlich braucht ne 1080 weniger, ist auch n mittelklasse chip :freak: und ne 1080 hat nicht die leistung von vega, die 1080 erreicht lediglich die selben fps in einigen spielen. die hardware von vega ist auf titan niveau oder sogar drüber, und die titan verbraucht auch nicht nur 150w. es ist ganz natürlich, dass die big chips mehr brauchen - bei vega kommt noch der 14nm lpp prozess oben drauf, der im oberen taktbereich strom frisst wie hölle.

das problem ist, dass nvidia dank ausführlicher softwareoptimierung (spiele) mit wesentlich weniger gpu-leistung auskommt und reine gaming gpus baut, während vega n haufen leistung durch software/schlechte auslastung und "one for all" architektur verliert.

man muss sich nur mal anschauen mit welcher gimphardware die konsolen ausgestattet sind und die spiele sehen trotzdem "ok" aus und laufen akzeptabel. selbes hardwarelevel auf dem pc dürfte in den meisten spielen nicht ansatzweise so eine performance erreichen.

zudem war der schritt von maxwell auf pascal leistungsmäßig eine genieleistung - man kann von amd nicht erwarten auch die >70% leistungsplus zum vorgänger zu schaffen - nicht mit dem budget. und ich hab so meine zweifel, ob das selbst nvidia nochmal schafft.
und wenn amd für die selbe leistung immer eine hardwareklasse drüber kämpfen muss, sprich low end vs midrange und midrange vs high end, kann amd nicht effizienter sein, weil mit potenterer hardware in der selben generation auch immer der stromverbrauch steigt.

wäre nvidias pascal nicht so gut gelungen, sondern nur mittelmäßig (+40% statt +>70%) würde die rx580 der 1070 zusetzen, fury säße zwischen 1070 und 1080 und vega hätte pascal dann relativ comfortabel geschlagen.

man kann nicht immer nur mit dem finger auf amd zeigen und sagen "du bist kacke" - mehr konkurrenz bekommen wir nicht und amd hat vega bestimmt nicht "extra schlecht" gemacht.

der status von heute war eine entwicklung der letzten 10 jahre. da braucht man sich heute nicht entrüsten und wundern und echauffieren, warum das jetzt so ist.
 
Zuletzt bearbeitet:
duskstalker schrieb:
natürlich braucht ne 1080 weniger, ist auch n mittelklasse chip :freak:

Das hängt aber sehr stark von der Betrachtungsweise ab. Rein auf Gaming-/Desktop-PCs bezogen ist die 1080 ganz sicher (Leistung und auch Preis) kein Mittelklasse-Chip sondern High-End. Es gibt als einzig sinnvolles Upgrade für Anwender aus dem Feld ja auch nur noch die 1080 Ti dadrüber.


duskstalker schrieb:
ne 1080 hat nicht die leistung von vega, die 1080 erreicht lediglich die selben fps in einigen spielen. die hardware von vega ist auf titan niveau oder sogar drüber, und die titan verbraucht auch nicht nur 150w.

Das ist so aber nicht korrekt. Die 1080 ist in den meisten Spielen ähnlich schnell und in manchen sogar leicht flotter.

Das Leistungsniveau (theoretische Rechenleistung) - gerade für GPGPU-Anwendungen - von der Vega 64 ist im Übrigen über einer Titan X. Das liegt vor allem an den knapp 13 TFLOPs fp32 und dem HBM2 Speicher. Da kann sich, rein die GPU betrachtet, eine Vega 64 schon fast mit einer Titan V vergleichen.

Hier gibt es aber auch wieder ein großes Problem: Software.
Volta wurde ja (TensorCores & Co) extra für GPGPU-Anwendungen, ganz speziell Machine Learning / Deep Learning entwickelt. NVIDIA bietet dafür auch sehr viele Libraries die hochoptimiert sind und sehr viel aus ihren GPUs an Rechenleistung herausholen.
Bei AMD wartet man selbst für den größten Vertreter aus der Branche - TensorFlow von Google - seit Jahren vergeblich auf eine stabile Version die zuverlässig auf AMD-Chips läuft. Und dort, wo AMD mit ROCm & Co und Fuß gefasst hat im professionellen Segment liegt der reale Leistungsoutput - besonders in Betracht der Rohleistung - häufig sehr weit hinter CUDA und den dazugehörigen Libraries zurück.

Liegt natürlich daran, dass NVIDIA (1) mehr Leute hat die an der Software arbeiten und (2) CUDA seit Jahren professionell im Einsatz ist und stetig weiterentwickelt wird und AMD erst jetzt mit Vega wirklich in dieses Segment (softwaretechnisch) vorstößt. Viele Lösungen haben da noch eher "Beta-Status".

Wenn man aber eines der raren Szenarien hat, wo die Software auch nur annähernd so effizient läuft wie bei NVIDIA, dann hat eine Vega 64 durch ihre brachiale Rohleistung schon genug Power um einer Titan X davonzulaufen. Passiert nur in der Realität so gut wie nie, wegen Software.


duskstalker schrieb:
zudem war der schritt von maxwell auf pascal leistungsmäßig eine genieleistung - man kann von amd nicht erwarten auch die >70% leistungsplus zum vorgänger zu schaffen - nicht mit dem budget. und ich hab so meine zweifel, ob das selbst nvidia nochmal schafft.

Das hat NVIDIA doch schon mit Volta.
Das neue CUDA9 (+libs) läuft mit den großen libraries - z.B. TensorFlow - im Bereich machine learning bei mir (hab schon mehrere AI-Simulationen damit gebencht) im Schnitt immer so 20-30% flotter auf einer Titan X - also auf Pascal. Da hat NVIDIA noch mal sehr viel per Software geregelt.
Darüberhinaus wurde Volta doch sowieso exklusiv (TensorCores, ...) für diesen Markt optimiert und Gaming abgeschrieben. Deshalb kommen die Gaming-Chips jetzt ja auch immer deutlich später: "Datacenter first" (Jensen Huang, NVIDIA CEO).
Ist auch verständlich, bei den Margen und vor allem bei dem Wachstumspotenzial in dem Bereich (um ein Vielfaches höher als im Gamingmarkt).

Nichtsdestoweniger hat NVIDIA es mit Volta in dem neuen Primärmarkt GPGPU - speziell machine learning - ja schon geschafft. CUDA9 holt nochmal deutlich mehr Leistung raus ab Pascal und die TensorCores bei Volta bieten für bestimmte Szenarien im Peak fast ZEHN MAL so viel Leistung wie Pascal. In den meisten realen Tests die ich gesehen habe, schrumpfen die zahlreichen Volta-Optimierungen zwar sehr stark zusammen, aber zumindest sowas wie +50% bleiben am Ende immer mindestens übrig. Das ist definitiv erneut ein sehr großer Schritt.

Ob NVIDIA das mit Ampere auch im Gaming schafft ist natürlich zu bezweifeln, weil (1) Gaming NVIDIA ja nicht mehr sehr interessiert und (2) Volta deshalb so viel schneller ist, weil NVIDIA sehr viele Ressourcen in CUDA und in die Architektur - speziell die TensorCores - gesteckt hat.
Und keine dieser Neuerungen sind für Gaming auch nur im entferntesten Sinne nützlich.

Letztendlich müssen sie das ja aber auch nicht mehr. Gaming ist nicht mehr der Wachstumsmarkt. Deshalb hat sich NVIDIA ja auch schon umpositioniert.
Das ist imho auch das größte Problem von AMD. Mangels Ressourcen haben sie es gerade im Bereich GPGPU schwer, wo man eben noch viel mehr investieren muss als in Gamingtreiber. Und gerade da lauert jetzt ja die große Marge und vor allem die gigantischen Wachstumszahlen.
 
Zuletzt bearbeitet:
Wie muss man "in Serie gehen" verstehen?

Produziert Samsung auf Halde, sie können bestellt werden, die Produktionsanlagen sind umgestellt und warten auf Bestellungen oder sie liefert schon an die Grafikkartenhersteller aus?
 
Wattwanderer schrieb:
Wie muss man "in Serie gehen" verstehen?

Produziert Samsung auf Halde, sie können bestellt werden, die Produktionsanlagen sind umgestellt und warten auf Bestellungen oder sie liefert schon an die Grafikkartenhersteller aus?

Es wird in Massenproduktion produziert und das macht man kaum auf Halde. Dabei muss man aber bedenken, dass die Produktion etwa 2 Monate dauert. Im März dürfte der Ram also von Samsung ausgeliefert werden. Dann noch 6-8 Wochen für Produktion der Karten und Verteilung dieser an Distributoren. Dementsprechend sollte man GDDR6 GPUs im Mai erwarten.
 
Zurück
Oben