News Grafikspeicher: Auch Samsung wird GDDR6 mit 16 Gbit/s zur CES 2018 zeigen

Dabei seit
Mai 2003
Beiträge
815
#1
Dabei seit
Okt. 2011
Beiträge
1.814
#2
Bin gespannt ob das HBM2 irrelevant macht. Ich denke mal das wird eher der Massenspeicher für den Großteil der Karten in Zukunft werden.
 
Dabei seit
Mai 2014
Beiträge
200
#3
Ich glaube nicht das AMD auf GDDR6 bei den Flagship setzten wird. Ich denke die wollen HBM weiter ausbauen. Wenn 2018 noch PCIE 4 kommt mit GDDR6 dann könnte das ein interessantes Jahr werden. Eventuell mit 2080TI oder VEGA 2. Wobei die nächste Vega vermutlich erst 2019 kommt.
 

Hejo

Lieutenant
Dabei seit
Jan. 2012
Beiträge
668
#4
Könnte man fast meinen wenn man es so liest aber ich denke HBM hat auch seine Daseinsberechtigung dort wo es um Platz geht wie z.B. in APU´s.

GDDR6 mit QDR wäre eine feine Sache, dann wären über 1000 GB/sec drin.
 

Nitschi66

Kreisklassenmeister
Dabei seit
Nov. 2007
Beiträge
7.920
#5
Zitat von Floppy5885:
Ich glaube nicht das AMD auf GDDR6 bei den Flagship setzten wird
Vega 11 ist ja auch der Nachfolger von Polaris und damit Midrange. Vom High-End chip wird in der News nicht gesprochen.

Zitat von Steini1990:
Bin gespannt ob das HBM2 irrelevant macht. Ich denke mal das wird eher der Massenspeicher für den Großteil der Karten in Zukunft werden.
1. Nein, dafür ist die Ersparnis des Platzes und die potentielle Stromersparnis bei HBM2 einfach zu groß.
2. Ja, der Massenspeicher wird auf absehbare Zeit 3-4 Jahre sicherlich noch GDDR bleiben.
 
Dabei seit
Okt. 2011
Beiträge
27.303
#6

Limit

Lieutenant
Ersteller dieses Themas
Dabei seit
Mai 2003
Beiträge
815
#7
Könnte man fast meinen wenn man es so liest aber ich denke HBM hat auch seine Daseinsberechtigung dort wo es um Platz geht wie z.B. in APU´s.
HBM hat noch ein paar Vorteile. Einerseits dürfte das SI weiterhin weniger Platz auf dem Chip einnehmen als bei GDDR. Auch sollte es weniger Energie brauchen, schließlich läuft es mit weniger Takt und Spannung. Dem gegenüber stehen höhere Kosten für den Speicher und den Interposer.

GDDR6 mit QDR wäre eine feine Sache, dann wären über 1000 GB/sec drin.
Die Spezifikation überlässt es den Herstellern DDR oder QDR zu nutzen. Einen Unterschied bei der Bandbreite soll das aber nicht machen, denn im Fall von DDR ist die doppelte Taktfrequenz für Datentransfers vorgesehen.
 
Dabei seit
Nov. 2004
Beiträge
1.146
#9

dgschrei

Lt. Commander
Dabei seit
März 2009
Beiträge
1.587
#10
1. Nein, dafür ist die Ersparnis des Platzes und die potentielle Stromersparnis bei HBM2 einfach zu groß.
Der Platz ist praktisch komplett irrelevant und teilweise ist das sogar eher ein Problem. >90% der Karten sind Fullsize und wie die ganzen ITX-Varianten der Nvidia Karten immer beweisen, lässt sich auch mit konventioneller Architektur eine kleine Karte bauen.

Das einzige Szenario in dem die Platzeinsparung wirklich was bringen würde, wären Notebooks. Nur dass jede GPU die schnell genug wäre um überhaupt auf HBM angewiesen zu sein, wieder so viel Abwärme produziert, dass die Ultrakompaktbauweise allein deshalb schon wieder nicht möglich ist.

Und auf normalen Karten ist der gesparte Platz dann auch noch eher ein Problem. Bei GDDR verteilt sich die Abwärme über die Karte und wird dementsprechend in den ganzen Kühler abgegeben. Bei HBM wird die Abwärme des Speichers direkt neben dem Die der GPU ins Heatsink abgegeben. Das macht es noch schwieriger und teurer die Karte zu kühlen, weil man noch mehr und noch bessere Heatpipes braucht und das ist sicherlich auch einer der Gründe, warum die Vega Referenzkühler so eine Lautstärke entwickeln.

Und den Nachweis, dass HBM tatsächlich in Effizienz GDDR um Längen überlegen ist, sind uns bisher sowohl AMD als auch Nvidia schuldig geblieben (Die Teslas sind schließlich auch kein Wunderwerk an Effizienz. Die P100 hat 3584 Shader und 250W TDP. Absolut identisch zur 1080 Ti).

Ich wäre dementsprechend nicht überrascht, wenn der HBM bei der nächsten Generation der Teslas wieder verschwunden wäre und Nvidia dann auf GDDR6 setzt.
 
Dabei seit
Apr. 2007
Beiträge
8.260
#11
@CB
Könntent ihr die Eckpunkte in eine Tabelle zusammenfassen? Das fände ich sehr cool, so ist es schwer da die Werte zu vergleichen.
 
Dabei seit
Feb. 2007
Beiträge
19.134
#12
Es geht um den Platz des SI auf dem Die. Ist aber bei 384 und 512 Bit dennoch sehr klein. Das ging schon bei der 2900 XT mit 512 bit, hat damals aber sicher 20% des Die ausgemacht. Heute dürften es max 10 oder eher weniger sein.

Ob HBM2 wirklich so viel sparsamer ist... Dachte da gab's mal ne Grafik die zeigte dass mit mehr Bandbreite der Verbrauch auch deutlich ansteigt pro Stack. Vega könnte man jetzt nicht grad behaupten dass HBM2 den Unterschied bei Effizienz und Chipgröße macht.

Nvidia dürfte mit GDDR6 weiterhin auf 256/384Bit für Consumer Produkte setzen. Is einfach noch rentabler.

Tesla wird HBM behalten. Da hat man ja auch 4Stacks oder vllt gar mehr in der nächsten Stufe. Das ist nochmal ne Ecke mehr Bandbreite als GDDR6.
 

Beitrag

Rear Admiral
Dabei seit
Nov. 2011
Beiträge
5.309
#13
Wäre es eigentlich mit Intels neuer Technik, die sie ja bei den Mobile-CPUs mit Vega-GPU nutzen wollen, möglich, ohne großen Leistungsverlust den Interposer für HBM wegfallen zu lassen? Damit würde HBM ja wesentlich günstiger werden. Ansonsten denke ich wird sich GDDR6 durchsetzen.
 

Limit

Lieutenant
Ersteller dieses Themas
Dabei seit
Mai 2003
Beiträge
815
#14
vega 11 hat doch schon einen hbm2 stack gezeigt, ich glaube, vega 11 bleibt bei hbm2.
Die Gerüchte gehen dahin, dass AMD Vega 11 früher mal mit HBM2 geplant hatte, dann aber aus Kosten- und Verfügbarkeitsgründen auf GDDR umgeschwenkt ist. Das würde auch erklären, warum Vega 11 bisher noch nicht erschienen ist. Wäre Vega 11 einfach nur ein kleinerer Vega 10 müsste der Chip eigentlich schon draußen sein oder zumindest für das Weihnachtsgeschäft bereits angekündigt. Polaris 10 und 11 kamen ja auch relativ kurz nacheinander.

Es geht um den Platz des SI auf dem Die. Ist aber bei 384 und 512 Bit dennoch sehr klein. Das ging schon bei der 2900 XT mit 512 bit, hat damals aber sicher 20% des Die ausgemacht. Heute dürften es max 10 oder eher weniger sein.
Grundsätzlich richtig, allerdings gehört das SI zu den Blöcken auf dem Chip die nicht beliebig verkleinert werden können, da viele I/O Pins gebraucht werden. HBM hat zwar noch mehr Pins, diese werden aber per TSV über den ganzen Chip verteilt.

Ob HBM2 wirklich so viel sparsamer ist... Dachte da gab's mal ne Grafik die zeigte dass mit mehr Bandbreite der Verbrauch auch deutlich ansteigt pro Stack. Vega könnte man jetzt nicht grad behaupten dass HBM2 den Unterschied bei Effizienz und Chipgröße macht.
Wieviel HBM im Vergleich zu GDDR bringt kann man ohne einen Chip, der bis auf das SI identisch ist nur schwer sagen, denn der Einfluss des Speichers auf Gesamtleistung und -verbrauch ist dafür zu gering.

Nvidia dürfte mit GDDR6 weiterhin auf 256/384Bit für Consumer Produkte setzen. Is einfach noch rentabler.
Da stimme ich voll und ganz zu und auch bei AMD vermute ich, dass alle Chips bis auf das High-End Modell bei GDDR bleiben werden, zumindest in der aktuellen Generation (HBM2, GDDR5X/6).

Tesla wird HBM behalten. Da hat man ja auch 4Stacks oder vllt gar mehr in der nächsten Stufe. Das ist nochmal ne Ecke mehr Bandbreite als GDDR6.
Naja, GDDR6 am 512-Bit SI schaffen 1024GB/s und damit genau so viel wie HBM2 mit 4 Stacks. Bei den großen Chips dürfte aber die Größe des SI auf dem Chip und der Stromverbrauch eine bedeutendere Rolle spielen.
 

estros

Vice Admiral
Dabei seit
Sep. 2009
Beiträge
6.236
#15
Ich dachte, mit HBM3 wird die Technik ohnehin stromfressender und daher nur etwas für Server.

Es war jedenfalls die richtige Entscheidung von NVIDIA bei Pascal hauptsächlich auch GDDR5(X) zu setzen. Der deutlich schnellere Nachfolger macht hier nur Sinn.
 
Dabei seit
Juni 2005
Beiträge
3.002
#16
Erhellend die Zahlen in Relation zu sehen.

16GBIT/s dürfte auf 16GByte/s oder 32GByte/s je nach Zahl parallel verbauter Bausteine hinauslaufen?

Erst da wird einem klar wie schnell NVME SSDs sind. 10 Stück davon in RAID 0 laufen diesen RAMs in Sachen Übertragungsrate davon...
 
Dabei seit
Juni 2016
Beiträge
4.298
#17
Bin gespannt wie viel VRAM auf die Grakas gepflanzt werden.

Gibt es schon Games die wirklich mehr als 8GB Vram benötigen?

Bei der vorherigen Generation wars ja so, dass das Top Modell (980 ti) mit 6gb Vram in manchen Games, in höheren Auflösungen, bereits vollgelaufen ist (ROTTR z.B.)
Gibt es nun Fälle wo man mit 8gb zu wenig hat?

Hatte nie über 6gb Vram belegt bei mir @ 1440p mit Ultra/AA etc. Vielleicht spiele ich halt einfach die "falschen" Games, deshalb hier die Frage.

Zusatz: Die Quake Arena Beta hat alles belegt gehabt, aber das tat das Game bei jedem System, egal ob 4 6 8 oder 11gb. ^^
 

v_ossi

Lt. Commander
Dabei seit
Juni 2011
Beiträge
2.045
#19
[...]Und den Nachweis, dass HBM tatsächlich in Effizienz GDDR um Längen überlegen ist, sind uns bisher sowohl AMD als auch Nvidia schuldig geblieben (Die Teslas sind schließlich auch kein Wunderwerk an Effizienz. Die P100 hat 3584 Shader und 250W TDP. Absolut identisch zur 1080 Ti). [...]
In erster Linie würde ich hier darauf 'vertrauen', dass eine Heerschar von Ingenieuren bei NVidia und AMD/RTG mit Zugang zu den genauen Daten von den Speicherherstellern und den Simulationstools für die eigenen GPUs keinen so gravierenden Fehler macht und 'den falschen' Speicher verbaut.

Und vlt. sind die Teslas ja ein 'Wunderwerk an Effizienz'. Gibt es Benchmarks, in denen die HBM Teslas gegen eine Consumer 1080Ti antreten? (Keine Spiele Benchmarks, darauf sind sie schließlich nicht ausgelegt)
Vlt. haben die Teslas ja auf der GPU Seite mehr Spielraum, weil der Speicher weniger Strom verbraucht? Also vlt. kein 80/20 Verhältnis beim Verbrauch von GPU zu Speicher, sonder 90/10.
 

Limit

Lieutenant
Ersteller dieses Themas
Dabei seit
Mai 2003
Beiträge
815
#20
Die Teslas haben doch jede Menge DP-Einheiten, die den Geforces fehlen. Die dürften jede Menge Diefläche und Strom verbrauchen.
 
Top