News Samsung: Massenfertigung der 2. Generation HBM gestartet

Nyix schrieb:
@eruanno

Ich verstehe nicht, was du hier für einen Trubel machst.

Dazu http://cdn0.techbang.com.tw/system/...0a032eef25872d2a66d2b651439ec2.jpg?1416830449

Demnach fertigt Samsung HBM2, da im Artikel 256GBps und 8Gb per DRAM die stehen. Also ist das alles richtig.

Ich mache keinen Trubel, ich frage mich nur, wie man sich als Redakteur so ausdrücken kann.
Wenn der Quatsch jetzt noch 100x gepostet wird, glaube ich vielleicht auch irgendwann, dass es stimmt.
2 Gbps und 8 Gb pro die wurden bereits in der Spezifikation von 2013 (JESD235) abgedeckt. Und nun?
Die JESD235 spezifiziert bis zu 8 Kanäle pro Stapel und bis zu 32 Gb pro Kanal. Also gingen auch 32 GiB pro Stapel ohne "HBM2".

Das Bild, was du da hast sind Hynix Folien zu Produktplänen. Wenn Samsung heute erzählt dass sie dieses Jahr DDR4 Riegel mit 2000 MHz und 8 GiB verkaufen und nächstes Jahr welche mit 4000MHz und 32 GiB und würden die Riegel intern "DDR4a" und "DDR4b" nennen, gibt es natürlich trotzdem keine DDR4a und -b Spezifikation.
 
Zuletzt bearbeitet:
Marcel55 schrieb:
Warum hätte AMD unnötig Geld in die Entwicklung neuer GPUs im 28nm-Prozess stecken sollen, wenn die bereits vorhandenen GPUs mit leichter Überarbeitung des drumherum problemlos mit der Konkurrenz mithalten können?
Genau das ist m.E. derzeit gegeben, so gesehen war das schon okay.

Wenn dem so wäre wie du es sagst wäre AMDs Marktanteil bei dedizierten GPUs nicht derart abgestürzt. Im gegenüber dem Retail Markt wesentlich größeren OEM Geschäft hat Nvidia mit Maxwell voll abgeräumt.

Beispiel: Die aktuelle Notebookgeneration mit Skylake
http://geizhals.de/?cat=nb&xf=6750_18#xf_top

866 Listungen. Davon 32 mit dGPU von AMD und 552 von Nvidia.

Während man bei Nvidia den Fokus darauf gesetzt hat effiziente Entry und Mainstream GPUs frühzeitig auf den Markt zu bringen gab es in diesem Segment bei AMD kaum etwas neues. Die Quittung dafür gibt es nicht erst seit heute denn sowohl bei Komplettsystemen als auch Notebooks ist die Effizienz (teils deutlich geringere Verlustleistung und geringerer Bandbreitenbedarf-> schmäleres Interface) gegenüber den OEMs ein richtig starkes Verkaufsargument.

Der Witz dabei ist das es AMD mit GCN 1.2 durchaus möglich gewesen wäre dem im gleichen Zeitfenster etwas entgegen zu setzen. Das hat man sich gespart und muss als Folge jetzt in den sauren Apfel beißen und auf Polaris warten. Davor gibt es für AMD in diesem Segment kaum mehr etwas zu holen.
 
Zuletzt bearbeitet:
sHx.Shugo schrieb:
Ich dachte mir auch beim lesen der News "Wann wohl der erste Mainboard-Hersteller auf die Idee kommt 32GByte HBM2 fest auf das Board zu löten wo sonst die RAM-Slots sitzen".
Bist also nicht der Einzige ;)
Wann? Nie.
Das ganze Interface ist viel zu breit um das über einen Sockel aufs Mainborad zu routen. Überleg mal wie viele Datenleitungen du alleine schon brauchst. HBM muss mit aufs Package.

strex schrieb:
Wie das aussieht, sieht man mit dem Hybrid Mode (Cache Modes) der KNL. Das kann man in nächsten Jahren auch bei den Xeons erwarten, besonders in der Kombination mit xPoint.
Das ist in der Tat eine interessante Kombination. Man bekommt eine ordentliche Kapazität mit sehr großem Durchsatz und dazu dann einen etwas langsameren Speicher (im Vergleich zu heutigem SD-RAM) in für heutige Verhältnisse extremer Kapazität.
 
Bitte einmal für mich die 1080Ti mit 8GB HBM, danke. Leider wird das noch bis 2017 dauern :(
 
Mir kommt da ein bitterer Nachgeschmack auf:
Selbst wenn sich so etwas wie eine 32 oder gar 60 GB HBM2 Grafiklösung im Consumersektor innerhalb der nächsten 2-3 Jahre materialisieren sollte - WOZU?

Ausser Star Citizen und ein paar wenige andere wird nichts dieses Potential ankratzen und nutzen können. Der Markt steht und fällt mit den Konsolen und dort ist solche Technik eventuell für die übernächste Generation (in 10-12 Jahren) erschwinglich [bei max. 500$ für die gesamte Konsole].
Ich bezweifle stark das wir die hier gezeigte Technik zeitnah im heimischen Enthusiasten-PC sehen werden.

Wenn man der Folie von Samsung glauben mag, dann kommen HBM2-Grafiklösungen mit mehr als 4 GB & 1 TB/s erst 2018.
 
Zuletzt bearbeitet:
Fragger911 schrieb:
Mir kommt da ein bitterer Nachgeschmack auf:
Selbst wenn sich so etwas wie eine 32 oder gar 60 GB HBM2 Grafiklösung im Consumersektor innerhalb der nächsten 2-3 Jahre materialisieren sollte - WOZU?

Auflösungen von 4k und mehr?
VR wird demnächst DAS Enthusiast-Thema sein.

Davon abgesehen sind GPUs nicht nur für Spiele da. In vielen workstations und Rechenzentren wachsen die Datenströme exponentiell, da sind die 32GB welche AMD derzeit als VRAM auf ihren GPUs anbietet auch schon ausgelastet.

Ausserdem ist HBM an sich keine "teure Zukunftstechnik". AMDs Fury-Reihe kostet auch nicht mehr als nVidias Angebot.
Vielleicht zu teuer für den lowend-Bereich, aber auf Karten für 300€ und mehr wirst Du das mit Sicherheit sehen.
Die Fury nano ist bereits unter 500€ gefallen und die yields werden in Zukunft nicht schlechter...

P.S.: Gerade für Konsolen ist die Technik interessant. Zum einen verwenden sie einen gemeinsamen Speicher für alles, zum anderen hängen sie zuweilen enorm an der Geschwindigkeit dieses Speichers.
Ergänzung ()

YforU schrieb:
Sobald die Speicherbandbreite massiv erhöht wird (beispielsweise durch HBM) ist die typische integrierte GPU einer APU der Flaschenhals. Da der Spaß für Entry/Mainstream (Kosten für HBM und Interposer) gegenüber DDR4 aber in jedem Fall auch langfristig deutlich höher ist bräuchte es also einen separaten Chip (mit wesentlich größerer GPU). Mit einem Design lässt sich das wirtschaftlich kaum unter einen Hut bekommen.

Womit man dann beim Punkt ist ob es für AMD überhaupt Sinn macht einen derartigen Chip zusätzlich zu entwickeln. Nach dem was AMD bisher an Visionen gezeigt hat sieht es nicht danach aus. Vielmehr wird es in so einem Fall ein MCM mit Interposer (CPU, GPU und Speicher jeweils separat). Das wird aber nie und nimmer in einen Sockel wie AM4 passen sondern -> Opteron und ansonsten als BGA.

Du kannst HBM nur mit Interposer verbauen da Du diese Speicherart nicht on die fertigen kannst. Und teurer als Intels eDRAM ist es auch nicht, vor allem wenn man die möglichen Speichergrößen ansieht.
Im Endkundenmarkt muss eine APU mit HBM primär mit der Kombination aus CPU und RAM konkurrieren. Da Du Dir zahllose Kostenfaktoren beim RAM sparst (Transport, Marge der Hersteller und Zwischenhändler etc) ist es nicht teurer im Verkauf.
In der jetzigen Situation konkurriert eine APU ja auch "nur" mit Intels CPUs mit integrierter GPU.
Der Knackpunkt bei der iGPU ist aber, dass ihre Nutzung derzeit auch im Endkundenmarkt massiv im Wandel ist. Dx12 und Vulcan liefern die Grundlage um - ähnlich wie Markt für workstations und big scale computing - die shader für Berechnungen einzubinden. Da greift hUMA dann auch richtig.
Das Argument mit AM4 greift leider nicht, da AMD noch nichts Genaues zu AM4 gesagt hat. Fakt ist dass der Sockel auch für die großen Zen-CPUs taugen soll. Wenn AMD einen echten Octa oder gar noch mehr Kerne bringt, kann AM4 garnicht sonderlich klein ausfallen. Da ist definitiv ein Interposer unter dem HS möglich wenn Du Dir mal anschaust wie klein ein jetziger A10 in 14nm sein müsste. Genug Platz für zwei HBM-stacks ist auf jeden Fall gegeben.
Die verkündete DDR4-Kompatibilität schliesst ja kein HBM aus - es ist nur logisch dass die CPU per DDR4 zusätzlich aufrüstbaren Speicher ansprechen kann.
Vor allem aber ist das marketing. Alle erwarten von AMD dass sie derlei ankündigen damit Intel nicht alleine als DDR4-Nutzer dasteht.
Das ist in etwa so als ob für nächstes Jahr eine GPU mit HDMI 2.0 angekündigt wird.
 
Fragger911 schrieb:
Wenn man der Folie von Samsung glauben mag, dann kommen HBM2-Grafiklösungen mit mehr als 4 GB & 1 TB/s erst 2018.
Von was für einer Folie redest du? Die in der News verlinkte zeigt, dass das 2016 zum Einsatz kommt und nicht 2018.

Der Markt steht und fällt mit den Konsolen und dort ist solche Technik eventuell für die übernächste Generation (in 10-12 Jahren) erschwinglich [bei max. 500$ für die gesamte Konsole].
Je nachdem wann die neuen Konsolen kommen, ist das womöglich schon die Technik für die nächste Generation.
2020 wäre das durchaus realistisch. Vielleicht 4 Zen-Cores, 24-32 GCN-Cluster in 10nm und 2 HBM-Stacks.
Wenn die Konsolen natürlich schon 2018 kommen, was ich nicht glaube, dann wirds natürlich für die 10nm Lithografie zu knapp und HBM wird da wohl auch noch zu teuer sein.
 
Der einzige Vorteil von HBM2 ist doch heute auch nur noch die Bandbreite, zumindest im High End Segment. Das bisschen Energieeffizient ist bei ner 250 Watt Karte ziemlich egal, genauso wie der Platz, da man ja trotzdem die Abwärme abtransportieren muss und entsprechende Kühlerfläche braucht (zudem finde ich, sieht so eine 17cm karte in nem ATX Gehäuse verloren aus) und auch von der kapazität bietet HBM aktuell keinen Vorteil, mit 512Bit und GDDR5 kann man auch 32GB auf eine Karte packen. Wie weit die bandbreite noch Vorteile brint, muss sich erst mal zeigen 500GB/s sind bei hochgetakteten GDDR5 Chips bei 512Bit auch nicht unrealistisch. Der GM104 hat ja gezeigt, was man trotz recht kleiner Bandbreite erreichen kann.

HBM2 macht auf APUs oder in Notebooks viel mehr sinn, wo man wirklich einen Nutzen aus den Features zieht.
 
Zuletzt bearbeitet:
Zurück
Oben