Notiz Intel Sapphire Rapids: Next-Gen-Xeon-CPU auch mit HBM auf dem Package

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
16.060

PS828

Rear Admiral
Dabei seit
Juni 2019
Beiträge
5.492
Richtig, dennoch für bestimmte Anwendungen wo die Bandbreite von normalem DRAM nicht ausreicht durchaus spannend. DRAM wirds dennoch geben aber als Level 2 Speicher
 

Doenerbong

Cadet 4th Year
Dabei seit
Okt. 2010
Beiträge
81
@konkretor Hier sind noch weitere Leaks.
The Saphhire Rapids CPUs will contain 4 HBM2 stacks with a maximum memory of 64 GB (16GB each). The total bandwidth from these stacks will be 1 TB/s. According to Matthew's source, HBM2 and GDDR5 will be able to work together in flat, caching/2LM and hybrid modes. The presence of memory so near to the die would do absolute wonders for certain workloads that require huge data sets and will basically act as an L4 cache.
Intel muss jetzt liefern gegenüber der Epyc-Konkurenz im Data-Center. Das sieht schonmal nicht schlecht aus.
 

v_ossi

Captain
Dabei seit
Juni 2011
Beiträge
4.020
[...]für den Heimuser aber wohl komplett Irrelevant.

Würde ich gar nicht mal sagen. Eine weitere Cache Ebene hat Intel schon 2015 im Broadwell genutzt und sich damit ganz gut geschlagen.

Wenn sich das, wie @Doenerbong andeutet, etabliert, kann das mMn durchaus zurück kommen. Anandtech hat sich damit kürzlich noch mal auseinander gesetzt und die immer noch vorhandenen Vorteile aufgezeigt.

Wann man dann evtl. noch betrachtet, dass APUs immer auch die iGPU 'durchfüttern' müssen, könnten 1 oder 2GB (dreidimensional integrierter) HBM Speicher durchaus ihre Vorteile bringen.
 

Teralios

Commander
Dabei seit
Mai 2008
Beiträge
2.950
Wann man dann evtl. noch betrachtet, dass APUs immer auch die iGPU 'durchfüttern' müssen, könnten 1 oder 2GB (dreidimensional integrierter) HBM Speicher durchaus ihre Vorteile bringen.
Ich glaub, in dem Fall geht es Intel weniger darum eine zusätzliche Cache-Schicht einzubauen, als viel eher darum, dass man die Opaten DIMMs stärken möchte.

Optane DIMMs bieten eine etwas langsamere Latenz als DRAM und gerade wenn die Schreiblast zunimmt, verlieren die Opatens gegen klassischen DRAM. Wenn man hier entsprechend genug HBM-Speicher als neue Instanz direkt bei der CPU einführt, kann man an die DRAM-Controller die Opaten-DIMMs schnallen und ist für jeden Workload gut gerüstet.
 

deo

Fleet Admiral
Dabei seit
Okt. 2005
Beiträge
10.517
Das verteuert die CPU/GPU und man macht es deshalb erst, wenn man sonst am Ende ist.
AMD hat HBM dann auch gleich wieder aufgegeben, weil sie bei TSMCs Prozessen die Leistung wieder kostengünstiger steigern können.
 

Volker

Ost 1
Ersteller dieses Themas
Teammitglied
Dabei seit
Juni 2001
Beiträge
16.060
AMD hat HBM dann auch gleich wieder aufgegeben, weil sie bei TSMCs Prozessen die Leistung wieder kostengünstiger steigern können.

Für den Mainstream-Markt vielleicht. Da wollten sie das auch zu schnell, als HBM noch in den Kinderschuhen steckte, doch ne 300-Euro-Graka braucht auch kein HBM, das geht anders billiger. Im Profi-Bereich setzen sie auch weiter darauf, wie jeder andere der dort zugegen ist. Mit HBM wird man noch so einiges machen könnten in Zukunft, das jahrelang angekündigte HMB3 ist ja noch immer nicht da, erst jetzt hat es mal HBM2e geschafft.
 

-Ps-Y-cO-

Rear Admiral
Dabei seit
Okt. 2007
Beiträge
5.654
HBM on Package ist die Zukunft.

Ist egal wie viele Schwarzmaler Morgens aufwachen.

Dieser Futuristische Speicher hat a) seine Daseinsberechtigung und b) ist es die neuste Speicherzellen Technologie.

HBM ist da, um zu bleiben. Um zu Koexistieren. Um Neue Geräte und Formate Erzeugen zu können. Um Berechnungen zu Beschleunigen. Um Effizienter zu werden.
 

estros

Admiral
Dabei seit
Sep. 2009
Beiträge
9.164
HBM on Package ist die Zukunft.

Ist egal wie viele Schwarzmaler Morgens aufwachen.

Dieser Futuristische Speicher hat a) seine Daseinsberechtigung und b) ist es die neuste Speicherzellen Technologie.

HBM ist da, um zu bleiben. Um zu Koexistieren. Um Neue Geräte und Formate Erzeugen zu können. Um Berechnungen zu Beschleunigen. Um Effizienter zu werden.
Realsatiere.:p Das muss man schon differenziert betrachten.

Nvidia nutzt seit Jahren HBM Speicher und das mit vollem Erfolg!

Daher gut, dass Intel hier in Zukunft kontern möchte.

Aber im Endkundenmarkt zählen andere Faktoren, als pure Leistung, nämlich in erster Linie P/L. Und hier hat Nvidia mit dem GDDR6X Speicher eine interessante Anbindung auf deren PCBs auf den Markt gebracht.
 

v_ossi

Captain
Dabei seit
Juni 2011
Beiträge
4.020
@Teralios Synergien im eigenen Portfolie zu fördern, ist ja erst mal nicht verwerflich und wirtschaftlich durchaus sinnvoll. Trotzdem habe ich die vage Hoffnung, dass davon 'bald' was im Endkundenmarkt ankommt.

Wenn man hier mit HBM gut fährt und die Produktion von Lakefield ebenfalls gut läuft*, hoffe ich einfach, dass Foveros, EMIB, MCP und 450er Wafer in 'naher' Zukunft technologische Fortschritte auch für den 0815 CB User ergeben.
Ein momentan noch ganz 'wilder' Gedanke, wäre etwas wie ein extern gefertigter 5nm (Samsung oder TSMC ist dann evtl. sogar egal) EUV big.LITTLE Core Die, kombiniert mit 7nm Intel GPU, 10nm I/O und 4GB HBM.

Die Aussichten sind momentan echt verrückt. Statt jahrelangem, monolithischem, plenarem x86 Stillstand** explodiert der Markt geradezu.
HBM und Chiplets haben oder hatten wir in der ein oder anderen Form schon, jetzt kommen die erwähnten Neuerungen und mit ARM und RISC-V weitere Kandidaten für eine mittelgroße Revolution am Mark. Würde mich aktuell nicht wundern, wenn Intel noch mal Itanium rauskramt. :D

*Keine Ahnung, ob es verlässlich Informationen dazu gibt; ich habe jedenfalls auf die Schnelle keine gefunden.
**Rein auf die Herstellung bezogen
 

-Ps-Y-cO-

Rear Admiral
Dabei seit
Okt. 2007
Beiträge
5.654
@estros

Warum Realsatire?
Meinst du AMD und Sk-Hynix haben umsonst Milliarden an F&E Anno 2009 in HBM gesteckt?

GDDR6X ist GDDR auf Steroiden. Das wird in dieser Dekade, vorallem gegen Ende, begraben werden. Diese Technik basiert auf F&E aus den Frühen 90ern.

NEC, Xilinx, Intel, Fujitsu, IBM, AMD, Qualcomm, Broadcom, TX Instr, ... Alle haben schon Erfahrungen mit HBM gemacht und werden HBM ganz sicher nicht begraben.

Das hat nichts mit Satire zutun.
Das ist Marktentwicklung, Fortschritt, Technologische Errungenschaft, Stetige Progression.
 
Zuletzt bearbeitet:

Hayda Ministral

Vice Admiral
Dabei seit
Nov. 2017
Beiträge
6.757
KLingt ja erstmal solide was Du schreibst und könnte auch wirklich so kommen.
Aber...genau so wurde uns seinerzeit auch RDRAM, FB-DIMM,... verkauft. Das war jung, das hatte Potential, das war die Zukunft. Nur in die Gegenwart haben es diese Herausforderer nicht geschafft, trotz überzeugender technischer Parameter. (G)DDR hat bisher immer wieder gekontert. Mal sehen ob HBM es schafft die Festung zu knacken.
 

3faltigkeit

Lt. Junior Grade
Dabei seit
Jan. 2017
Beiträge
311
Ich denke auch, dass wir HBM im Consumer Bereich wiedersehen werden. GDDR6 und GDDR6X werden schon sehr heiß. Auch muss der DRAM räumlich zwecks Signalqualität immer dichter an die GPU gesetzt werden. Beides ist mit HBM zu lösen. Ich würde sogar sagen, es wird früher oder später wiederkommen müssen. Es freut mich daher, dass es bei den nächsten Xeons kommt. Aufjedenfall spannende Entwicklung.
 

Rage

Commander
Dabei seit
Feb. 2009
Beiträge
2.908
Wenn schon offizielle bei Nvidia Dinge sagen wie „Computation is cheap, Data movement is expensive“ (paraphrasiert und bezogen auf aufzuwendende Energie), dann ist schon klar wo die Reise hingehen muss. Das wird natürlich bleiben und nur mehr adaptiert werden. Das ARM-Monster von Fujitsu setzt das sogar jetzt schon sehr aggressiv ein.
 
Dabei seit
Apr. 2018
Beiträge
184
Kenne mich mit diesen Speichern zwar nicht aus, aber mich deucht, dass AMD mit HBM auf der Fury keinen allzu großen Erfolg verbuchen konnte.

Wahrscheinlich ist HBM gegenüber GDDR nach wie vor zu teuer, um ihn in preisbewusste Consumer-GPUs zu stecken.

Ich schätze einfach mal, dass die nächste GPU-Generationen von AMD, Nvidia und Intel noch auf GDDR setzen werden. Vielleicht sogar auch der Nachfolger.

Welche Vorteile hat man als Gamer oder Anwender denn, wenn HBM anstelle von GDDR in der GPU sitzt?
 

andi_sco

Vice Admiral
Dabei seit
Jan. 2018
Beiträge
6.665
big.LITTLE Core Die, kombiniert mit 7nm Intel GPU, 10nm I/O und 4GB HBM
Das wird den Preis aber kräftig nach oben treiben. Ob sich das in dem Segment lohnt?
Klar, wäre eine APU super, aber wer will das bezahlen?
Ergänzung ()

wenn HBM anstelle von GDDR in der GPU sitzt?
Speicherbandbreite, da kommt man problemlos auf 1 Terabyte/s
Ergänzung ()

Der nicht schlecht war, nutzte Sony ja auch.
Aber, DDR war billiger und kühler. Ich weiß leider nicht, wie die Ausbeute war und wer den alles gefertigt hat, ausser Samsung.
 
Top