News „DDR is over“: HBM3/HBM4 bringt Bandbreite für High-End-Systeme

Vielleicht überspringen Sie HBM 3+ und 4 und bringen HBM 4+/5 gleich raus.
Die Idee mit HBM als L4 und DDR als L5 Speicher ist eine Schnapsidee. Das kann man sich schenken und gleich Intel Optane oder Samsung Z-Nand Speicher nehmen, allein die geringe Latenz ist schon ein Grund.

Ich persönlich sehe das die Schnittstellen mittelfristig alles limitieren. Auch frage ich mich, wieso bei neuen PC-Gehäusen noch immer nicht USB C mit Kombi Thunderbolt 3 Standard ist. und und und.....

Ja ich bin auch bereit, meintwegen 700 - 800€ für ein Mainboard zu zahlen das endlich neue Schnittstellen hat und diese ausreichend. Wie PCIx 4/5, M2/3 Schnittstellen, USB C / Thunderbolt 3, 10 GBit-Lan.

mfg
 
Ja Du würdest das ausgeben...

Durschnittsdeutscher (Mann) Jahresgehalt: EUR 40.000 brutto

~ 3300€ brutto (12 Gehälter)

= ~2000€ netto

-abzgl Miete

= 1300€

800 Euro für ein Mainboard sind für den Durchschnittsdeutschen also 61,5% seines monatlichen Netto-Einkommens.
Jetzt kannst rückschließen, wie viele Leute dann bereit wären hier 800€ für ein Mainboard auszugeben.
 
GOIL :D

"DDR is over" = genauso gültig wie der Spruch "Poor Volta"

Reality Check = Failed
 
latexdoll schrieb:
Die Idee mit HBM als L4 und DDR als L5 Speicher ist eine Schnapsidee.

Für die Consumer-PCs und auch die Enthusiast-Plattformen auf jeden Fall. Hier im Artikel geht es ja schließlich um High-End-Systeme und darauf laufende Software, die tatsächlich Bandbreiten-limitiert ist. Bei der Software erstgenannte Systeme (Spiele, Office, bisschen Rendering, Videokonvertierung, Bildbearbeitung) ist man nicht bandbreitenlimitiert. Durch L1-/L2-Caches und vor allem die riesigen L3-Caches heutiger CPUs werden die meisten RAM-Zugriffe bereits abgedeckt (Stichwort Datenlokalität von Software).
 
Hejo schrieb:
GDDR6 (8000 MHz DDR @ 512 Bit SI)=1024 GB/sec.
HBM2 (1000 MHz DDR @ 4096 Bit SI)= 1024 GB/sec.
HBM3 (1500 MHz DDR @ 8192 Bit SI) =3072 GB/sec. (vermutet)

DDR5 6400 8 Kanal = 409,6 GB/sec.

Ein 8 Kanal SI kann man auch vor HBM schalten, ein ganzes SI mit 1 HBM Chip zu vergleichen macht nur aus Kostengründen fürn Endverbraucher Sinn.
Deswegen wird der auch noch sehr lange was von DDR/GDDR haben.
Der professionelle Bereich kann nicht genug HBM stacks haben, wie es im Artikel steht am besten gestern, und die sind klar besser als DDR oder GDDR, kosten hin oder her.
 
Zuletzt bearbeitet von einem Moderator:
Sun_set_1 schrieb:
Durschnittsdeutscher (Mann) Jahresgehalt: EUR 40.000 brutto

~ 3300€ brutto (12 Gehälter)

= ~2000€ netto

Nette Rechnung ist nur im Osten fern der Realität, leider...
 
FrozenPie schrieb:
Ich vermute eher, dass es eher in die Richtung von hybriden Systemen geht. Also, dass HBM quasi eine zusätzliche Zwischenspeicherstufe wird, zumindest bei CPUs (Auch wenn es für GPUs in kleinem Maße denkbar wäre).
Das Tiering würde dann so aussehen: L1 -> L2 -> L3 -> HBM (L4) -> DDR (L5) -> ...
Also abnehmende Geschwindigkeit/zunehmende Latenz, bei zunehmendener Speicherkapazität. So hätte man die Vorteile aus beiden Welten, allerdings auch mit den Kosten von beiden (einschließlich eines Hybriden oder doppelten Speichercontrollers), weshalb ich das nur in Top-Produkten erwarten würde.

Einen ähnlichen Gedankengang hatte ich auch, zumindest fürs High-Prefomance Segment und/oder APUs.
Man hat ja am i7 5775c gesehen was ein extra schneller Zwischenspeicher bringen kann.
 
"Micron bekräftigte deshalb auf der gleichen Konferenz, dass DDR noch eine lange Zukunft bevorstehe."

Habe mich schon gefragt, wann DDR endlich mal überholt ist, immerhin sind wir schon bei 5, aber scheinbar ist es eine ganz gute Lösung.
 
Sun_set_1 schrieb:
Ja Du würdest das ausgeben...

Durschnittsdeutscher (Mann) Jahresgehalt: EUR 40.000 brutto

~ 3300€ brutto (12 Gehälter)

= ~2000€ netto

-abzgl Miete

= 1300€

800 Euro für ein Mainboard sind für den Durchschnittsdeutschen also 61,5% seines monatlichen Netto-Einkommens.
Jetzt kannst rückschließen, wie viele Leute dann bereit wären hier 800€ für ein Mainboard auszugeben.

1. Es ist ein Hobby, andere Leute tunen Ihren BMW, andere haben Sporthobbys die Geld kosten usw.

2. Ich kenn Leute, die immer noch einen 870er oder 2600k als CPU haben. Sprich man kauft nicht jedes Jahr ein neues Mainboard.

mfg
 
Majestro1337 schrieb:
Vor fast 30 Jahren haben andere auch behauptet, der. DDR steht noch eine lange Zukunft bevor... :D
Sorry der offtopic-Spaß musste sein.

Ich finde hbm ja zunächst als schneller on-package Cache für CPUs interessant. Insbesondere die APUs sollten doch aus ~2 gb schon extreme Vorteile ziehen...

In der Hardwaresprache könnte man so etwas nicht als "Cache" per se bez., da beim Cache die Chiparchitektur samt Fetch und Load Assembler Optimierungen zutreffen.

Es gibt diminishing returns bei Cache Größen und je nach Architektur eine kritische Größe, bei der die Fetch und Load Instructions länger brauchen, deswegen werden mit der Harvard Architektur Cachegrößen >10mb (L1, L2 geschätzt) nie anwendbar sein. Beim L3 Cache schauts etwas anders aus, da sie hauptsächlich zur Interchipkommunikation verwendet wird, jedoch gibts auch da pareto größen je nach design
 
Zuletzt bearbeitet:
Wieviele % der Nutzer würden 800€ nur fürs Mainboard ausgeben? Vielleicht 0,1% wenns hoch kommt. Für ganz exotische Geschmäcker lohnt es sich halt nicht extra was zu entwickeln.

Die große Mehrheit der Leute gibt für den Gesamten Rechner um die 800€ aus. Zwischen 50€ und 150€ geben die meisten fürs Mainboard aus. Und damit der Enthusiast auch noch was hat bietet man noch eins für 250€ an.

Ausserdem. Für was brauchst du jetzt alle diese Schnittstellen. Habe bei mir auch USB Typ C und dieser Slot ist bisher verschwendet. Bis auf die Grafikkarte sind sonst kaum noch Zusatzkarten nötig. 6x Sata langt den meisten. 1-2x NVMe auch. 4 Ramslots langen vielen. Thunderbolt ist immernoch eine Nische. Mehr als USB2.0 brauchen 90% de USB Geräte auch nicht. Mir fällt kaum ein Grund ein ausser das alt bekannte "haben wollen"
 
IBM hat schon vor einigen Jahren eine Power-CPU mit vorgeschaltetem HBM demonstriert, imho eine der ersten HBM-Anwendungen überhaupt. Die Power-CPU mit 16 Kernen verwendete den 4GB-HBM-Speicher dabei als Level4 Cache und zwar rein per Software, jeder Speicherzugriff auf eine Memory-Page wurde abgefangen, die gesamte Page ins HBM transferiert und dann genutzt. Obwohl dieser Ansatz eher suboptiomal war konnte man dadurch in ausgesuchten Benchmarks 40% mehr Leistung rausholen. Ich schätze in Hardware wäre das nochmals deutlich flotter.

Der eigentliche Knüller war aber folgendes: Da das FB-DDR2 nun drastisch entlastet wurde konnte man deutlich langsamere und grössere Module verwenden. Anstatt FB-DDR2 mit RAM-800Mhz/Bus-3200Mhz kam Speicher mit RAM-133Mhz/Bus-1066Mhz zum Einsatz - Fully Buffered hat einen abstrahierten Bus der anders als normales DDR funktioniert - dafür aber ENORM viel Speicher pro Modul und das auch noch deutlich günstiger als normales FB-DDR2, so sollte ein 64GB(!!!) Modul pro GB kaum mehr als normales DDR2-RAM kosten und wer die Mondpreise von FB-DDR2 kennt weiss was das bedeutet. Und davon konnte man acht Stück pro CPU nutzen. Das 64GB-Modul war übrigens riesig, locker zehnmal so gross wie normales FB-DDR2.

Ein kurzer Test des Level4-Software-Cache durch einen Kollegen ergab dass sich das perfekt mit zwap-Memory-Compression kombinieren lässt und so fühlte sich ein System mit 512GB RAM eher wie eins mit 1024GB RAM an. Einziges Problem: Der Erstzugriff auf eine ungepufferte Memory-Page schluckt dann schnell mal 100 Taktzyklen (unkomprimiert) oder 300 Taktzyklen (komprimiert) und 4GB HBM Level4-Cache sind definitiv für den Server-Alltag zu wenig, 16GB sollten es schon sein. Wir haben damals spekuliert dass man statt FB-RAM dann auch einfach eine SSD nutzen könnte da hier komprimierte Kacheln auch in 300-500 Taktyzaklen verfügbar sind.

Das hätte schon was, ein Heim-PC mit 8GB HBM und einer 500GB-M2-SSD der sich wie ein PC mit 1000GB DDR4 anfühlt...
Ergänzung ()

Gaugaumera schrieb:
Wieviele % der Nutzer würden 800€ nur fürs Mainboard ausgeben? Vielleicht 0,1% wenns hoch kommt. Für ganz exotische Geschmäcker lohnt es sich halt nicht extra was zu entwickeln.

Der HBM-Die sitzt dann mit bei der CPU wie das jetzt schon bei den Intel-CPUs mit integrierter Vega-Grafik funktioniert. Der Aufpreis für einen 8GB-HBM-Die dürfte derzeit so bei 200 Euro liegen. Also wenn ich einen i9-9800k mit 12x4Ghz und 8GB-HBM für ca. 1000 Euro bekomme ist das schon interessant und liegt preislich nicht weit weg von dem was bisher bei Sockel 2011/2066 im oberem Segment üblich war.

Das Board wäre dann weiterhin ein recht normales 2066er Board für 150-300 Euro, sowas findet man häufig in Rechnern der Preisklasse 2000-4000 Euro.

Dass man sowas nicht so schnell im Aldi-Sonderangebot sieht versteht sich von selbst.
 
F1Freak schrieb:
... die Tendenz geht ja eher richtung Cloud/Streaming... und mit der dahingehenden Verlagerung der Power in die Datacenter...

Also wie kommst Du denn darauf? Es ist schon richtig, dass Cloud und Streaming in speziellen Anwendungen Sinn machen kann. Aber Du vergleichst hier Äpfel mit Pferdeäpfeln! Willst mir jetzt nicht wirklich unterjubeln, dass das hier(HBM/DDR6), wo wir von einer Entwicklung von Bandbreiten über 1TB/s sprechen, durch eine 100Mbit-VDSL-Leitung(die sowieso nur eine Minderheit vorweisen kann) mit ihren nominal 12,5 MB/s (davon knapp 11% overhead) ersetzt werden könne? Ich meine wir sind ja jetzt bei allen aktuell genutzten PC in Deutschland schätzungsweise im Schnitt bei etwa 20GB/s Speicherbandbreite. Und Du willst mir sagen, dass das künftig durch eine Internetleitung, die etwa um den Faktor 2000 langsamer ist, ersetzt werden kann? Ganz abgesehen davon, dass wir auch bei VDSL immer noch das Problem der assymmetrischen Datenleitung haben. Denn der Upolad, lassen wir ihn mal 10MBit(was viele noch nicht mal im Download haben) sein, ist ja dann nochmal um den Faktor 10 schlechter(Faktor 20.000 aggregiert). Wohingegen der RAM natürlich in beide Richtungen gleich gut ist. Kurzum, was jedes kleine Pipifax-Grafikprogramm bei der Bearbeitung eines stinknormalen Bildes an hunderten Gigabyte zwischen CPU, Grafik und RAM hin- und herschaufelt, willst Du ins Internet verlagern? Nochmal zum Vergleich: wir haben momentan Bandbreite bei den schnellsten Internetanschlüssen(die vielleicht 10% der Bevölkerung nutzen könnten), die ein RAM-Bus etwa Anfang der 1990er in Zeiten 286/386 geleistet hat; einer Zeit, in der Motherboards maximal mit 4MB RAM bestückt wurden! Und damit willst Du Daten verarbeiten, die "exponential-logarithmisch" gestiegen und im Schnitt um den Faktor 1 Million größer sind, als damals? Hast Du soviel Zeit?

Also da hast Du wohl mit dem cloud computing/Streaming was falsch verstanden! Wie schlecht das Ganze funktioniert, wirst Du sehen, wenn Du einmal Remote Desktop/Splashtop/Teamviewer im LAN(100MBit) nutzt. Solange wir hier von 2D reden, zum Beispiel sogar (HD-)Fernsehen, ist ja alles fein und gut. Aber sobald Du irgendwas mit 3D machst, kannst Du das vergessen: Steuerbarkeit, Skalierbarkeit und Geschwindigkeit...kurzum, da zuckelts und ruckelts nur noch. Ich meine ich möchte das jetzt nicht grundsätzlich schlechtreden, da ich wirklich erstaunt bin, wie gut sowas z.B. mit Remote-Desktop inzwischen geht. Aber die Grenzen sind dennoch klar erkennbar, sobald es über das Schreiben eines Briefes auf dem fernen Rechner hinaus geht.

Es gibt sicherlich Ausnahmen, wie sie auch heute schon(in der Regel kostenpflichtig) angeboten werden, wo das Sinn macht: Konvertierungsaufträge(PDF, Video, Bilder), wo Du eine Datei hinschickst, und dann später eine andere Datei zurück bekommst. Dies ist aber, wie gesagt, in der Regel kostenpflichtig, weil der Dienstleister sich das (natürlich) bei jeder Inanspruchnahme bezahlen lässt, wohingegen Dein Speicher, nach einmaliger Anschaffung, jede Inanspruchnahme lediglich mit höchstens ein paar Milliwatt Mehrverbrauch quittiert. Ich kann mir nicht vorstellen, dass es einen Cloud Anbieter geben wird, der völlig frei verfügbare Rechenleistung zu einem einmaligen Festpreis anbieten wird. Das liefe dem Prinzip der Welt entgegen...

Jedenfalls ist die Frage so alt, wie der PC selbst. Oder zumindest so alt, wie das Internet. Denn wenn man die ganzen Diskussionen um z.b. Java, PHP, Flash anschaut, dann ist immer die Frage, was möglicherweise auf den Server ausgelagert werden kann und was nicht. Dennoch würde man neben der reinen Technik(Datenleitung) auch die Programmierer der Welt vor eine schier unlösbare Aufgabe stellen, wenn sie vorgefertigte, serverbasierte Lösungen für jede Plattform bereitstellen müssten! Ich weiß nicht, wie Du das angesichts der immer größer werdenden Zahl an unterschiedlichsten Endgeräten realisieren willst.

DDR is dead würde ich daher auch nicht unterschreiben, aber HBM oder ein komplementäres Produkt mit größerer direkter Anbindung ist natürlich die Zukunft!
 
Zuletzt bearbeitet:
Ich bin gespannt wie die Module aussehen und ob es sich fast wie ddr stecken läst oder eher wie ein Legoklotz.
 
Herdware schrieb:
Die einzige Möglichkeit wäre wohl, die komplette HBM-CPU/APU gegen ein Modell mit mehr HBM-Speicher auszutauschen. Und auch das nur, wenn das Bauteil nicht direkt verlötet ist.
Aber das wäre sicher kein nennenswertes Hindernis für den Erfolg von HBM. Speicher nachrüsten zu können ist für die allermeisten Kunden völlig uninteressant. Man kauft sich das Gerät direkt mit so viel Speicher, das der für die nächsten 3-6 Jahre ausreicht.

oder es ist in zukunft ein sockel für ein HBM modul neben dem CPU sockel, klar, die latenzen dürften minimal höher ausfallen durch die lngeren leitungswege, aber das wäre zumindest extrem kundenfreundlich.
 
Lustig, im Artikel ist von High End, Enterprise und Epyc-Systemen die Rede und hier wird gestritten, ob HBM DDR bei Gamersystemen ersetzt. Dabei heißt es im letzten Absatz extra:

DDR wird noch länger die Massenmarktlösung sein

Doch als Allheilmittel wird auch HBM nicht gesehen, in Zukunft könnte auch diese Speichertechnologie in die Bandbreitenlimitierung laufen. Im Massenmarkt aber auch im regulären Server-Umfeld wird es ohne DDR-Speicher so oder so noch viele Jahre nicht funktionieren. Er ist vergleichsweise günstig, auch wenn das bei den aktuellen Preisen auf den ersten Blick nicht so aussieht, und lässt sich sehr leicht skalieren, sowohl bei der Geschwindigkeit als auch der Kapazität. Micron bekräftigte deshalb auf der gleichen Konferenz, dass DDR noch eine lange Zukunft bevorstehe.
 
Jesterfox schrieb:
Bei HBM wird es keine Module geben, der bezieht ja seine Vorteile genau daraus das er mit der CPU/GPU auf einem Interposer sitzt.

darum sagte ich ja, etwas schlechtere latenzen.... gehen würds aber ohne probleme... und selbst wenn man so nur 50% der bandbreite realisieren könnte, als wenn der HBM mit auf der CPU sitzt, wäre das immernoch 5-8x mehr als mit DDR4/5 möglich wäre.
 
AFAIK sind die Latenzen von HBM und GDDR so ziemlich gleich. Wichtig sind Platzersparnis und das (mögliche) extrem breite Speicherinterface. Gerade hinsichtlich solcher Geschichten wie EMIB oder Interposer interessant.
 
Zurück
Oben