News High Bandwidth Memory (HBM): Samsung bemustert HBM3E in Kürze, bis 2025 kommt HBM4

andi_sco schrieb:
Hat sich in damaligen Tests aber gegen die Hauseigene 8GB Konkurrenz gut gehalten: Klick mich
Framerate ja, aber das Framepacing war glaub ich bei der Fury nicht so besonders in einigen Szenarien, dachte das wurde später auch mal getestet, dass sich das laut Avg FPS "flüssige" Spielgefühl oft nicht flüssig anfühlte
 
Irgendwann wird es bei Consumern kommen.
Die Wärmeeffizienz ist zu hoch vgl. zu GDDR.
Irgendwann wird es, wie andere sagen, so stark massenproduziert, das ein Schweinezyklus einsetzt oder einfach so auf den Konsumermarkt schwappt. Vielleicht bei Konsolen 2028?
Wenn NVIDIA weiter so Speicherkrüppel baut könnte es sogar recht schnell gehen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und C4rp3di3m
RichieMc85 schrieb:
Die höchste Bandbreite? 3090Ti und 4090 sind doch schneller?
Nein sind sie nicht.

Bandbreite Radeon VII: 1024 GB/s
Bandbreite 4090: 1008 GB/s
Bandbreite 3090 Ti: 1008 GB/s
 
  • Gefällt mir
Reaktionen: SweetOhm und Kitsune-Senpai
-Ps-Y-cO- schrieb:
Noch. Ist eine Frage der Massenfertigung.
Sobald HBM in einer derartigen Masse produziert wird, sinkt auch der Preis.
Mag ja sein, du hast aber den Interconnect vergessen, der erheblich aufwändiger ist und deutlich teurere Interposer bzw. Platinen erfordert (von der Ansteuerung ganz zu schweigen).
 
-Ps-Y-cO- schrieb:
Noch. Ist eine Frage der Massenfertigung.
HBM ist längst in Massenproduktion. Keine Ahnung wie du dir das vorstellst, aber ein Produkt wird nicht um so billiger in der Herstellung, je mehr produziert wird. Es muss halt eine gewisse Menge erreicht werden um entsprechend Equipment auslasten zu können. Irgendwann gibt es aber kaum noch Scalingeffekte. Da verringern sich dann nur noch Entwicklungskosten pro Stück.
Technologisch gibt's aber deutlich mehr Komplexität. Das ist zum einen das stacking von Chips und zum anderen das advanced Packaging.
Ergänzung ()

andi_sco schrieb:
AMD hatte das aber gut im Griff, so das sie kaum oder gar nicht langsamer wurde, als die 8 GB GDDRx Varianten.
Wenn mehr als 4GB benötigt werden, dann reichen eben auch 4GB nicht aus. Klar kann man mit einem etwas besseren Speichermanagement das etwas abmildern (siehe AMD vs Nvidia heute), das war's aber auch. Bei Release reichten 4GB überwiegend aus. Aber in den Tests mit MSAA sah man ja vereinzelt schon die hässlichen Framtimes und hatte Nachladeruckler. War halt bei Release nur bei einzelnen spielen der Fall. Bei späteren Spielen vermehrt. Die Karte ist nicht gut gealtert. Aber ist ja heute schon fast Standard. ;)
 
Zuletzt bearbeitet:
andi_sco schrieb:
Jaein: "Vega" M war ein Polaris 22 Chip. Bin ich die Tage erst drüber gestolpert

BAR86 schrieb:
aha Also Namen sind Schall und Rauch, man würde bei Vega erwarten, dass Vega drin ist. Nicht, dass es so eine tolle Architektur war, aber das wundert mich dann schon irgendwie

Selbst die CPU entsprach nicht ganz dem Namen. Hatte zwar eine 8 im Namen, entsprach aber eher Gen 7.
Dennoch ein interessantes und einmaliges Stück Technik, was mich bis heute tagtäglich begleitet 😃
 
  • Gefällt mir
Reaktionen: SweetOhm und BAR86
HBM ist zwar teurer als GDDR, aber nicht so viel teurer. Der Speicher selber kostet vielleicht 50% mehr als GDDR - also $75 statt $50. Dann käme noch ein etwas aufwändigerer interposer dazu, aber heutzutage reden wir von gpus zwischen 500€ und 2000€ Endkundenpreis und die radeons haben ohnehin ein chiplet package. AMD hat bei fury und vega HBM auch irgendwie preislich unterbekommen.

HBM ist aber nicht nur teurer, sondern auch besser und spart an anderer Stelle. der Verbrauch liegt bei ca einem Viertel, die Platine kann viel kleiner und einfacher sein, Speicher vrm muss nur ein paar wenige Watt stemmen anstatt >30w, HBM ist durch die packageintegration viel besser via Wärmeleitpaste zu kühlen und der Kühler muss nur noch vrm + core package abdecken, dadurch gibt's auch keine Platinenprobleme wie bspw bei der 3090 mit vorder- und rückseitiger bestückung und passiv überhitzendem Speicher durch das kreuzen von power lanes und die Signalqualität erlaubt auch vieeeeeel höhere Geschwindigkeit, weil HBM auf dem selben package sitzt, und nicht noch unterschiedlich lange Leitungslängen dazukommen und GDDR ist anfällig für Schäden beim BGA.

Vorteil von GDDR: ist etwas billiger. Und deshalb bekommen wir nur den peasant-speicher. technisch ist HBM auf ganzer Linie überlegen, GDDR bringt halt ein fitzelchen mehr Marge.
 
  • Gefällt mir
Reaktionen: Haldi, SweetOhm, Kitsune-Senpai und eine weitere Person
stormi schrieb:
was mich bis heute tagtäglich begleitet
Du Glücklicher. Möchte nicht wissen, was die Teile bei ebay kosten
 
Ghostshield schrieb:
Chiplet SOC
1 HBM3 24 GB
1 16C Zen5c
1 IO + 16 CU GPU
20-35W Handheld
Pfff, neeee

48gb HBM
16C Zen 4/5
96CU GPU

500Watt für 2000€!

Ich brauche diese Sockel blablabla Geschichte nicht. Mit einer neuen CPU kommt auch meist Board/RAM neu dazu.
 
andi_sco schrieb:
Dann hätte man es schon längst weiter verfolgt. Aber wahrscheinlich wurde der GDDRx RAM mit der Zeit auch wieder effizienter.
Wie gesagt, nicht GDDRx, sondern ohne das "G". HBM als RAM-Ersatz, nicht als V-RAM-Ersatz. Das "x" am Ende war wahrscheinlich etwas irreführend, damit wollte lediglich die Versionsnummer von DDR-RAM ersetzen. Und die Gründe, warum man das vorerst nicht weiter verfolgt hat, dürften aus meiner Sicht eher mit der Modularität und den Kosten zusammenhängen. Man benötigt für HBM ja einen vernünftigen Interposer, was eben nur bei verlöteten Chips funktioniert. Man könnte also nur eine vollständige Platine anbieten, also Mainboard, CPU und RAM in einem, was gerade im Hinblick auf Upgrades problematisch ist. Aber die Tendenz der letzten Jahre geht ja in die Richtung "SoC" und Einplatinencomputer, weshalb ich es wünschenswert fände, wenn solche Geräte in Zukunft angeboten werden würden. Praktisch so ähnlich wie die neuen iMacs mit M2 Ultra, nur eben mit Windows/Linux.

KeLcO schrieb:
Wurde beim lesen etwas stutzig, daher die Nachfrage.
Wahrscheinlich hast du auch das Richtige gemeint. Also was ich meine, ist HBM als Ersatz für herkömmlichen DDR-RAM, also unabhängig von der Versionsnummer. Wie oben beschrieben wäre das aber natürlich nicht bei sockelbaren Plattformen möglich, sondern nur bei ganzen Platinen, also zum Beispiel in Notebooks. Ich fände es auf jeden Fall sehr geil :D
 
SaschaHa schrieb:
HBM als RAM-Ersatz
Ich meine mal gelesen zu haben, das GDDR oder auch HBM höhere Latenzen hat, als der normale SD RAM.
Und bei dem GDDR kommt hinzu, das er ziemlich gleichmäßig lesen oder schreiben muss.

Ansonsten könnte man es höchstens über das Mainboard mit Playstation SoC vergleichen, das hat ja 16 GB GDDRx RAM
Ergänzung ()

Graphics Double Data Rate (GDDR) SDRAM wird in Grafik- und Videokarten verwendet. Wie DDR SDRAMermöglicht diese Technologie die Bewegung von Daten an verschiedenen Punkten in einem CPU-Taktzyklus. Sie läuft jedoch mit höheren Spannungen und hat ein weniger strenges Timing als DDR SDRAM.

Bei parallelen Aufgaben, wie beispielsweise 2D- und 3D-Videowiedergabe, sind enge Zugriffszeiten nicht so notwendig, und GDDR kann die für die GPU-Leistung erforderlichen höheren Geschwindigkeiten und Memory-Bandbreitenermöglichen
https://www.computerweekly.com/de/definition/RAM-Main-Memory-Hauptspeicher-Primaerspeicher
 
  • Gefällt mir
Reaktionen: SweetOhm, Smartbomb und SaschaHa
andi_sco schrieb:
Ich meine mal gelesen zu haben, das GDDR oder auch HBM höhere Latenzen hat, als der normale SD RAM.
Die Latenzen vom HBM sollen sehr nahe an denen von normalen DRAM liegen, da HBM ja auf DRAM basiert. Letztendlich ist es eigentlich nur gestapelter DRAM, also praktisch eine Analogie zum 3D V-Cache bei AMD.

Hier mal ein paar Zitate aus dem Paper "Milestone M1 Report: HBM2/3 Evaluation on Many-core CPU" (Stand: Juni 2018) der ECP Hardware Evaluation Memory Working Group:
HBM is a DRAM stacking technology that vertically stacks multiple DRAM dies and directly connects them with through-silicon vias (TSVs).
However, one way that HBM differs from conventional DDR is the width of its interface; each HBM channel uses a 128-bit wide I/0 interface and each connection can operate at a data rate of up to 2Gbps per wire.
The access latency of HBM is comparable to that of conventional DDR DRAM technology.

Und hier auch noch ein paar interessante Artikel zum einlesen:
HBM’s Future: Necessary But Expensive (Stand: Juli 2023)
RENESAS Low Latency High Bandwidth Memory Datasheet (Stand: Januar 2019)

Ich denke, dass HBM noch ein riesiges Potential hat, das hoffentlich auch irgendwann Einzug in den Consumer-Markt findet. Ich persönlich fände einen Einplatinencomputer (im Stile des Apple Mac Studio) mit HBM absolut wünschenswert!
 
  • Gefällt mir
Reaktionen: SweetOhm und Kitsune-Senpai
C4rp3di3m schrieb:
...immer dieses zu teuer, bei der Fury und 7 war es auch nicht zu teuer.

Ich würde eine HBM GPU sofort kaufen und wenn die 50€ mehr kostet ist mir das egal.

Die Preise für den Verbraucher waren in Ordnung, wie gesagt, die Fury war laut Techpowerup bei der UVP gleichauf mit der GTX 980, eine Vega 64 100$ weniger wie eine GTX 1080 und die Vega 56 20 mehr wie eine GTX 1070.

Allerdings hat man mit den Vega-Karten wohl selbst zur UVP eher wenig Gewinn gemacht:
https://www.pcgameshardware.de/Rade...266623/News/AMD-Marge-Gewinn-Verlust-1237642/
Und als die Preise dann Anfang 2019 purzelten wohl umso mehr...
Verständlich, wenn man einen Fuß in der Tür halten will, aber wirtschaftlich auf Dauer natürlich nicht so gut.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und C4rp3di3m
Hate01 schrieb:
Die Radeon VII hat nach wie vor die höchste Speicherbandbreite aller consumer GPUs.
Schön.

1. Die Radeon VII war ein hektisch auf den Markt geworfener Lückenfüller und wurde von AMD eingestellt als die 5700XT verfügbar war. In Profikarten wurde die Vega 20 noch eine ganze Weile verkauft.

2. Die Bandbreite interessiert nur, wenn sie der Flaschenhals ist. Durch die Caches ist die Speicherbandbreite bei Gaming GPUs kein Flaschenhals.

Lt. GPU Database von TPU
Bandbreite: RTX4090 und Radeon VII praktisch dieselbe
Performance: RTX 4090 356%, Radeon VII 100 %

BTW aus derselben Bandbreite wie die RTX3090TI holt die RTX4090 45% mehr Performace raus.

Für die nächste Generation sollte GDDR7 bereitstehen, das bringt mindestens 33% mehr Bandbreite je Pin. So schnell wird die Bandbreite bei Gaming Grafikkarten nicht zu knapp.
duskstalker schrieb:
HBM ist zwar teurer als GDDR, aber nicht so viel teurer. Der Speicher selber kostet vielleicht 50% mehr als GDDR - also $75 statt $50.
Im ersten Satz stellst Du eine taffe Behauptung auf. Im zweiten Satz offenbarst Du, dass Du es gar nicht weißt.

Ich habe eine ganze Weile gesucht, aber keine Preise gefunden. was auch nicht verwundert, da HBM-Chips ausschließlich B2B gehandelt werden.

Aber nach einem kurzen Blick auf die Darstellung von HBM Stacks:
Ein HBM-Stack hat einen zusätzlichen Logikchip auf dem die Memory-Dies gestapelt werden, die TSV belegen Die Fläche, der Logik-Chip und die Memory-Chips müssen auf ca. 20 µm abgeschliffen werden, dann werden mehrere Lagen gestackt, es gibt zusätzlichen Testaufwand und da nichts zu 100 % perfekt ist auch der Yield der zusätzlichen Schritte nicht 100 %.

Die ganze Sache funktioniert nur mit einem Interposer. Der bringt Fertigungskosten und zusätzliche Montagekosten. Die ganze GPU ist erheblich komplexer was höhere Entwicklungskosten und höheren Testaufwand bedeutet.

Dem ganzen stehen Einsparungen auf dem Mainboard der Grafikkarte gegenüber.

Bei allen Vergleichen zwischen GDDR6 und HBM2/3 sind die höheren Kosten ein wichtiges Thema. HBM leistet sich nur, wer die Bandbreite braucht. Wers Kompakt und mit weniger Power benötigt findet meist eine Lösung mit LPDDR5. BTW hat Apple demonstriert dass mit LPDDR5 leistungsfähige APUs gebaut werden können.


Platzbedarf und Power spielen bei Gaminggrafikkarten praktisch keine Rolle. Power ist beim Fanboygezänk nur dann ein Argument wenn die eigene Seite effizienter ist.

DrSeltsam95 schrieb:
Die Preise für den Verbraucher waren in Ordnung,
Die Preise haben sich daran orientiert was AMD angesichts der Performance der Karten verlangen konnte.

Nvidia konnte für kostengünstigere Karten höhere Preise erzielen. Das erklärt warum die Margen bei Nvidia besser waren.
duskstalker schrieb:
AMD hat bei fury und vega HBM auch irgendwie preislich unterbekommen.
Ist dabei für AMD auch genug übrig geblieben?

Die Geschichte mit dem HBM war für AMD eine notwendiger Schritt um im GPGPU-Markt Fuss fassen zu können. Und speziell bei Vega ist es offensichtlich, dass sie nicht als reine Gaming GPU entwickelt wurde.
CDNA läuft wie Vega vor unter GFX9.

Aber im Gaming Markt hat es AMD nicht weitergebracht. Obwohl AMD teure Technik verramscht hat.
 
  • Gefällt mir
Reaktionen: bensen und SaschaHa
@ETI1120
Aktuell denke ich, ist HBM für normale Grafikkarten absolut kein Thema. GDDR7 wird kommen, und damit ist HBM erstmal nicht relevant, aus den von dir genannten Gründen. Insbesondere der vergrößerte Cache scheint bei RTX 4000 ja auch nochmal Wunder bewirkt zu haben und kompensiert sogar Speicher-Korsetts.

Allerdings steht die Frage im Raum, wohin sich Grafikkarten entwickeln. Mehr und mehr Speicher und Leistung wird auf Dauer keinen mehr befriedigen. Neue Technologien wie Ray Tracing, DLSS, KI-Einheiten (Tensor-Cores) und all sowas wird mit Sicherheit stärker in den Fokus rücken, und weitere Technologien werden folgen. Dadurch wird es völlig neue Möglichkeiten für Spiele-Entwickler geben, aber eben auch völlig neue Anforderungen an die Grafikkarte, sobald diese Technologien sich durchsetzen. Speicher könnte dadurch relevanter werden als aktuell, aber das ist natürlich nur eine vage Vermutung. Wird aber spannend, was die Zukunft bringen wird! Ich schätze aber, dass HBM im Gaming-Markt sich in den nächsten 5 Jahren nicht durchsetzen wird, und danach wird es wohl auch eher kritisch. Die Zukunft von HBM sehe ich auf jeden Fall auch eher im Profi-Segment.
 
SaschaHa schrieb:
Insbesondere der vergrößerte Cache
Da wäre es mal interessant zu wissen, was effektiver ist: ein großer Cache oder z.B. HBM mit 2 - 3 TB/s
 
@andi_sco
Da der Cache ja deutlich niedrigere Latenzen haben sollte, würde ich tippen, dass dieser mehr bringt, zumal eine höhere Speicherbandbreite ja meist auch durch mehr Stromverbrauch erkauft wird, sofern kein Technologiewechsel erfolgt. Ist aber natürlich nur Spekulation. Ich denke, dass RTX 4000 aktuell sehr gut ausgewogen ist. Meine 4070 Ti verliert selbst dann (bisher) keine Leistung, wenn der VRAM komplett voll ist und erhebliche Mengen (4 GB und mehr) in den RAM ausgelagert werden.
 
Zurück
Oben