News Rekordumsätze: Microns HBM-Zug nimmt Fahrt auf und hat viel Geld geladen

Viper816 schrieb:
Dann kann man ja mal die Frage stellen:

Gamer RTX 6000 and RDNA 5 alias UDNA incoming with HBM?
Viel zu teuer für den Gaming-Bereich! Hier sprechen wir bestimmt von 70 bis 85 % mehr an Kosten pro GB.
Cr4y schrieb:
Aber wozu? Mit GDDR7 gibts doch mehr als genug Bandbreite, oder?
Nein! Es gibt nicht genug Bandbreite, auch "Blackwell" z. B. ist Bandbreite beschnitten.
Nvidia hat sogar, das Speicher OC mit purer Absicht auf maximal 375 MHZ+ im Treiber geloggt.
Damit der Kunde nicht noch mehr von der Bandbreite profitiert!

Gruß
Mehlstaub
 
  • Gefällt mir
Reaktionen: Haldi, Qyxes und SweetOhm
Viper816 schrieb:
Gamer RTX 6000 and RDNA 5 alias UDNA incoming with HBM?

Ziemlich sicher nicht. Zu teuer für quasi keine Vorteile. Blackwell hat ja schon ganz gut gezeigt, dass die Speicherbandbreite kein wirkliches Problem ist. Das war das einzige, was wirklich einen Sprung nach vorne gemacht hat, bringen tut es aber nicht viel. Bis die nächste Generation bei beiden kommt, wird GDDR7 noch günstiger.

anexX schrieb:
Für den Kunden ist erstmal wichtig: Neu ! DDR klingt so ausgelutscht - HBM hingegen weckt Kaufinteresse. ;)

Dem typischen 0815 Käufer interessiert überhaupt nicht, was für Speicher verbaut ist. Hauptsache die Balken in den benchmarks sind lang genug. Vega und Fiji waren ja auch keine Verkaufswunder, trotz HBM.

anexX schrieb:
nennen wir es "Zukunftssicherheit"

Wie schon vorher erwähnt, Blackwell zeigt ganz gut, dass Bandbreite nicht das Problem ist. Zukunftssicher ist eh nichts und wenn Karten nicht mehr ausreichend sind, dann in aller Regel weil sie bestimmte Features nicht oder nur zu langsam beherrschen oder allgemein zu wenig Leistung haben. Nicht weil die Speicherbandbreite limitiert.

Eine Radeon VII steht mit ihrem 1TB/s und 16GB noch immer gut da, ist aber heute auch nur ein besserer Briefbeschwerer, weil viel zu langsam und kein DX12 Ultimate. Zukunftssicherheit gibt eher, nicht die teuren Topmodelle zu kaufen und dann früher aufzurüsten.
 
  • Gefällt mir
Reaktionen: Bullet Tooth
9t3ndo schrieb:
@Cr4y Naja mit HBM könnte man überlegen einiges an Caches weg zu lassen, was wiederum Chip-Fläche sparen würde. In einer Traumwelt würde das geringere Kosten in der Fertigung bedeuten.
Eigentlich würde es keinen großen Unterschied machen. Ein Haufen GDDR7-Chips kommt auf die gleiche Kapazität und vergleichbare Bandbreite wie ein HBM-Stack. Mit HBM könnte man das alles deutlich kleiner designen, und das wäre auch schick, aber es würde praktisch keinen Mehrwert bieten.

HBM lohnt sich verglichen mit GDDR erst dann überhaupt, wenn der Platz rund um die GPU ausgeht, um Speicherchips unterzubringen.
 
  • Gefällt mir
Reaktionen: Viper816
firesnake schrieb:
Eine RTX 5090 würde anstatt mit 32 GB Vram GDDR7 mit 32 GB HBM3E ca. 7950 Euro kosten
Das ist doch die UVP einer 7090 :evillol:
Ergänzung ()

MehlstaubtheCat schrieb:
Viel zu teuer für den Gaming-Bereich! Hier sprechen wir bestimmt von 70 bis 85 % mehr an Kosten pro GB.
Und wenn sich die Preise damit verdoppeln sollten, dann kostet AMD High End 2500 € und NV 4500 €.
Geht doch noch oder ? ;)
Ergänzung ()

Shoryuken94 schrieb:
Bis die nächste Generation bei beiden kommt, wird GDDR7 noch günstiger.
Das glaube ich erst wenn ich es sehe ...
Ergänzung ()

Shoryuken94 schrieb:
Eine Radeon VII steht mit ihrem 1TB/s und 16GB noch immer gut da
Kann ich bestätigen (wenn man Regler bedienen kann) :)
 
Zuletzt bearbeitet:
MehlstaubtheCat schrieb:
Nein! Es gibt nicht genug Bandbreite, auch "Blackwell" z. B. ist Bandbreite beschnitten.
Was bedeutet beschnitten? Und kannst du bitte den Test verlinken der zeigt, dass die Speicherbandbreite limitiert?
 
  • Gefällt mir
Reaktionen: Solavidos und ETI1120
SweetOhm schrieb:
Kann ich bestätigen (wenn man Regler bedienen kann) :)

Aber es ging ja um Zukunftssicherheit. Ich möchte in der Zukunft nicht in einer Auflösung von gestern und Frameraten von vorgestern spielen.

Man kann Regler bedienen, wie man möchte. Wenn der GPU Features fehlen, kannst du damit nichts anfangen. Das aktuelle Doom startet z.B. nicht mal. Klar, wenn man Linux bedienen kann, gibt es auch da Wege, aber Spaß macht das nicht. Viele moderne Spiele erreichen nur mit FSR eine halbwegs brauchbare Framerate, sieht dann aber teils noch übler aus, da nur FSR3.

Aber ja, wenn man sich genug einschränkt passt das schon.... oder halt nur spiele spielt, die damit gut laufen. Trotzdem drehen halbwegs modrne mini GPUs bei einem bruchteil des Energieaufwands mit weniger Bandbreite kreise um eine Radeon 7. Das es noch irgendwie mit hängen und würgen auf einer ehemaligen Oberklasse GPU läuft, ist für mich keine Zukunftssicherheit.
 
stefan92x schrieb:
HBM lohnt sich verglichen mit GDDR erst dann überhaupt, wenn der Platz rund um die GPU ausgeht, um Speicherchips unterzubringen.
Da sind noch so technische Gründe wie Latenz, Bandbreite, Signalqualität, Interfacegröße auf dem Chip und vor allem Energieverbrauch. AMD hat bei Furi und Vega nicht umsonst da drauf rumgeritten. HBM wurde mal von AMD und Intel im Verbund für APUs entwickelt. Ziel war der Endkunde wie du und ich.
 
Shoryuken94 schrieb:
Man kann Regler bedienen, wie man möchte. Wenn der GPU Features fehlen, kannst du damit nichts anfangen.
Jetzt mal ehrlich, die ganzen Features machen ein Game vielleicht schöner aber auf gar KEINEN Fall besser !
Heißt im Umkehrschluss, Du zoggst nur noch AAA Titel mit Unterstützung von dem ganzen "Gedöns", weil sonst Augenkrebs bekommst und somit keinen Spaß an dem Game hättest ?!?
Hab erst letztes Jahr Max Payne 1 u. 2 (zum 4. mal) durch gespielt und hatte jede Menge Fun (ohne den "Krempel").

p.s. neulich hab mit GTA V nochmal angefangen und trotz alter GPU und altem Game hab über Hundert FPS bei alles auf max. (sieht immer noch gut aus) und macht voll Laune ...
 

Anhänge

  • FPS.jpg
    FPS.jpg
    195,9 KB · Aufrufe: 44
Zuletzt bearbeitet:
SweetOhm schrieb:
Jetzt mal ehrlich, die ganzen Features machen ein Game vielleicht schöner aber auf gar KEINEN Fall besser !

Das nützt mir aber herzlich wenig, wenn ich ein Spiel spielen möchte, welches das voraussetzt und das wird immer häufiger der Fall sein.

SweetOhm schrieb:
Heißt im Umkehrschluss, Du zoggst nur noch AAA Titel mit Unterstützung von dem ganzen "Gedöns", weil sonst Augenkrebs bekommst und somit keinen Spaß an dem Game hättest ?!?

Nein, dass interpretierst du dir so hin. Das habe ich nirgendwo geschrieben. Ich spiele alles mögliche, dabei sind auch moderne Tripple A Spiele, wie zuletzt Doom. Aber wenn wir hier von Zukunftssicherheit sprechen, mach eine Betrachtung von Spielen, die teils mehrere Jahre älter als die Grafikkarte sind, wenig Sinn.

Raytracing ist mir persönlich z.B. relativ egal. Aber wenn ein Spiel ohne nicht läuft, habe ich da auch keine Wahl. Außer verzichten. Bei FSR4 siehts etwas anders aus. Das ist der Grund, warum ich nicht zu Nvidia gewechselt bin. Ja eine vernünftige Upscalingmethode gehört für mich mittlerweile dazu. Zumindest bei moderneren Titeln.
SweetOhm schrieb:
Hab erst letztes Jahr Max Payne 1 u. 2 (zum 4. mal) durch gespielt und hatte jede Menge Fun (ohne den "Krempel").

Stronghold 1 und Crusader sind mit meinen Lieblingsspiele und die laufen gefühlt auf einem Grafiktaschenrechner. Crusader DE ist neben KCD2 das Spiel in diesem Jahr, auf das ich mich am meisten freue. Trotzdem hatte ich auh Spaß mit dem neuen Doom und diversen anderen Spielen, die deutlich anspruchsvoller an die Hardware sind. Ich spiele auch gerne Shooter, wie Ready or Not, Arma, Hell let loose, ab und an stumpfes geballer in COD oder Battlefield und da kann ich sagen, Ja mit einer miesen Framerate habe ich da deutlich weniger Spaß und das Spiel wird schlechter. Und nein, Auflösung bis unkenntliche zu reduzieren ist da auch keine Option. Ich habe einen relativ breiten Geschmack an Games.
SweetOhm schrieb:
p.s. neulich hab mit GTA V nochmal angefangen und trotz alter GPU und altem Game hab über Hundert FPS bei alles auf max. (sieht immer noch gut aus) und macht voll Laune ...

Das ist ein Spiel, was erstmals 2013 rausgekommen ist und Konsole wie die PS3 als Zielsystem hatte. Klar läuft das auf einer deutlich neueren Karte nicht schlecht.

Aber das alles war ja auch nicht das Thema, sondrn wie sich eine Radeon VII in heutigen Spielen schlägt
 
Botcruscher schrieb:
HBM wurde mal von AMD und Intel im Verbund für APUs entwickelt. Ziel war der Endkunde wie du und ich.
Die Betonung liegt auf "wurde Mal von AMD" entwickelt. Fury war zu klein und Vega war eben war für Gaming schlecht geeignet.

Aber dann kam AI mit dem unersättliche Hunger nach Bandbreite und HBM wurde in diese Richtung weiterentwickelt.

Was dazu führt dass die Preise je GB bei HBM kontinuierlich angestiegen sind. Für Gaming würde HBM nur höhere Kosten ohne jeden Nutzen im Vergleich zu GDDR7 bedeuten.
 
  • Gefällt mir
Reaktionen: Haldi und DevPandi
Seit HBM1 würde kontinuierlich für die Bedürfnisse von AI entwickelt. Geringe Kosten hatten dabei keine Priorität. Wenn die AI Blase schwächeln sollte, sind ganz schnell andere Zielgruppen im Gespräch. Gaming ist dann eine davon. AI hat sich technologisch und finanziell abgekoppelt. Einzig Krypto kommt von den Auswirkungen in die Nähe. Die Vorteile wären auch für einen gamingchip ganz klar vorhanden.
 
Shoryuken94 schrieb:
Das ist ein Spiel, was erstmals 2013 rausgekommen ist und Konsole wie die PS3 als Zielsystem hatte. Klar läuft das auf einer deutlich neueren Karte nicht schlecht.

Aber das alles war ja auch nicht das Thema, sondrn wie sich eine Radeon VII in heutigen Spielen schlägt
Na ja, die PC Version kam 2015 und sah schon auch um einiges besser aus als auf einer PS3.
Vor allem mit alles auf max. und höherer Auflösung war/ist dies schon um einiges anspruchsvoller.
Spiele jene nur noch starten mit Unterstützung/Voraussetzung div. Features werden (von mir) nicht gekauft.
Deshalb ist´s mir egal, wie es auf (m)einer Radeon VII performen würde ... ;)
 
Nett für Micron. Bin mal gespannt wie lange es brauchen wird um die HBM nachfrage für (potentiell) Automotive und alle anderen KI chips gedeckt werden kann.
Was das Thema HBM für den normalen Konsumer betrifft, ist doch super das wir das nicht auch noch als Problemstelle haben. Der Hauptteil der Kosten von nvidias KI Beschleunigern sind doch jetzt schon HBM chips. Dann noch von CoWoS Kapazitäten abhängig sein? Brauch ich jetzt nicht unbedingt. GDDR reicht mir da erstmal
 
Viper816 schrieb:
Gamer RTX 6000 and RDNA 5 alias UDNA incoming with HBM?
Nein , ganz sicher nicht. Außer du willst noch höhere Preise für eine GPU bezahlen. HBM lassen sich Samsung, SK Hynix und Micron aktuell vergolden. Die Nachfrag ist auch riesig.

Bei HBM 1 und HBM 2 ist der Punkt gewesen, dass hier erst mal nur AMD zugegriffen hatte.
9t3ndo schrieb:
Naja mit HBM könnte man überlegen einiges an Caches weg zu lassen, was wiederum Chip-Fläche sparen würde. In einer Traumwelt würde das geringere Kosten in der Fertigung bedeuten.
Und würde die Effizientsteigerung bei RDNA 2 als auch Ada Lovelace auf einen Schlag verlieren. Dazu kommt, dass man ab gewissen Punkten auch an Rechenleistung einbüßen würde in bestimmten Szenarien.

AMD und Nvidia haben selbst in ihrem Profis-GPUs auf riesige Caches umgestellt. GB100 hat 60 MiB L2-Cache. MI300 kommt sogar auf 256 MiB Infinity-Cache.
MehlstaubtheCat schrieb:
Nein! Es gibt nicht genug Bandbreite, auch "Blackwell" z. B. ist Bandbreite beschnitten.
In wie weit ist denn Blackwell in den gängigen Szenarien Bandbreitenlimitiert? Mir ist nicht bekannt, dass Blackwell in den Consumer-Karten an Daten verdurstet.
MehlstaubtheCat schrieb:
Nvidia hat sogar, das Speicher OC mit purer Absicht auf maximal 375 MHZ+ im Treiber geloggt.
Und, wo ist an der Stelle hier das Problem. Sehe ich mir hier die meisten Informationen an über verschiedene Publikationen profiziert Blackwell im Gaming quasi überhaupt nicht von Memory Overclocking was dafür spricht, das die Bandbreite ausreichend ist. 1 - 2 % bei Memory-Overclocking, wenn der teilweise je nach Profil sogar um 50 % angehoben wird, spricht nicht für Bandbreitenprobleme.
 
  • Gefällt mir
Reaktionen: eastcoast_pete und 12nebur27
SweetOhm schrieb:
Na ja, die PC Version kam 2015 und sa
Ist am Ende trotzdem ein altes Spiel, was noch mal aufgehübscht wurde.

SweetOhm schrieb:
Spiele jene nur noch starten mit Unterstützung/Voraussetzung div. Features werden (von mir) nicht gekauft.

Bedeutet in Unkehrsghluss, dass du irgendwann keine Spiele mehr kaufst.
SweetOhm schrieb:
Deshalb ist´s mir egal, wie es auf (m)einer Radeon VII performen würde ... ;)

Wie gesagt, das alte spiele weiterhin auf einer Karte wie der Radeon VII laufen, hat niemand bezweifelt, nur das es heute noch eine halbwegs gut nutzbare Karte in modernen Spielen, trotz 16GB und 1TB/s.
 
Also wenn es so kommt das sämtliche Selbstfahrenden Autos von Mercedes auch HBM verwenden dann wird die Nachfrage auch weiterhin ziemlich gross sein.

ruthi91 schrieb:
Wer auf 4K zockt weiß, dass das den Speicherverbrauch hochtreibt.
Na dann aktiviert doch DLSS Ultra Performance dann rendert das in 720p und dein VRAM verbrauch sinkt wieder.
The way its meant to be played!

Botcruscher schrieb:
Nö, bei weitem nicht. Google spuckt keine neuen Quellen aus. 2018 waren es für 16 GB HBM2 ca. 240$. gegenüber 176$ für GDDR6.
Ich glaub im oben verlinkten video hat er kurz erwähnt wie teuer das für die 96GB version kommt. Finden den Timestamp dazu gerade nicht mehr.
Und als ich die AI zu Hilfe ziehen wollte musste ich mal wider feststellen wie fucking nutzlos die doch sind.
 
Botcruscher schrieb:
Seit HBM1 würde kontinuierlich für die Bedürfnisse von AI entwickelt. Geringe Kosten hatten dabei keine Priorität.
Der Engpass bei HBM ist erst seit Ende 2022 aufgetreten, als der Bedarf von AI explodiert ist. Zuvor ist der Bedarf von AI an HBM stetig angestiegen. aber AI und HPC waren die hauptsächlichen Anwendungen für HBM, weil bei den anderen potentiellen Anwendungen die Kosten viel zu hoch waren. Insbesondere für Gaming.
Botcruscher schrieb:
Wenn die AI Blase schwächeln sollte, sind ganz schnell andere Zielgruppen im Gespräch.
Ein Teil des Preises für HBM resultiert aus der hohen Nachfrage. Dieser Teil würde entfallen.
Botcruscher schrieb:
Gaming ist dann eine davon.
Bei den Grafikarten nur dann wenn HBM billiger als GDDR7 wird.
Botcruscher schrieb:
AI hat sich technologisch und finanziell abgekoppelt. Einzig Krypto kommt von den Auswirkungen in die Nähe.
Krypto ist kein Vergleich.
Das waren ca. 2 Milliarden Umsatz je Quartal bei Nvidia. Data Center war 39,1 Mrd in Q1 2026.
Botcruscher schrieb:
Die Vorteile wären auch für einen gamingchip ganz klar vorhanden.
Da die Bandbreite von GDDR7 die Leistung von Gaming GPUs nicht limitiert, bringt HBM für Grafikkarten im allgemeinen keinen Nutzen.

Es gibt einen einzigen Vorteil, man könnte eine kleine kompakte Grafikkarte wie die Fury Nano bauen. Und hier ist die Frage wie viel Aufpreis dies den Gamern wert ist.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
Hat Micron denn schon Details genannt, wie sie das Packaging/die Unterfüllung der RAM Stapel in ihrem HBM4 machen bzw machen wollen? Einer der Hauptgründe, warum SK Hynix hier bislang alleine auf weiter Flur steht ist daß sie exklusive Verträge für das Epoxidharz haben, daß ihr Lieferant und Partner in Japan für sie entwickelt hat. Dieses erlaubt es SK Hynix, ihr HBM4 mit deutlich geringeren Temperaturen und viel weniger Ausschuss zu fertigen als mit den Verfahren, die zZt sowohl Micron als auch Samsung in ihrem HBM3 einsetzen bzw einsetzen müssen. Auch daher steht SK Hynix bei HBM4 bis dato erst einmal alleine da. Da Nvidia aber sehr ungern von nur einem einzigen Lieferanten abhängig ist*, werden sie (Spekulatius meinerseits) hier allerdings zumindest Micron so weit wie möglich entgegen kommen und dafür auch mit Micron zusammen arbeiten.
* Umgekehrt natürlich ist dies genau die Situation (Nvidia = the only game in town), die Nvidia immer anstrebt.
Ergänzung ()

Shoryuken94 schrieb:
Ziemlich sicher nicht. Zu teuer für quasi keine Vorteile. Blackwell hat ja schon ganz gut gezeigt, dass die Speicherbandbreite kein wirkliches Problem ist. Das war das einzige, was wirklich einen Sprung nach vorne gemacht hat, bringen tut es aber nicht viel. Bis die nächste Generation bei beiden kommt, wird GDDR7 noch günstiger.



Dem typischen 0815 Käufer interessiert überhaupt nicht, was für Speicher verbaut ist. Hauptsache die Balken in den benchmarks sind lang genug. Vega und Fiji waren ja auch keine Verkaufswunder, trotz HBM.



Wie schon vorher erwähnt, Blackwell zeigt ganz gut, dass Bandbreite nicht das Problem ist. Zukunftssicher ist eh nichts und wenn Karten nicht mehr ausreichend sind, dann in aller Regel weil sie bestimmte Features nicht oder nur zu langsam beherrschen oder allgemein zu wenig Leistung haben. Nicht weil die Speicherbandbreite limitiert.

Eine Radeon VII steht mit ihrem 1TB/s und 16GB noch immer gut da, ist aber heute auch nur ein besserer Briefbeschwerer, weil viel zu langsam und kein DX12 Ultimate. Zukunftssicherheit gibt eher, nicht die teuren Topmodelle zu kaufen und dann früher aufzurüsten.
Die Radeon VII war, auch wegen des Einsatzes von teurem HBM, eine GPU an der AMD mit jeder Karte eher Geld verloren als verdient hat.
Ergänzung ()

DevPandi schrieb:
Nein , ganz sicher nicht. Außer du willst noch höhere Preise für eine GPU bezahlen. HBM lassen sich Samsung, SK Hynix und Micron aktuell vergolden. Die Nachfrag ist auch riesig.

Bei HBM 1 und HBM 2 ist der Punkt gewesen, dass hier erst mal nur AMD zugegriffen hatte.

Und würde die Effizientsteigerung bei RDNA 2 als auch Ada Lovelace auf einen Schlag verlieren. Dazu kommt, dass man ab gewissen Punkten auch an Rechenleistung einbüßen würde in bestimmten Szenarien.

AMD und Nvidia haben selbst in ihrem Profis-GPUs auf riesige Caches umgestellt. GB100 hat 60 MiB L2-Cache. MI300 kommt sogar auf 256 MiB Infinity-Cache.

In wie weit ist denn Blackwell in den gängigen Szenarien Bandbreitenlimitiert? Mir ist nicht bekannt, dass Blackwell in den Consumer-Karten an Daten verdurstet.

Und, wo ist an der Stelle hier das Problem. Sehe ich mir hier die meisten Informationen an über verschiedene Publikationen profiziert Blackwell im Gaming quasi überhaupt nicht von Memory Overclocking was dafür spricht, das die Bandbreite ausreichend ist. 1 - 2 % bei Memory-Overclocking, wenn der teilweise je nach Profil sogar um 50 % angehoben wird, spricht nicht für Bandbreitenprobleme.
Die Hauptgründe, warum große KI Beschleuniger HBM einsetzen sind a. KI Modelle sind weniger von der maximalen Compute Leistung der "GPU" Dies als von der Geschwindigkeit (Durchsatz) des Arbeitsspeichers abhängig, daher sind die 3-4 x höheren Datenraten von HBM3/3e vs. GDDR7 von Vorteil
b. der Arbeitsspeicher verbraucht ein signifikant großen Teil des gesamten Stromverbrauchs; und HBM ist hier etwas besser (niedriger; in picoJoule/Bit) als GDDR7; GDDR7 wiederum ist etwas effizienter als GDDR6 oder 6X
c. Diese KI Beschleuniger sind in Anschaffung und im Betrieb so teuer, daß die extra Dollar oder Euro für HBM Speicher gerne in Kauf genommen werden, v.a. wenn die Leistung mit in die Relation genommen wird.

Für Grafik lohnt sich HBM3/3e oder 4 einfach nicht, auch aus den von Dir angeführten Gründen; selbst eine 5090 ist nicht durch die Datenrate ihres Speichers limitiert, solange die Daten in den 32 GB VRAM gehalten werden können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ETI1120
@eastcoast_pete d) die Modelle müssen in den Speicher passen und HBM ermöglicht höhere Kapazitäten als GDDR. Der Punkt fehlte dir noch, ist aber auch enorm wichtig. Denn sobald Modellparameter im Betrieb nachgeladen werden müssen, wird die Verbindung zur CPU zum Flaschenhals und die Performance bricht ein.
 
  • Gefällt mir
Reaktionen: eastcoast_pete

Ähnliche Themen

Zurück
Oben