Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRekordumsätze: Microns HBM-Zug nimmt Fahrt auf und hat viel Geld geladen
Nein! Es gibt nicht genug Bandbreite, auch "Blackwell" z. B. ist Bandbreite beschnitten.
Nvidia hat sogar, das Speicher OC mit purer Absicht auf maximal 375 MHZ+ im Treiber geloggt.
Damit der Kunde nicht noch mehr von der Bandbreite profitiert!
Ziemlich sicher nicht. Zu teuer für quasi keine Vorteile. Blackwell hat ja schon ganz gut gezeigt, dass die Speicherbandbreite kein wirkliches Problem ist. Das war das einzige, was wirklich einen Sprung nach vorne gemacht hat, bringen tut es aber nicht viel. Bis die nächste Generation bei beiden kommt, wird GDDR7 noch günstiger.
anexX schrieb:
Für den Kunden ist erstmal wichtig: Neu ! DDR klingt so ausgelutscht - HBM hingegen weckt Kaufinteresse.
Dem typischen 0815 Käufer interessiert überhaupt nicht, was für Speicher verbaut ist. Hauptsache die Balken in den benchmarks sind lang genug. Vega und Fiji waren ja auch keine Verkaufswunder, trotz HBM.
Wie schon vorher erwähnt, Blackwell zeigt ganz gut, dass Bandbreite nicht das Problem ist. Zukunftssicher ist eh nichts und wenn Karten nicht mehr ausreichend sind, dann in aller Regel weil sie bestimmte Features nicht oder nur zu langsam beherrschen oder allgemein zu wenig Leistung haben. Nicht weil die Speicherbandbreite limitiert.
Eine Radeon VII steht mit ihrem 1TB/s und 16GB noch immer gut da, ist aber heute auch nur ein besserer Briefbeschwerer, weil viel zu langsam und kein DX12 Ultimate. Zukunftssicherheit gibt eher, nicht die teuren Topmodelle zu kaufen und dann früher aufzurüsten.
@Cr4y Naja mit HBM könnte man überlegen einiges an Caches weg zu lassen, was wiederum Chip-Fläche sparen würde. In einer Traumwelt würde das geringere Kosten in der Fertigung bedeuten.
Eigentlich würde es keinen großen Unterschied machen. Ein Haufen GDDR7-Chips kommt auf die gleiche Kapazität und vergleichbare Bandbreite wie ein HBM-Stack. Mit HBM könnte man das alles deutlich kleiner designen, und das wäre auch schick, aber es würde praktisch keinen Mehrwert bieten.
HBM lohnt sich verglichen mit GDDR erst dann überhaupt, wenn der Platz rund um die GPU ausgeht, um Speicherchips unterzubringen.
Aber es ging ja um Zukunftssicherheit. Ich möchte in der Zukunft nicht in einer Auflösung von gestern und Frameraten von vorgestern spielen.
Man kann Regler bedienen, wie man möchte. Wenn der GPU Features fehlen, kannst du damit nichts anfangen. Das aktuelle Doom startet z.B. nicht mal. Klar, wenn man Linux bedienen kann, gibt es auch da Wege, aber Spaß macht das nicht. Viele moderne Spiele erreichen nur mit FSR eine halbwegs brauchbare Framerate, sieht dann aber teils noch übler aus, da nur FSR3.
Aber ja, wenn man sich genug einschränkt passt das schon.... oder halt nur spiele spielt, die damit gut laufen. Trotzdem drehen halbwegs modrne mini GPUs bei einem bruchteil des Energieaufwands mit weniger Bandbreite kreise um eine Radeon 7. Das es noch irgendwie mit hängen und würgen auf einer ehemaligen Oberklasse GPU läuft, ist für mich keine Zukunftssicherheit.
Da sind noch so technische Gründe wie Latenz, Bandbreite, Signalqualität, Interfacegröße auf dem Chip und vor allem Energieverbrauch. AMD hat bei Furi und Vega nicht umsonst da drauf rumgeritten. HBM wurde mal von AMD und Intel im Verbund für APUs entwickelt. Ziel war der Endkunde wie du und ich.
Jetzt mal ehrlich, die ganzen Features machen ein Game vielleicht schöner aber auf gar KEINEN Fall besser !
Heißt im Umkehrschluss, Du zoggst nur noch AAA Titel mit Unterstützung von dem ganzen "Gedöns", weil sonst Augenkrebs bekommst und somit keinen Spaß an dem Game hättest ?!?
Hab erst letztes Jahr Max Payne 1 u. 2 (zum 4. mal) durch gespielt und hatte jede Menge Fun (ohne den "Krempel").
p.s. neulich hab mit GTA V nochmal angefangen und trotz alter GPU und altem Game hab über Hundert FPS bei alles auf max. (sieht immer noch gut aus) und macht voll Laune ...
Das nützt mir aber herzlich wenig, wenn ich ein Spiel spielen möchte, welches das voraussetzt und das wird immer häufiger der Fall sein.
SweetOhm schrieb:
Heißt im Umkehrschluss, Du zoggst nur noch AAA Titel mit Unterstützung von dem ganzen "Gedöns", weil sonst Augenkrebs bekommst und somit keinen Spaß an dem Game hättest ?!?
Nein, dass interpretierst du dir so hin. Das habe ich nirgendwo geschrieben. Ich spiele alles mögliche, dabei sind auch moderne Tripple A Spiele, wie zuletzt Doom. Aber wenn wir hier von Zukunftssicherheit sprechen, mach eine Betrachtung von Spielen, die teils mehrere Jahre älter als die Grafikkarte sind, wenig Sinn.
Raytracing ist mir persönlich z.B. relativ egal. Aber wenn ein Spiel ohne nicht läuft, habe ich da auch keine Wahl. Außer verzichten. Bei FSR4 siehts etwas anders aus. Das ist der Grund, warum ich nicht zu Nvidia gewechselt bin. Ja eine vernünftige Upscalingmethode gehört für mich mittlerweile dazu. Zumindest bei moderneren Titeln.
SweetOhm schrieb:
Hab erst letztes Jahr Max Payne 1 u. 2 (zum 4. mal) durch gespielt und hatte jede Menge Fun (ohne den "Krempel").
Stronghold 1 und Crusader sind mit meinen Lieblingsspiele und die laufen gefühlt auf einem Grafiktaschenrechner. Crusader DE ist neben KCD2 das Spiel in diesem Jahr, auf das ich mich am meisten freue. Trotzdem hatte ich auh Spaß mit dem neuen Doom und diversen anderen Spielen, die deutlich anspruchsvoller an die Hardware sind. Ich spiele auch gerne Shooter, wie Ready or Not, Arma, Hell let loose, ab und an stumpfes geballer in COD oder Battlefield und da kann ich sagen, Ja mit einer miesen Framerate habe ich da deutlich weniger Spaß und das Spiel wird schlechter. Und nein, Auflösung bis unkenntliche zu reduzieren ist da auch keine Option. Ich habe einen relativ breiten Geschmack an Games.
SweetOhm schrieb:
p.s. neulich hab mit GTA V nochmal angefangen und trotz alter GPU und altem Game hab über Hundert FPS bei alles auf max. (sieht immer noch gut aus) und macht voll Laune ...
Das ist ein Spiel, was erstmals 2013 rausgekommen ist und Konsole wie die PS3 als Zielsystem hatte. Klar läuft das auf einer deutlich neueren Karte nicht schlecht.
Aber das alles war ja auch nicht das Thema, sondrn wie sich eine Radeon VII in heutigen Spielen schlägt
Die Betonung liegt auf "wurde Mal von AMD" entwickelt. Fury war zu klein und Vega war eben war für Gaming schlecht geeignet.
Aber dann kam AI mit dem unersättliche Hunger nach Bandbreite und HBM wurde in diese Richtung weiterentwickelt.
Was dazu führt dass die Preise je GB bei HBM kontinuierlich angestiegen sind. Für Gaming würde HBM nur höhere Kosten ohne jeden Nutzen im Vergleich zu GDDR7 bedeuten.
Seit HBM1 würde kontinuierlich für die Bedürfnisse von AI entwickelt. Geringe Kosten hatten dabei keine Priorität. Wenn die AI Blase schwächeln sollte, sind ganz schnell andere Zielgruppen im Gespräch. Gaming ist dann eine davon. AI hat sich technologisch und finanziell abgekoppelt. Einzig Krypto kommt von den Auswirkungen in die Nähe. Die Vorteile wären auch für einen gamingchip ganz klar vorhanden.
Das ist ein Spiel, was erstmals 2013 rausgekommen ist und Konsole wie die PS3 als Zielsystem hatte. Klar läuft das auf einer deutlich neueren Karte nicht schlecht.
Aber das alles war ja auch nicht das Thema, sondrn wie sich eine Radeon VII in heutigen Spielen schlägt
Na ja, die PC Version kam 2015 und sah schon auch um einiges besser aus als auf einer PS3.
Vor allem mit alles auf max. und höherer Auflösung war/ist dies schon um einiges anspruchsvoller.
Spiele jene nur noch starten mit Unterstützung/Voraussetzung div. Features werden (von mir) nicht gekauft.
Deshalb ist´s mir egal, wie es auf (m)einer Radeon VII performen würde ...
Nett für Micron. Bin mal gespannt wie lange es brauchen wird um die HBM nachfrage für (potentiell) Automotive und alle anderen KI chips gedeckt werden kann.
Was das Thema HBM für den normalen Konsumer betrifft, ist doch super das wir das nicht auch noch als Problemstelle haben. Der Hauptteil der Kosten von nvidias KI Beschleunigern sind doch jetzt schon HBM chips. Dann noch von CoWoS Kapazitäten abhängig sein? Brauch ich jetzt nicht unbedingt. GDDR reicht mir da erstmal
Nein , ganz sicher nicht. Außer du willst noch höhere Preise für eine GPU bezahlen. HBM lassen sich Samsung, SK Hynix und Micron aktuell vergolden. Die Nachfrag ist auch riesig.
Bei HBM 1 und HBM 2 ist der Punkt gewesen, dass hier erst mal nur AMD zugegriffen hatte.
9t3ndo schrieb:
Naja mit HBM könnte man überlegen einiges an Caches weg zu lassen, was wiederum Chip-Fläche sparen würde. In einer Traumwelt würde das geringere Kosten in der Fertigung bedeuten.
Und würde die Effizientsteigerung bei RDNA 2 als auch Ada Lovelace auf einen Schlag verlieren. Dazu kommt, dass man ab gewissen Punkten auch an Rechenleistung einbüßen würde in bestimmten Szenarien.
AMD und Nvidia haben selbst in ihrem Profis-GPUs auf riesige Caches umgestellt. GB100 hat 60 MiB L2-Cache. MI300 kommt sogar auf 256 MiB Infinity-Cache.
MehlstaubtheCat schrieb:
Nein! Es gibt nicht genug Bandbreite, auch "Blackwell" z. B. ist Bandbreite beschnitten.
In wie weit ist denn Blackwell in den gängigen Szenarien Bandbreitenlimitiert? Mir ist nicht bekannt, dass Blackwell in den Consumer-Karten an Daten verdurstet.
MehlstaubtheCat schrieb:
Nvidia hat sogar, das Speicher OC mit purer Absicht auf maximal 375 MHZ+ im Treiber geloggt.
Und, wo ist an der Stelle hier das Problem. Sehe ich mir hier die meisten Informationen an über verschiedene Publikationen profiziert Blackwell im Gaming quasi überhaupt nicht von Memory Overclocking was dafür spricht, das die Bandbreite ausreichend ist. 1 - 2 % bei Memory-Overclocking, wenn der teilweise je nach Profil sogar um 50 % angehoben wird, spricht nicht für Bandbreitenprobleme.
Wie gesagt, das alte spiele weiterhin auf einer Karte wie der Radeon VII laufen, hat niemand bezweifelt, nur das es heute noch eine halbwegs gut nutzbare Karte in modernen Spielen, trotz 16GB und 1TB/s.
Ich glaub im oben verlinkten video hat er kurz erwähnt wie teuer das für die 96GB version kommt. Finden den Timestamp dazu gerade nicht mehr.
Und als ich die AI zu Hilfe ziehen wollte musste ich mal wider feststellen wie fucking nutzlos die doch sind.
Der Engpass bei HBM ist erst seit Ende 2022 aufgetreten, als der Bedarf von AI explodiert ist. Zuvor ist der Bedarf von AI an HBM stetig angestiegen. aber AI und HPC waren die hauptsächlichen Anwendungen für HBM, weil bei den anderen potentiellen Anwendungen die Kosten viel zu hoch waren. Insbesondere für Gaming.
Botcruscher schrieb:
Wenn die AI Blase schwächeln sollte, sind ganz schnell andere Zielgruppen im Gespräch.
Da die Bandbreite von GDDR7 die Leistung von Gaming GPUs nicht limitiert, bringt HBM für Grafikkarten im allgemeinen keinen Nutzen.
Es gibt einen einzigen Vorteil, man könnte eine kleine kompakte Grafikkarte wie die Fury Nano bauen. Und hier ist die Frage wie viel Aufpreis dies den Gamern wert ist.
Hat Micron denn schon Details genannt, wie sie das Packaging/die Unterfüllung der RAM Stapel in ihrem HBM4 machen bzw machen wollen? Einer der Hauptgründe, warum SK Hynix hier bislang alleine auf weiter Flur steht ist daß sie exklusive Verträge für das Epoxidharz haben, daß ihr Lieferant und Partner in Japan für sie entwickelt hat. Dieses erlaubt es SK Hynix, ihr HBM4 mit deutlich geringeren Temperaturen und viel weniger Ausschuss zu fertigen als mit den Verfahren, die zZt sowohl Micron als auch Samsung in ihrem HBM3 einsetzen bzw einsetzen müssen. Auch daher steht SK Hynix bei HBM4 bis dato erst einmal alleine da. Da Nvidia aber sehr ungern von nur einem einzigen Lieferanten abhängig ist*, werden sie (Spekulatius meinerseits) hier allerdings zumindest Micron so weit wie möglich entgegen kommen und dafür auch mit Micron zusammen arbeiten.
* Umgekehrt natürlich ist dies genau die Situation (Nvidia = the only game in town), die Nvidia immer anstrebt.
Ergänzung ()
Shoryuken94 schrieb:
Ziemlich sicher nicht. Zu teuer für quasi keine Vorteile. Blackwell hat ja schon ganz gut gezeigt, dass die Speicherbandbreite kein wirkliches Problem ist. Das war das einzige, was wirklich einen Sprung nach vorne gemacht hat, bringen tut es aber nicht viel. Bis die nächste Generation bei beiden kommt, wird GDDR7 noch günstiger.
Dem typischen 0815 Käufer interessiert überhaupt nicht, was für Speicher verbaut ist. Hauptsache die Balken in den benchmarks sind lang genug. Vega und Fiji waren ja auch keine Verkaufswunder, trotz HBM.
Wie schon vorher erwähnt, Blackwell zeigt ganz gut, dass Bandbreite nicht das Problem ist. Zukunftssicher ist eh nichts und wenn Karten nicht mehr ausreichend sind, dann in aller Regel weil sie bestimmte Features nicht oder nur zu langsam beherrschen oder allgemein zu wenig Leistung haben. Nicht weil die Speicherbandbreite limitiert.
Eine Radeon VII steht mit ihrem 1TB/s und 16GB noch immer gut da, ist aber heute auch nur ein besserer Briefbeschwerer, weil viel zu langsam und kein DX12 Ultimate. Zukunftssicherheit gibt eher, nicht die teuren Topmodelle zu kaufen und dann früher aufzurüsten.
Die Radeon VII war, auch wegen des Einsatzes von teurem HBM, eine GPU an der AMD mit jeder Karte eher Geld verloren als verdient hat.
Ergänzung ()
DevPandi schrieb:
Nein , ganz sicher nicht. Außer du willst noch höhere Preise für eine GPU bezahlen. HBM lassen sich Samsung, SK Hynix und Micron aktuell vergolden. Die Nachfrag ist auch riesig.
Bei HBM 1 und HBM 2 ist der Punkt gewesen, dass hier erst mal nur AMD zugegriffen hatte.
Und würde die Effizientsteigerung bei RDNA 2 als auch Ada Lovelace auf einen Schlag verlieren. Dazu kommt, dass man ab gewissen Punkten auch an Rechenleistung einbüßen würde in bestimmten Szenarien.
AMD und Nvidia haben selbst in ihrem Profis-GPUs auf riesige Caches umgestellt. GB100 hat 60 MiB L2-Cache. MI300 kommt sogar auf 256 MiB Infinity-Cache.
In wie weit ist denn Blackwell in den gängigen Szenarien Bandbreitenlimitiert? Mir ist nicht bekannt, dass Blackwell in den Consumer-Karten an Daten verdurstet.
Und, wo ist an der Stelle hier das Problem. Sehe ich mir hier die meisten Informationen an über verschiedene Publikationen profiziert Blackwell im Gaming quasi überhaupt nicht von Memory Overclocking was dafür spricht, das die Bandbreite ausreichend ist. 1 - 2 % bei Memory-Overclocking, wenn der teilweise je nach Profil sogar um 50 % angehoben wird, spricht nicht für Bandbreitenprobleme.
Die Hauptgründe, warum große KI Beschleuniger HBM einsetzen sind a. KI Modelle sind weniger von der maximalen Compute Leistung der "GPU" Dies als von der Geschwindigkeit (Durchsatz) des Arbeitsspeichers abhängig, daher sind die 3-4 x höheren Datenraten von HBM3/3e vs. GDDR7 von Vorteil
b. der Arbeitsspeicher verbraucht ein signifikant großen Teil des gesamten Stromverbrauchs; und HBM ist hier etwas besser (niedriger; in picoJoule/Bit) als GDDR7; GDDR7 wiederum ist etwas effizienter als GDDR6 oder 6X
c. Diese KI Beschleuniger sind in Anschaffung und im Betrieb so teuer, daß die extra Dollar oder Euro für HBM Speicher gerne in Kauf genommen werden, v.a. wenn die Leistung mit in die Relation genommen wird.
Für Grafik lohnt sich HBM3/3e oder 4 einfach nicht, auch aus den von Dir angeführten Gründen; selbst eine 5090 ist nicht durch die Datenrate ihres Speichers limitiert, solange die Daten in den 32 GB VRAM gehalten werden können.
@eastcoast_pete d) die Modelle müssen in den Speicher passen und HBM ermöglicht höhere Kapazitäten als GDDR. Der Punkt fehlte dir noch, ist aber auch enorm wichtig. Denn sobald Modellparameter im Betrieb nachgeladen werden müssen, wird die Verbindung zur CPU zum Flaschenhals und die Performance bricht ein.