HBM
Aktuelle HBM News
Feed-
Höchste DRAM-Preise Auch Micron verdient in Kürze mehr mit DRAM als mit HBM
Micron war stets transparent, was die hohen Kosten von HBM angeht. Diese führen nun dazu, dass man mit DRAM schon bald mehr Gewinn einfährt.
-
DDR5, LPDDR5X, GDDR7 Samsungs DRAM hat doppelt so hohe Margen gegenüber HBM
Zuletzt schon vermeldet untermauern weitere Medienberichte dies nun: Samsung wird viel mehr DRAM fertigen, weil die Margen sehr hoch sind.
-
Speicherproduktion fährt hoch SK Hynix und Samsung entdecken DRAM neben HBM neu
SK Hynix ist aktuell Marktführer bei HBM, doch die Konkurrenz holt auf. Eine gute Zeit, die DRAM-Produktion wieder hochzufahren.
-
Milliardeninvestition Micron soll großen Fabrikausbau für HBM4(E) in Japan planen
Die anlaufende Speicherkrise soll Micron zu einem Ausbau in Japan bewegen. Bis zu 1,5 Billionen Yen könnten investiert werden.
-
7-Eleven × SK Hynix Essbare HBM-Chips schmecken nach Honig-Banane
SK Hynix und 7-Eleven haben in Südkorea „HBM-Chips“ auf den Markt gebracht. Sie schmecken nach Honig-Banane.
-
HBM5(e), (LP)DDR6, GDDR8 SK Hynix zeigt neue Speicher-Roadmap für 2029 bis 2031
SK Hynix hat im Rahmen des AI Summit 2025 eine Speicherroadmap gezeigt, auch HBM5(e), DDR6 und GDDR8 sind darauf zu finden.
-
Gute Quartalszahlen Samsung verkauft endlich HBM3e und viel DRAM und NAND
Samsung hat endlich den Absatz von HBM3e gestartet. Die Verkäufe von DDR5 und NAND ziehen ebenfalls stark an und damit Samsung nach oben.
-
Rekorde bei SK Hynix HBM, DRAM und NAND sind für 2026 komplett ausverkauft
SK Hynix wird auch 2026 jeden HBM-Chip verkaufen, der gefertigt wird – das vierte Jahr in Folge. Bei DRAM und NAND wird es auch so kommen.
-
RAM-Preise explodieren DDR4 und DDR5 erzielen bald höhere Margen als HBM
Der Anstieg der Speicherpreise nimmt Fahrt auf: Bald sind die Margen bei DRAM höher als bei HBM. 2026 könnte teuer werden.
-
Schneller AI-Speicher HBM4 wird wohl noch teurer als bisher erwartet
HBM3e ist zuletzt teurer geworden, aber HBM4 wird das wohl deutlich toppen. 60 Prozent Aufpreis sind nun gegenüber HBM3e wieder im Gespräch.
-
Samsung Foundry Mehr High-NA-EUV und HBM4e mit 13 Gbps in den Plänen
Samsung soll in den kommenden Monaten zwei weitere High-NA-EUV-Systeme erhalten. Die könnten auch bei HBM4e mit 13 Gbps eingesetzt werden.
-
Chinas Speicherhersteller YMTC plant mit DRAM und HBM, HBM3 von CXMT verzögert
Bisher ist YMTC Chinas bester NAND-Hersteller, nun will er auch DRAM und HBM fertigen. Bei HBM3 von CXMT klemmt es hingegen weiterhin.
-
Samsungs HBM-Probleme Mehr Umsatz mit DRAM als HBM und in Summe hinter SK Hynix
Laut einer eigenen Studie verdient Samsung mit klassischem Arbeitsspeicher mehr als mit HBM. Und SK Hynix übertrifft beides.
-
Huawei vs. Nvidia Roadmap mit neuen Ascend-Chips, eigenem HBM und SuperPoDs
Huawei hat viele neue AI-Produkte enthüllt und neue SuperPoDs vorgestellt. Vor allem über die Skalierung will man Nvidia schlagen.
-
HBM4 ist fertig SK Hynix schickt HBM4 mit „über 10 Gbps“ für Nvidia in Serie
Nun ist es offiziell: SK Hynix hat die Entwicklung von HBM4 abgeschlossen und die Serienproduktion aufgenommen.
-
HBM4 mit 11 Gbps Nvidia will von Partnern immer schnelleren AI-Speicher
Die Taktraten für erste HBM4-Chips sind aktuell weiter fließend. Nvidia will stetig höhere sehen, Partner arbeiten daran sie zu liefern.
-
Größter Flaschenhals für AI China will Ausnahmen für HBM mit den USA neu verhandeln
Chinas AI-Beschleuniger werden stetig besser, doch ein großer Flaschenhals bleibt: HBM. Hier will das Land nun mit den USA neu verhandeln.
-
HBM3E für Nvidia SK Hynix schreddert alte Rekorde und nähert sich der Spitze
Mit überragenden Quartalszahlen hat SK Hynix alte Rekorde zu den Akten gelegt. Nun gibt es Befürchtungen, dass man kaum mehr wachsen kann.
-
Massive Preissteigerungen RAM von DDR3 bis DDR5 sowie GDDR6 soll bis zu 45 % teurer werden
RAM wird wieder teurer, das ist nicht erst seit gestern sichtbar. Im aktuellen dritten Quartal sollen die Preise aller Varianten anziehen.
-
Vor Apple und Co Huawei soll als Erster auf HBM in Smartphones setzen
Huawei soll als erster Hersteller auf schnellen, 3D-gestapelten HBM-DRAM in künftigen Smartphones setzen – vor Apple und Samsung.
-
Rolle Rückwärts Ohne Nvidia als Kunden halbiert Samsung die HBM-Fertigung
Es ist das eingetreten, was nicht passieren sollte: Samsung muss die HBM3-Produktion drosseln, weil Nvidia als Kunde nicht verfügbar ist.
-
Rekordumsätze Microns HBM-Zug nimmt Fahrt auf und hat viel Geld geladen
Micron ist im HBM-Geschäft angekommen. Chips für Nvidia Blackwell und AMD Instinct spülen Geld in die Kassen des Speicherriesen.
-
Technologie-Roadmap „Kim's Law“-Professor liefert Vision vom Weg bis HBM8
Wie könnte die Entwicklung von HBM3e bis HBM8 im Jahr 2038 aussehen? Eine Technologie-Roadmap zeichnet eine irre Entwicklung.
-
HBM4 wird bemustert Micron folgt SK Hynix und kommt Samsung zuvor
Knapp drei Monate nach SK Hynix verkündet Micron die Verfügbarkeit von Musterchips des neuen HBM4-Standards und kommt Samsung zuvor.
-
HBM3 für Nvidia Zertifizierung von Samsung HBM3E 12Hi auf Q4 verschoben
Samsung bekommt es nicht hin, fortschrittlicher HBM3E wird nicht fertig. Erneut soll eine Verschiebung anberaumt sein, heißt es.
-
Teurer Speicher HBM4 soll 30 Prozent mehr als HBM3E kosten
HBM4 wird nicht nur erheblich schneller, sondern auch deutlich teurer. Das besagt eine Analyse der Marktforscher von TrendForce.
-
Speicher aus China CXMT plant mit HBM3, während DDR5 noch Probleme macht
ChangXin Memory Technologies (CXMT) als aufstrebender Speicherhersteller aus China soll Ende des Jahres HBM3 an den Start bringen.
-
HBM3E für Nvidia Samsung produziert ohne Zertifizierung große Mengen vor
Samsung produziert bereits große Mengen an HBM3E, doch die Zertifizierung von Nvidia lässt weiterhin auf sich warten. Ein gewagtes Spiel.
-
Zu viel fehlerhafter HBM Update Nvidia nimmt nur noch getestete Chips von Zulieferern ab
HBM war zwischenzeitlich und ist zum Teil noch bis heute das Zünglein an der Waage für Nvidias AI-Chips. Neue Abnahmeregeln sollen gelten.
-
Produktabnahme von Nvidia Samsungs HBM3E soll qualifiziert werden – schon wieder
Im Juni könnte Samsungs HBM3E endlich von Nvidia qualifiziert werden. Diese Story klingt wie eine Wiederholung der Computex vor einem Jahr.
-
SK Hynix steigert Gewinn HBM für Nvidia spült weiterhin viel Geld in die Kassen
Bei klassischem RAM und NAND passiert wenig, HBM ist und bleibt das Zugpferd für Speicherhersteller, allen voran SK Hynix.
-
Standard veröffentlicht HBM4 ist fertig und noch etwas schneller geworden
Jetzt sind sie final, die Spezifikationen für die neue Generation des High Bandwidth Memory, der als HBM4 vor allem noch schneller wird.
-
Google Ironwood (TPU v7p) Neuer KI-Chip für FP8 mit 192 GByte HBM3 und ~1.000 Watt
Google hat mit Ironwood v7p die siebte Generation einer eigenen TPU vorgestellt. Sie ist genau genommen aber eher der Nachfolger von v5p.
-
Gewinn verdoppelt Micron knackt Milliardenmarke beim Quartalsumsatz mit HBM
Micron ist erfolgreich auf den HBM-Zug gesprungen. Im letzten Quartal wurde erstmals die Milliardenmarke beim Umsatz mit HBM übertroffen.
-
Samsung im Krisenmodus HBM für Blackwell Ultra erwartet, 1-nm-Chips nicht eingestellt
Für Nvidia Blackwell Ultra eröffnet sich für Samsung die Chance, HBM zu liefern. Die letzten ließ man nach großen Ankündigungen platzen.
-
Für Rubin und Feynman Update SK Hynix, Samsung und Micron zeigen HBM4E mit bis zu 64 GB
Zur GTC 2025 haben die großen SK Hynix, Samsung und Micron HBM in diversen Ausbaustufen einschließlich 48 GB HBM4 und 64 GB HBM4E mit dabei.
-
High Bandwidth Flash SanDisk plant Riesenspeicher für KI-Beschleuniger
SanDisk wird nach der Abspaltung von Western Digital bald wieder eigenständig und hat große Pläne. Einer davon ist der High Bandwidth Flash.
-
Quartalszahlen von SK Hynix 4 Mrd. USD Umsatz mit HBM (für Nvidia) bringen neue Rekorde
Als Nummer 1 im HBM-Geschäft und ohne echte Schwächen in anderen Bereichen profitiert nun auch SK Hynix vom AI-Boom.
-
Speicher für AI Micron investiert 7 Mrd. USD in HBM-Packaging-Komplex
Jeder moderne AI-Beschleuniger setzt auf HBM. Die Kapazitäten sind knapp, Micron baut deshalb einen neuen Komplex in Singapur.
-
Grafikspeicher für Nvidia Samsung ist bei GDDR7 top, HBM3e macht weiter Probleme
GDDR7 von Samsung kommt auf der RTX 5090 zum Einsatz, doch HBM3e mit 12 Stacks benötigt ein weiteres Redesign, um genutzt werden zu können.
-
AMD Instinct MI300C Ein Custom-Epyc-Prozessor mit 128 GB HBM3 für Microsoft
Zur SC24 hat Azure den ersten Zen-4-Prozessor mit HBM3 an den Start gebracht. Dahinter verbirgt sich MI300C, wie er seit langem geplant ist.
-
HBM3E 16-High SK Hynix präsentiert Stapelspeicher mit 16 Lagen
Der aus übereinander gestapelten DRAM-Dies bestehende High Bandwidth Memory (HBM) erhält weitere Schichten.
-
Anfrage bei SKHynix Nvidia will früher auf HBM4-Chips mit 1,6 TB/s setzen können
Nvidia möchte HBM4-Speicher sechs Monate früher nutzen können, als ihn Hersteller SKHynix bis dato auf der Roadmap hatte.
-
Micron „Wir starten in das Geschäftsjahr 2025 mit der besten Wettbewerbsposition“
Bei Micron läuft es rund und zwar in allen Bereichen. Das sorgt für Umsatzrekorde und einen mehr als rosigen Ausblick.
-
Schnellerer Speicher für AI Rambus liefert Spezifikationen für neue HBM4-Controller
Rambus liefert die erste „IP“ für HBM4-Controller an Kundschaft aus. Diese können nun starten, ihre Chips damit zu entwerfen.
-
Quartalszahlen von SK Hynix Umsatz steigt um 125%, Gewinn um 5,1 Mrd. USD, Aktie fällt
SK Hynix meldet sehr gute Zahlen für das zweite Quartal, dennoch stürzt die Aktie im Handel heute um 9 Prozent ab.
-
JEDEC Spezifikationen von HBM4 rücken näher
Die für Speicherstandards zuständige Organisation JEDEC hat mitgeteilt, dass sich die Finalisierung des HBM4-Standards nähert.
-
AI-Chips-Boom Neben HBM-Chips fürs Packaging werden Interposer knapp
Auch ohne Interposer geht bei den aktuellen AI-Beschleuniger-Chips nichts. Nun werden sie ebenfalls zu einem knappen Gut.
-
Weitere US-Sanktionen GAA-Technologien und HBM sollen nicht nach China kommen
FinFET-Transistoren sind seit 15 Jahren Stand der Technik, Gate all around (GAA) übernimmt demnächst. Geht es nach den USA nicht in China.
-
Q&A mit Jensen Huang RTX 5000 ist „aufregend“, Samsungs HBM3e „keine Story“
In einer Q&A-Session auf der Computex hat Nvidias CEO Jensen Huang auch Fragen zu RTX 5000 und HBM3e-Problemen beantworten müssen.
-
Zu viel Strom und Wärme? Samsung dementiert Berichte über mangelhafte HBM-Chips
Seit Wochen kursieren Gerüchte, dass bei Samsungs neuen HBM-Chips noch Optimierungen für den Einsatz bei Nvidia nötig seien.
-
Technologie-Kooperation SK Hynix sucht TSMCs Hilfe bei HBM4 und Packaging
HBM schwimmt dank AI auf der Erfolgswelle. Marktführer SK Hynix sucht nun TSMCs Nähe, um auch in Zukunft vorne mitzuspielen.
-
Advanced Packaging SK Hynix bestätigt neue US-Fab für HBM in Indiana
Gefertigt werden soll am neuen Standort von SK Hynix unter anderem die nächste Generation High Bandwidth Memory (HBM) für neue AI-Systeme.
-
Erster HBM3E in Serie? SK Hynix ignoriert Micron einfach mal komplett
Wer ist denn nun erster bei der neuen Speichergeneration HBM3E? SK Hynix will das heute sein, doch war Microns Ankündigung schneller.
-
DRAM-Produktion Bald laufen 250.000 HBM-Wafer pro Monat vom Band
Die globale KI-Welle sorgt für Bedarf an schnellem High Bandwidth Memory (HBM), dessen Anteile an der DRAM-Produktion massiv steigen.
-
Verhandlungen mit SK Hynix Update Vorschlag zur Herstellung von HBM-Chips in Kioxias Werken
Werden bald HBM-Chips von SK Hynix in den Werken von Kioxia hergestellt? Darüber gibt es nun Gerüchte.
-
Serienfertigung gestartet Micron bestückt Nvidias H200 mit 144 GB HBM3E
Micron hat die Serienfertigung seines schnellen HBM3E-Speichers gestartet, der schon bald in Nvidias H200 eingesetzt wird.
-
Arbeitsspeicher GDDR7, HBM3E und LPDDR5X werden weiter beschleunigt
Zu den Themen der diesjährigen ISSCC gehören Neuheiten aus dem DRAM-Bereich. Bei GDDR7, LPDDR5 und HBM3E gibt es Fortschritte.
-
Speicher-Comeback SK Hynix meldet Gewinn und Fokus auf „AI Memory“
Nach vier Quartalen in den roten Zahlen meldet SK Hynix zum Jahresabschluss überraschend bereits einen Gewinn. Der Start in die neue Phase.
-
HBM-Kapazitätsausbau Samsung will Investitionen um zwei Mal Faktor 2,5 steigern
Samsung entwickelt zwar schon länger HBM, aber nicht so fokussiert wie SK Hynix. Nun dreht der Branchenriese die Investitionshahn auf.
-
Krise vorbei Micron ist mit DRAM und HBM zurück im Geschäft
DRAM und HBM ziehen Micron aus dem Loch. Letztere Technologie ist bereits für das ganze Jahr 2024 ausverkauft. Bei NAND dauert es noch.
-
Neues Design-Konzept SK Hynix will HBM und GPU zu einem Chip vereinen
Nicht mehr nur nahe am Prozessor, sondern direkt über diesem in einem Chipgehäuse vereint, soll HBM künftig eingesetzt werden.
-
Micron-Roadmap Pläne für HBM4, MRDIMMs, CXL3 und LPCAMM dargelegt
Micron hat eine neue Roadmap mit kommenden Speicherprodukten veröffentlicht. Darunter sind HBM4(e), MRDIMMs und LPCAMM2.
-
HBM-Speicherchips Das große Rennen um das hoffentlich lukrative Geschäft
Fast 60 Prozent Wachstum in diesem Jahr und 2024 noch einmal 30 Prozent: HBM liegt hoch im Kurs, aber was bringt es den Herstellern?
-
SK Hynix Quartalszahlen Ausverkauft bei HBM3e bis 2025 und dennoch hohe Verluste
HBM3e bekommt man als Kunde von SK Hynix frühestens 2025 wieder, doch diese Marktnische rettet den Konzern nicht über die Linie.
-
High Bandwidth Memory (HBM) Update Samsung bemustert HBM3E in Kürze, bis 2025 kommt HBM4
Schneller Speicher wie HBM gewinnt immer mehr an Bedeutung. Samsung weist nun auf die neuen Generationen hin.
-
Speicherkrise Micron sucht das Glück nach hohem Verlust bei HBM
Tief in den roten Zahlen und ein Ausblick, der ebenfalls weitere Verluste ankündigt, mochten Analysten nach den Quartalszahlen gar nicht.
-
HBM3E SK Hynix folgt Micron mit schnellerem HBM
SK Hynix nennt die nächste Stufe seines HBM3-Speichers HBM3E. Der gestapelte DRAM soll es auf 1,15 TB/s pro Stapel bringen.
-
GH200 Grace Hopper Superchip Nvidia setzt als erster Anbieter auf HBM3e mit 5 TB/s
Zur SIGGRAPH hatte Nvidia eine aufgebohrte Variante des Grace Hopper Superchips mit jetzt 141 GB HBM3e anstelle von 96 GB HBM3 im Gepäck.
-
Micron-Roadmap 32 Gbit DDR5, GDDR7, HBM3 und sein Nachfolger
Parallel zur Vorstellung des ersten High Bandwidth Memory (HBM) hat Micron eine Roadmap inklusive weiterer Speicherneuheiten veröffentlicht.
-
HBM3 Gen2 Microns erster High Bandwidth Memory ist am schnellsten
Deutlich nach Samsung und SK Hynix steigt Micron in den Markt mit High Bandwidth Memory (HBM) ein, legt beim Durchsatz aber gleich vor.
-
Tiefpunkt überwunden SK Hynix klettert mit tiefroten Zahlen aus dem Speicherloch
44 Prozent mehr Umsatz als im ersten Quartal interpretiert SK Hynix als das Herausklettern der Speicherbranche aus dem tiefen Loch.
-
High-End-Speicher SK Hynix will HBM4 mit 32 GB pro Chip schon ab 2026 liefern
SK Hynix hat das Produktionsziel für HBM4 erneut auf das Jahr 2026 festgelegt. Im kommenden Jahr wird HBM3E an den Start gehen.
-
Micron Nächstes Jahr kommen GDDR7 und HBM3
Micron will 2024 sowohl den ersten GDDR7-Speicher für Grafikkarten präsentieren als auch in das HBM-Geschäft mit HBM3 einsteigen.
-
Hohe Nachfrage dank AI SK Hynix will HBM3-Produktion verdoppeln
Die neuen Beschleuniger von Nvidia und AMD brauchen HBM-Speicher, den modernsten seiner Art. SK Hynix will die Produktionslinien verdoppeln.
-
AMD Instinct MI300X mit 192 GB HBM3 und 153 Milliarden Transistoren
Für den AI-Sektor hat AMD bereits im Januar die APU MI300A mit Zen 4 und CDNA 3 angekündigt. Jetzt folgt eine rein GPU-basierte Variante.
-
Instinct MI300A in El Capitan Vier Mal 24 Zen-4-Kerne, CDNA 3 und 128 GB HBM3 pro Blade
Offiziell hatte AMD zur ISC 2023 keine Neuheiten im Gepäck, doch die Macher des Supercomputers El Capitan plauderten ein wenig über MI300A.
-
SK Hynix HBM3 12 DRAM-Stapel liefern 24 GB in einem Package
Der auf schnelle Datentransfers ausgelegte High Bandwidth Memory (HBM) liefert bei SK Hynix jetzt noch mehr Speicherplatz.
-
Nvidia H100 NVL Doppel-GPU mit 188 GB HBM3 für Large Language Models
Ein neuer Beschleuniger mit Hopper-Architektur soll Large Language Models (LLM) wie GPT-3 und GPT-4 etwa bei ChatGPT beschleunigen.
-
HPC-Beschleuniger Intel Data Center GPU Max startet mit PCIe 5.0
Parallel zur neuen Server-CPU-Generation hat Intel neue GPU-basierte Rechenbeschleuniger für Supercomputer eingeführt.
-
Zen 4 + CDNA 3 + 128 GB HBM3 AMD Instinct MI300 stapelt Chiplets für AI und HPC
AMD Instinct MI300 stapelt Zen 4, CDNA 3 und 128 GB HBM3 mittels 3D-Chiplet-Packaging zu einer High-End-APU für HPC im Data Center.
-
Intel Xeon Max Sapphire Rapids mit 64 GB HBM bietet 56 Kerne bei 350 W
Aus Sapphire Rapids mit HBM wird die „Xeon Max Series“, aus Ponte Vecchio die „Data Center GPU Max Series“. Intels Bausteine für HPC stehen.
-
Speicherbranche im freien Fall Update SK Hynix erwartet Einbruch wie niemals zuvor
Die Zahlen sind noch halbwegs in Ordnung, dennoch sieht SK Hynix eine noch nie dagewesene Herausforderung im Speichermarkt.
-
High-End-Speicher SK Hynix liefert HBM3 für Hopper an Nvidia aus
Nvidia hat die Nutzung von HBM3 für „Hopper“ bereits vor Monaten angekündigt, jetzt zieht dessen Hersteller nach: Es ist SK Hynix.
-
AMD Instinct MI300 Die erste Zen-4-plus-CDNA-3-APU nutzt auch HBM(3)
Seit Jahren ist die absolute High-End-APU im Gespräch, jetzt könnte sie kommen: In Form einer Abwandlung der AMD Instinct MI300.
-
High Bandwidth Memory HBM3-Spezifikationen für 819 GB/s jetzt offiziell
Die Speicherschnittstelle High Bandwidth Memory (HBM) erhielt jetzt offiziell das Update auf die dritte Generation mit noch mehr Durchsatz.
-
SK-Hynix-Quartalszahlen Doppelter Gewinn und Tempo bei DDR5, HBM3 sowie NAND
Auch Speicherhersteller erleben weiterhin einen Boom. SK Hynix kann selbst die Rekorde aus dem Jahr 2018 übertreffen.
-
Next-Gen-Speicher SK Hynix entwickelt HBM3 für 819 GB/s Bandbreite
Zuletzt stetig mehr geteasert erklärt SK Hynix nun, dass die Entwicklung von HBM3 abgeschlossen sei. Doch bis zum Start dauert es noch.
-
Hot Chips 33 Samsung zeigt HBM-PIM und riesige Speichermodule
Samsung forciert die Entwicklung von HBM- und DIMM-PIM und zeigt Konzepte, die viel Leistung bei geringem Energiebedarf versprechen.
-
Next-Gen-Speicher Rambus entwickelt HBM3-Speichertechnologien
Jahrelang war HBM3 auf den Roadmaps von Rambus, zuletzt aber verschwunden. Nun wird es dank Mitbewerbern wiederentdeckt.
-
Intel Sapphire Rapids Update Next-Gen-Server-CPU mit HBM wird ab Q1 2022 gefertigt
Ein de facto offenes Geheimnis bestätigt Intel heute offiziell: Sapphire Rapids wird es mit HBM geben, und das nicht nur für Supercomputer.
-
HBM3-Speicher SK.Hynix zielt auf mindestens 44 Prozent mehr Bandbreite
Jahre ist HBM3 im Gespräch, doch ein konkreter Fahrplan fehlte. SK Hynix sagt jetzt, dass der Speicher mindestens 44 Prozent schneller wird.
-
HBM2 mit AI Samsungs Spezial-RAM bringt Processing-In-Memory
Auf Basis von klassischem HBM2 (ohne e) hat Samsung eine Adaption mit programmierbarer Kontrolleinheit für AI-Beschleunigung entwickelt.
-
Intel Sapphire Rapids Next-Gen-Xeon-CPU auch mit HBM auf dem Package
Bereits seit einigen Monaten vermutet kommt nun von Intel die Bestätigung: Die übernächsten Xeon-CPUs gibt es auch mit HBM auf dem Package.
-
460 GB/s pro Stapel SK Hynix fertigt HBM2E-Speicher jetzt in Serie
Wie letztes Jahr angekündigt, hat SK Hynix nun mit der Massenproduktion von HBM2E-Speicher begonnen.
-
Radeon Pro 5600M MacBook Pro erhält unbekannte Navi-GPU mit HBM
Das MacBook Pro 16 Zoll gibt es ab sofort auch mit einer Radeon Pro 5600M auf Basis von Navi – und HBM2. Das ist eine Premiere.
-
Quartalsbericht Microns Fahrplan für DDR5, 128-Layer-NAND und HBM
Das zweite Quartal in Microns Geschäftsjahr 2020 lieferte solide Zahlen angesichts globaler Krisen und aktuelle Fahrpläne für DRAM und NAND.
-
AMD Radeon Instinct MI100 Details zu Arcturus mit 8K Vega-Shader und 32 GB HBM2
Im Internet ist ein BIOS zur Radeon Instinct MI100 aufgetaucht, das einige Details zum AI/ML-Beschleuniger verrät.
-
HBM2E Auf dem Papier und von Samsung offiziell mit 3,2 Gbps
HBM2 wird noch schneller. Im Markt ist jedoch noch nicht einmal die letzte Stufe angekommen, obwohl sie seit zwei Jahren gefertigt wird.
-
High Bandwidth Memory Samsung stapelt 12 Layer DRAM für 24-GB-Bausteine
Samsung stapelt nun zwölf DRAM-Chips übereinander und will somit bald HBM2 mit 24 GB pro Package anbieten.