News Mehr Speicher für Nvidia: Samsung, SK Hynix und Micron zeigen zur GTC 2026 ihr Können

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
19.866
  • Gefällt mir
Reaktionen: schneeland, PietVanOwl, steirerblut und eine weitere Person
Also noch mehr und noch schneller produzierter AI Slop?
 
  • Gefällt mir
Reaktionen: wagga, Flutefox und Qyxes
  • Gefällt mir
Reaktionen: wagga
Gut dass die Speichernachfrage mittlerweile auf so viele Technologien und Hersteller aufgebaut wird. Ich will ehrlich sein, ich hätte mir gedacht das NVidias Vormachtstellung in HPC/AI Compute bereits 2025 beginnt zu bröckeln, jetzt nicht zu Gunsten von AMD oder Intel aber eben die Arm Custom Designs wie bei Google, Amazon und Microsoft. Vergleicht man zB die Generierung von Seitenlangen MDs, Json oder Tables sieht man das die Parallelisierung schon wesentliche Performance Vorteile mit sich bringt.
Dann kam der "Agent Hype" der letzten Monate, mittlerweile scheinen sich alle einig zu sein das es fast egal ist auf welches Frontier Model man setzt, die Verfügbarkeit und Leistbarkeit stehen im Vordergrund, im Hintergrund merkst das die inkludierten Tokens der gebotenen Subscriptions bereits gedrosselt werden.
Ich denk da wahrscheinlich zu pragmatisch, aber wenn sich das Marktvolumen hier auf möglichst viele Speicherhersteller und Chipdesigns aufteilt "könnte" sich Angebot und Nachfrage ja langfristig stabilisieren. Wenn allerdings jeder Mensch zig AI Agents "spawned" die permanent in Rechenzentren durchrattern, wirds wahrscheinlich schwierig. Zumal die meisten AI Startups ja erstmal ein profitables Geschäftsmodell hervorzaubern müssen. Definitiv ein sehr "dynamischer" Markt
 
  • Gefällt mir
Reaktionen: wagga
Nvidia wird zur RAM-Fress-Machine, die kommende Mehrproduktion von Speicher wird als Appetizer weggeschluckt werden.
Autonomie (Verkehr/Überwachung) kommt ja noch oben drauf.

edit:
https://x.com/jukan05/status/2033711007441555873?s=20
"Der Vorsitzende der SK Group, Chey Tae-won, sagte, der weltweite Mangel an Speicherchips werde voraussichtlich noch vier bis fünf Jahre andauern und bis ins Jahr 2030 hineinreichen."

Kam eben von https://x.com/dnystedt/status/2033757674563899669/photo/1
1773745036590.png
 
Zuletzt bearbeitet:
HBM4/HBM4E und SOCAMM2 auf LPDDR5X bzw. perspektivisch LPDDR6 zeigen, wie weit die Roadmap von Nvidia und seinen Partnern bereits in die Zukunft gezogen ist. 48 GB pro HBM-Stack bei 12 bis 16 Layern, Custom-Base-Dies für Feynman und neue CPU-Racks mit Vera als Basis für Zettabytes an verbautem Speicherm. Das alles passt ins Bild eines Unternehmens, das nicht nur einzelne Chips verkauft, sondern eine komplette KI-Infrastruktur von GPU bis Memory denkt. Genau diese vertikale Denke ist der Grund, warum Nvidia aktuell eine ganze Branche definiert, statt ihr nur hinterherzulaufen.
 
Zurück
Oben