News Z-Angle Memory: ZAM soll besser als HBM werden

Krik schrieb:
Ich frage mich, wo hier der Vorteil herkommen soll.
Ob man die Chips nun in waagerechten oder senkrechten Schichten aufs Board klebt, also einfach um 90° dreht, wird doch keinen Unterschied machen.
Vllt liegt es an den Materialien(eigenschaften), der Geometrie (Gitter) oder wie diese Schichten aufgebracht werden; Was vllt am Ende gewisse kleine physikalische Vorteile liefert, in Summe dann hoch skaliert den wesentlichen Vorteil bringt.
Vllt sind es auch nur Hochrechnungen und am Ende gibt es dann andere Probleme in der Realität.

Bsp GHZ Wahn bei CPUs mit plötzlichen leakströme durch schnelles schalten.
 
  • Gefällt mir
Reaktionen: Krik und SaschaHa
Krik schrieb:
Ob man die Chips nun in waagerechten oder senkrechten Schichten aufs Board klebt, also einfach um 90° dreht, wird doch keinen Unterschied machen.
Ich schätze mal, dass die Verdrahtung dadurch einfacher wird, da man eben nicht durch die Schichten durch verdrahten muss, sondern neben ihnen einfach Bahnen nach unten machen kann. Diese würden dann aber natürlich auf einem Streifen münden anstatt einer Fläche, dementsprechend gäbe es pro Layer deutlich weniger Kontaktpunkte und es ergäben sich dementsprechende Performancenachteile - bis zu dem Zeitpunkt, an dem man genügend viele Schichten bündelt. Naja, so in etwa könnte es aussehen, ansonsten erschließt sich mir der Sinn auch absolut nicht.
 
  • Gefällt mir
Reaktionen: maxrl und Krik
Im Kern steckt da also weiterhin normaler DRAM drin, das wird also nichts dazu beitragen den aktuellen Engpass zu überwinden.
 
  • Gefällt mir
Reaktionen: Qyxes und Convert
SVΞN schrieb:
Für Intel wäre es auch eine gute Möglichkeit sich endlich etwas vom fetten KI-Kuchen abzuschneiden.

Bei den KI-Beschleunigern sind sie ja krachend gescheitert.
Glaube das es dafür zu lange dauert bis ZAM Marktreif ist.
 
  • Gefällt mir
Reaktionen: Tobi&
SaschaHa schrieb:
Erinnert mich ein wenig an 3D XPoint. Nicht aufgrund etwaiger Ähnlichkeiten (es sind ja vollkommen unterschiedliche Technologien), sondern einfach aufgrund des Versuchs, mit hohen Versprechungen etwas Neues zu etablieren und damit etwas, das sich seit Jahrzehnten bewährt hat, Konkurrenz zu machen.
Die Chancen stehen aber diesmal ungleich besser.

SaschaHa schrieb:
Wäre ja schön, wenn diesmal ein massentaugliches und vor allem bezahlbares Produkt dabei herauskäme, aber möglicherweise will man einfach nur auf der KI-Blase mitschwimmen :evillol:
Wenn dadurch zusätzliche RAM-Kapazitäten auf den Markt kämen, dann hätte der Privatkunde da indirekt auch etwas von, und wenn es nur sei dass man dann doch bereit ist ihm ein paar DDR5-Riegel für eine, und nicht mehr für zwei Nieren zu verkaufen.
 
Also um 90° gedrehter HBM oder wie soll man das verstehen?
 
TeeKayEV schrieb:
dann gibts dieses Jahrzehnt keine kaufbaren Produkte mehr. Und wenn die kommen, gibts keinen fetten KI Kuchen mehr.
Mag nicht mehr so fett sein wie aktuell, aber KI wird bleiben und das beständig. Daher mag der Kuchen halt langfristig schmecken
 
SaschaHa schrieb:
Ich schätze mal, dass die Verdrahtung dadurch einfacher wird,
Damit wäre es von der Verdrahtung her günstiger. Aber woher soll die Sparsamkeit kommen?
Ergänzung ()

SaschaHa schrieb:
..., dementsprechend gäbe es pro Layer deutlich weniger Kontaktpunkte und es ergäben sich dementsprechende Performancenachteile - bis zu dem Zeitpunkt, an dem man genügend viele Schichten bündelt.

Oder ist man einfach sparsamer, weil man weniger Performance abliefert? Das wäre ja nicht die Kunst. Strom sparen könnte man mit HBM ja auch, wenn man dort bei der Performance runter geht..
 
Cool Master schrieb:
Richtig und selbst wenn es nur für Server kommt wird das in "wenigen" Jahren auch beim Consumer kommen. Siehe z.B. NVMe denke niemand will das mehr aufgeben.
Das naheliegende Gegenbeispiel ist HBM: Jetzt soll der Nachfolger relativ bald kommen und bei Consumern sieht man trotzdem nichts davon. Auch nicht absehbar.
Also ja, kann passieren, ist aber nicht zwingend.
 
Convert schrieb:
Damit wäre es von der Verdrahtung her günstiger. Aber woher soll die Sparsamkeit kommen? Oder ist man einfach sparsamer, weil man weniger Performance abliefert? Das wäre ja nicht die Kunst. Strom sparen könnte man mit HBM ja auch, wenn man dort bei der Performance runter geht..
Das wirst du deren Ingenieure oder Medienvertreter fragen müssen, denn hier kommt es auf Details an. Aber generell ist es doch so, dass eine geringere Komplexität oft zu geringeren Kosten (und nötigen Taktraten) führt.

Bei HBM ist es doch (meinem Verständnis nach) so: Die Schichten sind übereinander gestapelt und die Verdrahtung passiert durch die einzelnen Schichten. Jede zusätzliche Schicht bedeutet also, dass von den darunter liegenden Schichten weniger Fläche für Logik bzw. Speicher genutzt werden kann, weil eben umso mehr Fläche für die Durchkontaktierung draufgeht. Da bei den Auftragsfertigern aber meistens pro Fläche und pro Schicht gezahlt wird, entstehen somit höhere (vermeidbare) Unkosten.

Wenn man diese Schichten nun vertikal anordnet und pro Logikschicht eine weitere (günstige) "Kontaktschicht" einfügt, die lediglich den Sinn hat, die Kontakte auf einer senkrecht angeordneten Platte zusammenzuführen, kann man da durchaus einiges an Geld sparen. Und was die Performance und Effizienz angeht: Auch hier geht es doch letztendlich nur um das Verhältnis aus Kontaktpunkten und Takt. Bei geringere Komplexität ist es durchaus denkbar, dass dieses Verhältnis positiv ausfällt. Aber bis dahin muss sich die Technologie auch erstmal beweisen. Theorie und Praxis liegen eben oftmals (weit) auseinander.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: maxrl
Bei mir ist im Kopf: Wo Softbank als Investor dabei ist, kommt nichts raus.
 
  • Gefällt mir
Reaktionen: Aslo, angband1, Slim.Shady und 2 andere
BAR86 schrieb:
und auch vom Markt angenommen wird.
3d Xpoint bzw. Optane war ja eigentlich eine verdammt interessante Technologie und soweit ich das verstehe auch in teilbereichen Überlegen, geradezu perfekt für solche AI Systeme, aber man hat zu früh den Stecker ziehen müssen
Bei Intel stimmt oft dieser Englische Ausdruck: They never missed an opportunity to miss an opportunity!
Denn ja, Intel hat ihr Optane (3D Xpoint) Programm fast genau vor dem Ausbruch der KI Flut dichtgemacht. Wenn sie Optan Optane weiter entwickelt hätten, würde Intel sich damit dumm und dämlich verdienen. Die Kombination von nicht-flüchtigem Speicher mit Latenzen, die eher an DRAM erinnerten, und alles mit hoher Toleranz auch für sehr viele Schreizyklen ist bis heute ohne echten Nachfolger. Wie populär Optane auch heute noch ist sieht man in den Preisen für gebrauchte Optane Drives und Module. Module? Weißt Du ja sehr wahrscheinlich, aber für die, die es nicht wissen: Optane gab's auch als Riegel im RAM Format, also als Arbeitsspeicher im Server Board. Gerade wenn man sowas wie HANA am Laufen hatte, blieben damit alle Daten im Moment eines abrupten Stops der Stromversorgung so wie sie in dem Moment waren erhalten, da Optane nicht-volatiler Speicher ist.
Ergänzung ()

SaschaHa schrieb:
Das wirst du deren Ingenieure oder Medienvertreter fragen müssen, denn hier kommt es auf Details an. Aber generell ist es doch so, dass eine geringere Komplexität oft zu geringeren Kosten (und nötigen Taktraten) führt.

Bei HBM ist es doch (meinem Verständnis nach) so: Die Schichten sind übereinander gestapelt und die Verdrahtung passiert durch die einzelnen Schichten. Jede zusätzliche Schicht bedeutet also, dass von den darunter liegenden Schichten weniger Fläche für Logik bzw. Speicher genutzt werden kann, weil eben umso mehr Fläche für die Durchkontaktierung draufgeht. Da bei den Auftragsfertigern aber meistens pro Fläche und pro Schicht gezahlt wird, entstehen somit höhere (vermeidbare) Unkosten.

Wenn man diese Schichten nun vertikal anordnet und pro Logikschicht eine weitere (günstige) "Kontaktschicht" einfügt, die lediglich den Sinn hat, die Kontakte auf einer senkrecht angeordneten Platte zusammenzuführen, kann man da durchaus einiges an Geld sparen. Und was die Performance und Effizienz angeht: Auch hier geht es doch letztendlich nur um das Verhältnis aus Kontaktpunkten und Takt. Bei geringere Komplexität ist es durchaus denkbar, dass dieses Verhältnis positiv ausfällt. Aber bis dahin muss sich die Technologie auch erstmal beweisen. Theorie und Praxis liegen eben oftmals (weit) auseinander.
Bei HBM kostet die "Hochstapelei" allerdings auch in Form des unvermeidlichen Ausschusses, der bei der Stapelei, v.a. auch dem Installieren der Vias anfällt. Und der Ausschuss ist dann tatsächlich "für die Tonne".
Ich fand die Erklärung von Vik hier ziemlich gut (er kennt sich da sehr gut aus):
https://www.viksnewsletter.com/p/why-is-hbm-so-hard-to-manufacture
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: peru3232 und BAR86
2027 einen fertigen Prototypen zu haben klingt schon mal sportlich. Der Weg zur Serienreife steht auf einem anderen Blatt, klingt für mich stark nach einem typischen Musk-Versprechen. Aber gut, dass es namhafte Konkurrenz ggü. Nvidia gibt.

TorenAltair schrieb:
Bei mir ist im Kopf: Wo Softbank als Investor dabei ist, kommt nichts raus.
SoftBank hat auch einiges richtig gemacht, sonst wären sie nicht da wo sie heute sind.
 
eastcoast_pete schrieb:
Denn ja, Intel hat ihr Optane (3D Xpoint) Programm fast genau vor dem Ausbruch der KI Flut dichtgemacht. Wenn sie Optan Optane weiter entwickelt hätten, würde Intel sich damit dumm und dämlich verdienen.
Sorry, aber das können wir doch überhaupt nicht beurteilen. Den Grund den Intel für die Schließung genannt hatte war, dass man keinen Durchbruch zur Skalierung gefunden hat. Wenn die selbst im Labor keinen Weg finden, was soll man da weiter machen?

Die Datendichte war am Ende kaum mehr höher als bei DRAM. Dementsprechend gab es auch kaum einen Grund darauf zu setzen. Preislich war es nicht interessant und die Kapazität war gerade mal 50% höher als bei reiner DRAM Bestückung. Mit dem Nachteil von deutlich weniger Performance für einen Großteil der Kapazität.
Keiner wollte die Optane DIMMs haben.

Und bei den SSDs ist halt NAND bei der Kapazität und beim Durchsatz immer weiter davon gezogen. Klar die Zugriffszeiten sind immer noch unerreicht. Z-NAND und XL-Flash haben dort dann aber auch Konkurrenz gemacht.
Nur mit Nischen kann man so eine Technologie nicht über Wasser halten.
 
das hört sich noch immer nach sehr viel Theorie an. Die Idee ist ja gut aber in welcher Form dies dann tastsächlich auf den Markt kommt und vor allem wann bleibt die große Unbekannte...
 
"DRAM horizontal in bis zu 16 Schichten übereinander gestapelt wird, die Speicherchips vertikal (praktisch hochkant) nebeneinander liegen. Sie werden also in Richtung der Z-Achse gestapelt."

Horizontal gestapelt ist ja entlang der y-Achse.
Steht man das nun hochkant nebeneinander, dann ist das doch entlang der x-Achse?!

Oder was verstehe ich hier flasch.?
 
ReactivateMe347 schrieb:
Horizontal gestapelt ist ja entlang der y-Achse.
Steht man das nun hochkant nebeneinander, dann ist das doch entlang der x-Achse?!
X ist Ost/West
Y ist Nord/Süd
Z ist Oben/Unten

Bei HBM haben alle Dies die gleichen X/Y Koordinaten, liegen also horizontal im Package übereinander, unterscheiden sich also im Z.

Hochkant nebeneinander wäre dann entlang der X oder Y-Achse
 
  • Gefällt mir
Reaktionen: eastcoast_pete
ich warte auf die ersten Spaßbilder, wo die RAM-Riegel dann demnächst hochkant ins Mainboard gesteckt werden ^^
bietet dann die Möglichkeit auf 8 Kanal Boards auch im Mainstream hihihih :-)
also spätestens am 1 April will ich eine ausführliche Berichterstattung darüber sehen! ;-)
eine bessere Steilvorlage gibts ja nicht, der Balkonkühler für die 6090 ist ja auch legendär geil
 
Zurück
Oben