News ISSCC: Intel ist bereit für MRAM-Fertigung in 22 nm FinFET

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.906
Solch 2-4GB Chip auf dem CPU Package, der das Betriebssystem im Standby speichert, wäre für Tablets/Notebooks echt innovativ. Dann muss der Akku nicht belastet werden.
 
Passiert eigentlich etwas, wenn man mit einem Magneten an dieses Teil geht? Verschieben sich die Teilchen, oder bleibt alles gleich? Kann man das System so zerhauen?
 
  • Gefällt mir
Reaktionen: flo.murr
k0ntr schrieb:
Passiert eigentlich etwas, wenn man mit einem Magneten an dieses Teil geht?
Generell sind Magneten und Elektrotechnik so ein Ding...
 
  • Gefällt mir
Reaktionen: Ceberus
k0ntr schrieb:
Passiert eigentlich etwas, wenn man mit einem Magneten an dieses Teil geht? Verschieben sich die Teilchen, oder bleibt alles gleich? Kann man das System so zerhauen?
Nicht wirklich. Zumindest nicht bei normalen Magneten. Die Feldstärke fällt quadratisch mit der Entfernung ab. Solange du das nicht einen multi-Tesla Magneten dran hellst, wird da nicht viel passieren.
 
k0ntr schrieb:
Passiert eigentlich etwas, wenn man mit einem Magneten an dieses Teil geht? Verschieben sich die Teilchen, oder bleibt alles gleich? Kann man das System so zerhauen?

Kommt drauf an wie gut der Speicher abgeschirmt ist. Die freie Schicht in einem STT-MRAM braucht weniger als 10 mT zum switchen [1]. Ein Hufeisenmagnet erzeugt laut Wikipedia [2] ca. 100 mT. Ich würde es also nicht versuchen, außer du willst die Daten eh löschen. Natürlich versucht man die Speicher so robust wie möglich zu machen, dann wird das Schreiben aber schwieriger, deswegen muss man einen guten Kompromiss finden.

[1] https://www.nature.com/articles/s41467-018-03140-z
[2] https://de.wikipedia.org/wiki/Tesla_(Einheit)
 
Nichts hält ewig, auch DRAM und SRAM nicht.
 
Gibt's eigentlich offizielle Daten zur Performance der verfügbaren Speicher am Markt? Welche Größe produziert Everspin aktuell?
Das Ding wäre ja richtig spannend als LLC in mobilen SoC. Aber solch eine Integration liegt wohl noch in ferner Zukunft.

Edit: ok, sind wohl 256 Mbit. Die Datendichte wäre noch spannend.
 
Wenn die Kapazität pro Die gerade mal bei so 1:1000 unter der von NAND liegt, wird es wohl bei der Datendichte entsprechend aussehen, diese dürfte also so grob um den Faktor 1000 geringer sein. NAND ist eben wegen seiner hohen Datendichte einfach bei den Kosten konkurrenzlos und dies dürfte sich so bald auch nicht ändern.
 
bensen schrieb:
Edit: ok, sind wohl 256 Mbit. Die Datendichte wäre noch spannend.

Sind sogar 1 Gbit wenn man pre-production mit einbezieht:

Everspin [...] ,today announces that it commenced shipment of pre-production customer samples of its 28nm 1-Gigabit (Gb) Spin Torque Transfer Magnetoresistive Random Access Memory (STT-MRAM) product in December 2018

[...]

Production ramp for the 1 Gb products is scheduled to begin in the second half of 2019.

Allerdings haben sie diese scheinbar breits seit 2017: https://www.everspin.com/news/everspin-hits-1gb-milestone-new-28nm-mrams

Wäre interessant wie sich Betriebssysteme und Software verändern würden sollte so ein Speicher jemals in ausreichender Größe vorhanden sein um RAM und SSD/HDD komplett zu ersetzen.
 
So einen Speicher gibt es ja nun in ausreichender Größe, nämlich die Optane DC Persistent Memory mit bis zu 512GB pro Riegel. Die dazu passende NVDIMM-P Spezifikation der JEDEC ist ja schon in Arbeit. Die Optane DC Persistent Memory werden aber weder DRAM (sie sind RAM, dann RAM steht für Random Access Memory und nicht für eine bestimmte Technologie) noch SSDs in Servern komplett ersetzen, denn gegenüber DRAM haben sie Nachteil bzgl. Performance und Haltbarkeit und gegenüber SSDs sind sie sehr teuer und bzgl. der maximalen Ausbaumöglichkeit der Kapazität beschränkt. Im Embedded Bereich mag dies anders sein, da braucht man ja meistens nicht viel Kapazität, da findet dann auch sowas wie das STT-MRAM Anwendung.
 
  • Gefällt mir
Reaktionen: BlackMonday
Stimmt, allerdings hat Optane mehr Latenz und weniger Bandbreite als DDR4 RAM wie Du ja selber schon geschrieben hast. [0] STT-MRAM scheint was das angeht ja fast vergleichbar zu normalem DRAM zu sein worum es mir neben der Persistenz vor allem ging (hätte ich mich genauer ausdrücken müssen).

Bei den Optane Preisen, vor allem die des 128 GB Modules, kommen bei mir Erinnerungen an die Zeiten auf in denen 128 MB genau so viel gekostet haben. Hoffentlich entwickeln sich die Preise und Kapazität genau so wie DRAM seit damals. :)

An embedded hatte ich gar nicht gedacht, danke, die sollten ja spätestens mit den 125 MB STT-MRAM Modulen mehr als ausreichend versorgt sein. Würde mich mal interessieren wie sich die Programmierung in so einem System verändert da es ja keine Trennung mehr zwischen flüchtigem und nicht flüchtigem Speicher mehr gibt. Ich erinnere mich vage an ein Projekt von HP in dem sowas erforscht werden sollte. [1] Gibt in so einem System sicher interessante Ausnahmefälle.

[0] https://arxiv.org/pdf/1903.05714.pdf
[1] https://www.reddit.com/r/rust/comments/2bguq8/rust_and_the_rise_of_new_nonvolatile_memory/
 
BlackMonday schrieb:
allerdings hat Optane mehr Latenz
Und vor allem haben die Optane DC Persistent Memory eine nicht determinierte Latenz, weshalb es eben nicht einfach wie DRAM genutzt werden kann und eine neue Spezifikation, eben die NVDIMM-P. dafür nötig ist damit es funktioniert. Bei DRAM stellt man ja einfach die Timmings ein, also soviele Takt hier und soviele dort warten und dann sind die Daten da bzw. wurden geschrieben, keine Ahnung wie das bei STT-MRAM aussieht.
BlackMonday schrieb:
STT-MRAM scheint was das angeht ja fast vergleichbar zu normalem DRAM zu sein worum es mir neben der Persistenz vor allem ging
Wobei das eigentlich nicht neu ist, früher, also bevor DRAM sich durchgesetzt hat, waren Kernspeicher die übliche Technik auf der RAM basiert hat und dies war auch nicht flüchtig.
BlackMonday schrieb:
Hoffentlich entwickeln sich die Preise und Kapazität genau so wie DRAM seit damals.
Bisher gibt es gerade die erste Generation von 3D XPoint und da hat ein Die gerade mal 128Gbit und auch nur 2 Layer. Wenn man bedenkt das NAND schon bei 64 Layern angekommen ist, so wäre man mit nur einem Viertel davon, also 16 Layern, sogar bei 1Tb pro Die, also da wo die größten NAND Dies auch gerade erst angekommen sind und dies als QLC, also mit 4 Bit pro Zelle, während 3D XPoint bisher nur ein Bot pro Zelle hat, wobei wohl auch mehr möglich wären.
BlackMonday schrieb:
Ich erinnere mich vage an ein Projekt von HP in dem sowas erforscht werden sollte.
The Maschine, aber wie gesagt ist nicht fluchtiges RAM keine Neuheit, sondern war vor DRAM gewissermaßen Alltag und schon damals dürfte es das gleiche Problem gegeben haben, welches auch künftig Konzepte zu Ausnahmen machen wird: Diese Persistent Memories sind zu teurer um auch alle Daten dort statt auf Laufwerken wie z.B. SSD zu speichern und man kann nicht so viel Kapazität adressieren wie bei Block devices. Auch wenn man da viele Adressleitungen und RAM Slots verbaut, so kommt man irgendwann zu einem Zuverlässigkeitsproblem, da muss man dann sowas wie RAIDs verwenden um mit Ausfällen umgehen zu können, die einfach nicht komplett zu verhindern sind und eben bei viele Riegeln entsprechend häufig auftreten werden.
 
Zurück
Oben