News 3D XPoint: Intels Speicher-Novität als PCIe-Karte oder RAM-Modul

fin000 schrieb:
Wäre es nicht besser, wenn diese neue Technologie sowohl Massenspeicher (HDD/SDD) als auch Arbeitsspeicher (RAM) ersetzen statt erweitern würde?
Das System wäre weniger komplex, weniger fehleranfällig, kleiner, leichter, stromsparender, ... (die Liste lässt sich fortsetzen)
Es wäre nur eben nicht billiger, die ganze Speicherpyramide gibt es ja, weil der jeweils billigere Speicher eben langsamer ist und da man meist immer nur einen kleinen Teil der ganze Daten braucht, wird eben in immer kleinerer Teil der Daten in den jeweils schnelleren aber auch teureren Speicher geladen.

Nimm als Beispiel ein Programm, das liegt auf der SSD/HDD und wird gestartet. Dazu wird es ins RAM geladen, je nach OS und Programmgröße auch nur teilweise oder der nicht benötigte Teil wird dann u.U. wieder ausgelagert. dann landet etwas im L3, L2 und auch L1 Cache, wo hoffentlich die Befehle und Daten der Schleife Platz haben, die gerade zum xten mal durchlaufen wird.

fin000 schrieb:
Was würde prinzipiell dagegensprechen, wenn man nur einen Prozessor (ohne Cache) sowie 1 Petabyte nichtflüchtigen superschnellen Speicher an der CPU hätte?

Wenn man Preis/Machbarkeit außen vor lässt, gar nichts.
Außer dem Preis spricht auch die Geschwindigkeit dagegen, denn L1, L2 und auch L3 Caches sowie auch DRAM sind schneller als XPoint, die Geschwindigkeit ist ja mehr als nur der Durchsatz in MB/s oder GB/s, es geht dabei vor allem auch um die Latenz, die ist gerade für die CPUs so wichtig, weshalb die auch so viel Cache haben. RAM hat immer noch Latenzen im Bereich von 50 bis 70ns, also die Latenz bis die Daten wirklich in der CPU sind, die mit 2 bis 4GHz arbeitet, womit ein Taktzyklus nur 0,25ns bis 0,5ns dauert. Allenfalls L1 Cache ist so schnell, wobei das auch nicht immer der Fall ist, schon wenn Daten aus dem L2 oder L3 Cache kommen müssen, gibt es Wartezyklen und nicht wenige:
You might look at this:
http://software.intel.com/sites/products/collateral/hpc/vtune/performance_analysis_guide.pdf
Core i7 Xeon 5500 Series
Data Source Latency (approximate)
L1 CACHE hit, ~4 cycles
L2 CACHE hit, ~10 cycles
L3 CACHE hit, line unshared ~40 cycles
L3 CACHE hit, shared line in another core ~65 cycles
L3 CACHE hit, modified in another core ~75 cycles
remote L3 CACHE ~100-300 cycles
Local Dram ~60 ns
Remote Dram ~100 ns
(Quelle

Das ist ein wenig älter, aber viel hat sich nicht getan und die Latenz des eigentlichen RAMs ist eben auch weit geringer als die 60ns dort, bei DDR3 1333 mit 666,66MHz Takt wäre dann pro CL 1.5ns, also bei CL7 dann 10,5ns und bei CL9 13,5ns bis es anfängt Daten zu liefern (wobei noch []andere Wartezeiten noch oben drauf kommen können), nur sind die Daten aber dann ja noch lange nicht in der CPU angekommen, die müssen ja auch erst übertragen werden und dann vom Memory Controller in die Caches gehen.

Bei einer 4GHz CPU und im Vergleich zu den 4 Zyklen beim Zugriffe auf L1 ist das also mal eben ein Faktor 60 mehr und in der Zeit werden dann 240 Taktzyklen ungenutzt verstreichen, was man in der Zeit so alles machen könnte, kann man hier mal sehen.

Laut Intel/Micron liegt die Latenz bei XPoint wohl so eine Zehnerpotenz höher:

6-1080.3679410801.jpg


(Quelle)

Ein Ersatz für interne Caches kann XPoint niemals sein, die wurden ja gerade eingeführt, weil die Taktraten der CPUs immer höher wurden, aber die Latenz von RAM nicht fällt und man sonst die Leistung der CPUs über den Takt einfach nicht steigern kann. Deshalb bringt auch schnelles RAM bei CPUs mit viel L3 Cache kaum Vorteil, dagegen aber sehr wohl bei denen ohne L3 und auch für die iGPUs, also vor allem bei AMDs APUs aber eben bei den Intel i5 und i7 bei Nutzung einer diskreten Graka eben nicht, außer bei Anwendungen wie Rar oder 7Zip die gar viel RAM Durchsatz erzeugen, da hilft ein Cache wenig weil der immer nur Nutzen habe kann, wenn mehrfach auf die gleichen Daten zugegriffen wird die dann idealerweise möglich oft schon im Cache stehen.

Chiron McAnndra schrieb:
Was mir hier Sorgen macht: Da das als weiteres Speicherpaket im System und nicht als Anhängsel am Massespeicher hängt, könnte man das gut für die Vorhaltung von Zwischenergebnissen aus komplexen Berechnungen her nehmen - das allerdings wäre fatal, weil sich diese dann abgreifen und anderweitig nutzen ließen.
Wenn es wie RAM benutzt wird, müssen auch die gleichen Schutzmechanismen wie bei RAM den Schutz vor fremden Zugriffen sicherstellen. Es ist ja auch nicht anders als bei RAM, wenn ein Programm Daten drin ablegt, werden diese ja auch nicht verschlüsselt und es ist Aufgabe des Betriebssystems und der Speicherverwaltung den Zugriffe auf diesen RAM Bereich nur dem Programm zu gewähren, welches ihn angelegt hat. Ebenso muss man dann dafür sorgen, dass der Bereich eben auch nach der Freigabe durch das Programm auch wieder gelöscht wird.

Da es ja nicht flüchtiger Speicher ist, müsste es bei Nutzung wie RAM bei der Initialisierung der HW beim Bootvorgang einmal gelöscht werden, damit keine alten Inhalte ausgelesen werden können oder es muss wie eine (RAM-) Disk verwaltet werden und dann müssen die Zugriffsrechte und ggf. Verschlüsselung auf Dateiebene greifen, aber das ist ja heute auch nicht anders, wenn Programme Daten auf einer Disk ablegen.

Außer der Tatsache das nach einem Stromausfall noch Daten drin stehen, sehe ich da bei XPoint keinen Unterschied zu dem was heute vorhanden ist.

Dr. Johnson schrieb:
Intel und Co. spielen mit der extrem zügig vorangetriebenen Marktreife einen, wenn nicht gar den Trumpf im "Speicher-Krieg" aus.
Anders als bei viele früheren Ankündigungen hat diesmal die Henne das Ei wirklich gelegt, sonst blieb es ja immer nur beim Gegockeln, aber es kaum hinten nie was raus. Der wirklich große Vorteil von Intel und Micron ist aber, dass Intel im Serversegment so stark ist und die Plattformen selbst macht, diese neue Technik also perfekt unterstützen kann. Intel entwickelt und fertigt RAM- wie auch SSD Controller, CPUs und Chipsätze, kann also die optimale Unterstützung für die neue Technik auf seinen Plattformen bieten und damit gerade im Serverbereich auch hohe Stückzahlen erzielen.

Samsung könnte sowas in seine ARM basierten Geräte wie Smartphone und Tablets ähnlich selbstständig intergieren, aber was würde SK Hynix oder Toshiba/SanDisk übrig bleiben? Die paar Server mit Opterons dürfte ein ähnlich kleiner Markt wie die Fury für deren HBM RAM sein und für den Rest müssten alle ihre Technik entweder an die von RAM anlehnen und damit kompatibel werden um in sie in normalen RAM Slots einsetzen zu können oder dies über PCIe wie SSDs anbinden, aber Extrawürste dafür in eine neue Serverplattform integriert zu bekommen, dürften sie wohl kaum bei Intel erwarten, jedenfalls nicht sehr bald.
Dr. Johnson schrieb:
Je schneller die Massenproduktion anläuft und je länger die Konkurrenz keine Antwort parat hat, können sie entweder jeden Preis verlangen, den sie wollen, oder mit niedrigen Preisen jeden "Gegner" vom Markt verdrängen.
Bei Intels Margenerwartungen wohl ersteres und wen soll man mit einem neuen Produkt vom Markt drängen, das keiner sonst hat? DRAM wird man wegen der höheren Latenz und wohl auch immer noch beschränkten Zyklenfestigkeit von XPoint nicht so pauschal damit ersetzen können und ob man Flash selbst bei einer Massenfertigung überhaupt preislich ein- und überholen könnte? Das wäre aber nötig um NAND ganz zu verdrängen, so kann man damit die teureren Varianten ersetzen, wie SLC und eMLC die für Enterprise SSDs genutzt werden.

Um NAND aus günstigen Consumer SSDs, Smartphones, Tablets, USB Sticks oder Speicherkarten zu verdrängen muss XPoint auch billiger sein, denn man wird mit der Geschwindigkeit und besseren Haltbarkeit alleine dort nicht punkten können, da die Geschwindigkeit und Haltbarkeit heute meist mehr als reicht, vor Ausnahmen bei denen besonders minderwertige NANDs verbaut wurden mal abgesehen.

Dr. Johnson schrieb:
Hoffentlich sind die Kunden am Ende die, die Lachen und nicht die, die nur ausgenommen wurden.
Wie und wieso sollten die Kunden dort ausgenommen werden? DRAM und Flash NAND wird es weiter geben und wenn eines Tages XPoint in RAM Riegeln oder SSDs für Endkunden zu Verfügung steht, dann muss jeder selbst wissen, ob er bereit ist für deren Eigenschaften den vermutlich zu zahlenden Aufpreis hinlegen will oder eben doch nicht. Das Risiko ausgenommen zu werden sehe ich da eher weniger, zumindest solange die Plattformen von Intel auch die Verwendung normaler DRAMs und SSDs ermöglichen werden und das dürfte auch weiter der Fall sein. SSD kann man nutzen solange es PCIe Lanes und SATA Ports gibt und auch für DRAM wird man die Unterstützung nicht so schnell streichen, weil es eben gegenüber XPoint immer noch schneller und wohl auch haltbarer ist.
Ergänzung ()

Es gibt Hinweise das es sich beim 3D XPoint von Intel/Micon um eine Phase Change Memory handeln könnte:
 
Holt schrieb:
Wenn es wie RAM benutzt wird, müssen auch die gleichen Schutzmechanismen wie bei RAM den Schutz vor fremden Zugriffen sicherstellen. Es ist ja auch nicht anders als bei RAM, wenn ein Programm Daten drin ablegt, werden diese ja auch nicht verschlüsselt und es ist Aufgabe des Betriebssystems und der Speicherverwaltung den Zugriffe auf diesen RAM Bereich nur dem Programm zu gewähren, welches ihn angelegt hat. Ebenso muss man dann dafür sorgen, dass der Bereich eben auch nach der Freigabe durch das Programm auch wieder gelöscht wird.

Da es ja nicht flüchtiger Speicher ist, müsste es bei Nutzung wie RAM bei der Initialisierung der HW beim Bootvorgang einmal gelöscht werden, damit keine alten Inhalte ausgelesen werden können oder es muss wie eine (RAM-) Disk verwaltet werden und dann müssen die Zugriffsrechte und ggf. Verschlüsselung auf Dateiebene greifen, aber das ist ja heute auch nicht anders, wenn Programme Daten auf einer Disk ablegen.
Ich halte esfür etwas blauäugig, sich auf Dinge zu verlassen, die so und so eben getan werden müßten. Ein Großteil aller Probleme, die bei PCs auftreten, basieren darauf, dass eben NICHT getan wird, was eigentlich getan werden müßte.
Der neue Speicher kann als Nicht-flüchtiger Speicher für viele Dinge genützt werden - daher wird er garantiert nicht initial bei Rechnerstart gelöscht werden. Er ist jedoch auch keine Festplattenpartition und somit dem direkten Zugriff des Anwenders gar nicht zugänglich. Ich wage, zu behaupten, dass mehr als 95%aller Anwender überhaupt nicht wüßten, wie sie die darin abgelegten Inhalte kontrollieren sollten.
Für Normalanwender wird es daher (wenn überhaupt) Tools geben, die über den Inhalt Aufschluss geben - und der Anwender ist dann auf die Informationsfreigiebigkeit dieser Tools angewiesen und muss wohl oder übel einfach glauben, was ihm da angezeigt wird.
Er kann dann (höchstwahrscheinlich kostenpflichtige) Tools einsetzen, um auch das sehen zu können, was die Standardtools verscheigen - und noch immer ist er auf Gedeih und Verderb darauf angewiesen, zu GLAUBEN, dass er nun auch WIRKLICH alles zu sehen bekommt (sollten staatliche Behörden wie im Falle von Verschlüsselungsalgorithmen hier einschreiten, um bestimmte Dinge einfach unsichtbar zu machen, dann werden sich die meisten Softwarehersteller daran halten, was bedeutet: der Normalanwender sieht nur das, was er sehen SOLL).

Nun könnte man von einem perfekten System ausgehen (ein solches Blau der Augen, für DIESE Annahme ist jedoch noch gar nicht gefunden - bei jedem Update seitens MS wird deutlich, dass so etwas ine Illusion ist), in der Realität jedoch werden ausgesparte Bereiche nicht nur zur Verschleierung von Informationen genutzt werden, sondern sie sind auch eine prima Anlaufstelle für etwaige Hacks - die sich darin einnisten können nd nicht entdeckt werden (möglicherweise hängen sie sich gar an die Sonderrechte der verheimlichen Codes an und nutzen sie für ihre Zwecke).

Und auch wenn man nicht von Regierungsspionageausgeht, sind nichtflüchtige Speicher ein guter Ansatz für Hacking-Aktivitäten. Klar SOLLTE das nicht funktionieren - aber wenn alles, das nicht funktionieren SOLLTE, auch wirklich nicht machbar wäre, dann gäbe es schliesslich keine Hacker. Fakt ist, dass in diesem Speicher Informationen stehen können, die einfach vergessen da liegen und die sich ein Datensammler, der extra dazu programmiert wurde, sehr leicht wird krallen können.
Und GERADE die Zugriffssteuerung macht die Sache so fatal, weil wenn es Daten eines derzeit nicht angemeldeten Users sind, können diese nicht vom angemeldeten User gelöscht werden (besonders nett, das Szenario von einem, der sein System verantwortlich betreibt und sich normalerweise als Nicht-Admin anmeldet. Wenn er dann als Admin etwas tun will, meldet er sich um, macht was - und seine Daten bleiben präsent - und meldet sich ab. Für einen Wum oder einen Virus sind die Date dann vorhanden - für den als Nichtadmin angemeldeten User jedoch nicht.
Verschlüsselung wäre zwar eine Möglichkeit - aber es erscheint fraglich, ob das andauernde Ver- und Entschlüsseln von Informationen den Geschwindigkeitsvorteil des schnelleren Speichers nicht deutlich relativiert.


CMA
 
Zurück
Oben