News Optane Memory M10: Neue M.2-SSDs mit bis zu 64 GB 3D XPoint

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.857
Was sind denn derzeit reale Anwendungsszenarien, bei welchem Optane Memory einer "normalen" nvme-SSD als Caching-/Systemlaufwerk voraus ist? Man bekommt für den Preis der 64 GB-Variante schließlich 500 GB NAND-SSDs.
 
Hm, ob bei dem Preis/GB Rechenzentren tatsächlich 3dxpoint statt effen SSDs als Cachelösung einsetzen?
 
Man kann es auch auf den Punkt bringen und sagen, für Ottonormalo und Gamer ist SATA-SSD auf absehbare Zeit der Status Quo, NVMe ist Luxus und Optane obsolet.

Solange die Software nicht Anstalten macht auf breiter Front aus der sequentiellen HDD-Ära in die parallele Moderne zu kommen, solange wird es schwer im Alltag einen signifikanten Mehrwert oberhalb von SATA-SSD zu erkennen.
Sprich in dem Maße wie es der Wechsel von HDD zu SSD vor Augen führte.
 
Die Optane haben wegen der geringen Latenz ja gerade massive Vorteil auch wenn die SW eben nicht parallel auf die SSD zugreift, aber die meisten Programme brauchen einfach zu lange um die gelesenen Daten zu verarbeiten, dies passiert dann nämlich in aller Regel auch nicht multithreaded. Oder es dauert zu lange bis die CPU den gerade gelesenen Programmcode abgearbeitet hat. Dann bringt es eben auch nichts wenn das Laden deutlich schneller geht, wenn dies einfach nicht der Flaschenhals ist. Für die Optanes muss man mehr als als für andere NVMe SSDs nicht nur das passende System sondern eben auch die passenden Anwendungen haben, damit diese sich lohnen.
 
Fragger911 schrieb:
Man kann es auch auf den Punkt bringen und sagen, für Ottonormalo und Gamer ist SATA-SSD auf absehbare Zeit der Status Quo, NVMe ist Luxus und Optane obsolet.

Ich glaube bis es soweit ist, dauert leider es noch ein paar Jahre. Momentan sehe ich eher keine Daseinsberechtigung für SATA-SSDs. Denn: Solange ich für ne 1TB SATA-SSD immer noch deutlich über 200€ (eher 250€) bezahlen muss, wohingegen eine herkömmliche HDD wie beispielsweise die WD Blue in 3,5" mit 1TB unterhalb der 50€ liegt, werden die meisten eher zu einer kleinen (256GB-512GB) aber schnellen NVMe als Startfestplatte für OS und die wichtigsten Programme greifen und die alte aber zuverlässige HDD bleibt als billiges Datengrab bestehen.

Optane sehe ich Potenzial im Billigsegment, natürlich nur in Kombi mit Magnetfestplatte.
 
noxcivi schrieb:
Was sind denn derzeit reale Anwendungsszenarien,
bei welchem Optane Memory einer "normalen" nvme-SSD als Caching-/Systemlaufwerk voraus ist?
Man bekommt für den Preis der 64 GB-Variante schließlich 500 GB NAND-SSDs.


Überall da, wo DRAM einen Vorteil bringen kann, da kann auch 3D XPoint einen Vorteil bringen.

FLASH-Speicher haben Technologie-bedingt lange Schreibzeiten (bzw. Löschzeiten),
zudem werden nicht etwa einzelne Speicheradressen geschrieben sondern immer nur komplette Speicherblöcke.

Der Controller, der die Zugriffe auf den NAND FLASH Speicher einer SSD organisiert
verteilt die Zugriffe statistisch geschickt über den komplett zur Verfügung stehenden NAND FLASH Speicherraum.
Je größer dieser ist, desto günstiger (im Regelfall).
So fallen die langwierigen Lösch-Schreibzugriffe im Allgemeinen nicht auf bzw. nicht ins Gewicht.

Zudem verwenden gute SSDs intern DRAM - als Cache.
Damit kriegt die CPU ihre Daten erst mal los
und der SSD-Controller kümmert sich dann in aller Gemütsruhe drum die Daten dann im FLASH unterzubringen.

Bei Optane SSDs werden die Daten sofort weg-geschrieben, ohne Umwege und Wartezeiten.

Die Vorteile von Optane bzw. 3D XPoint dürften sich nur bei anspruchsvollen,
Daten-intensiven Anwendungen bemerkbar machen
bei denen viele Daten sequentiell weggeschrieben werden.
Workstations, wissenschaftliche Anwendungen, Server, etc.

NAND FLASH Speicher sind per se Daten-unsicher.
Nur durch ausgeklügelte Error Correction Methoden sind sie überhaupt einsetzbar.
Je mehr Bits pro Speicherzelle, desto katastrophaler.
In diversen industriellen Anwendungen kommt daher vorzugsweise NOR FLASH zum Einsatz.
Ein Bit nimmt da eine Speicherzelle vollständig in Anspruch.

3D XPoint ist als Technologie gegenüber FLASH grundsätzlich wesentlich Daten-sicherer.
Für einige Anwendungen ist das sehr wichtig, für andere wiederum nicht.

Auf einer NAND FLASH SSD befinden sich üblicherweise viele Foto-, Video- und Musik-Dateien.
Wenn da mal ein Bit hin und wieder falsch ausgelesen wird
merkt das wahrscheinlich keiner - who cares.

.
 
just_fre@kin schrieb:
Ich glaube bis es soweit ist, dauert leider es noch ein paar Jahre. Momentan sehe ich eher keine Daseinsberechtigung für SATA-SSDs. Denn: Solange ich für ne 1TB SATA-SSD immer noch deutlich über 200€ (eher 250€) bezahlen muss, wohingegen eine herkömmliche HDD wie beispielsweise die WD Blue in 3,5" mit 1TB unterhalb der 50€ liegt, werden die meisten eher zu einer kleinen (256GB-512GB) aber schnellen NVMe als Startfestplatte für OS und die wichtigsten Programme greifen und die alte aber zuverlässige HDD bleibt als billiges Datengrab bestehen.

Optane sehe ich Potenzial im Billigsegment, natürlich nur in Kombi mit Magnetfestplatte.

Also entweder wirfst du hier die Begriffe durcheinander oder du hast einfach keine Ahnung.
 
Fred_EM schrieb:
Zudem verwenden gute SSDs intern DRAM - als Cache.
Damit kriegt die CPU ihre Daten erst mal los
Die DRAM Cache dienen in erster Linie als Cache für die Verwaltungsdaten des Controller, also vor allem die Mappingtabelle mit der externe Adressen auf die internen NAND Adressen umgesetzt werden. Userdaten werden dort kaum abgelegt, sondern nur in einem Umfang um die dann zusammengefasst schreiben zu können, wodurch die hoch IOPS bei zufälligen 4k Schreibzugriffen entstehen.
Fred_EM schrieb:
Bei Optane SSDs werden die Daten sofort weg-geschrieben, ohne Umwege und Wartezeiten.
Weil Medium (also das 3D XPoint), wenn die ganzen Latenzen wegen der PCIe Anbindung und dem Controller doch oben drauf kommen, schon fast so schnell wie DRAM ist. Die Optane schaffen dann fast die Schreibperformance wie sie SSDs mit NANDs schaffen, wenn sie noch in ihren DRAM Cache schreiben können.

Fred_EM schrieb:
Die Vorteile von Optane bzw. 3D XPoint dürften sich nur bei anspruchsvollen,
Daten-intensiven Anwendungen bemerkbar machen
bei denen viele Daten sequentiell weggeschrieben werden.
Workstations, wissenschaftliche Anwendungen, Server, etc.
Nicht sequentiell, da sind auch SSDs mit NAND schneller und es gibt welche die schneller als die Optane sind, aber wenn es zufällige Schreibzugriffe sind und die über eine ganze Zeit, wo NAND SSDs dann in den Steady State kommen, da haben die Optane einen Vorteil, da es sowas wie einen Steady State bei denen nicht gibt, die Leistung bleibt immer gleich. Dann sind sie noch sehr gut, wenn es gemischte Schreib- und Lesevorgänge gibt, was bei SSDs mit NAND auch immer zu Performanceeinbussen gegenüber reinen Schreib- oder reinen Lesezugriffen führt.

Fred_EM schrieb:
NAND FLASH Speicher sind per se Daten-unsicher.
Nur durch ausgeklügelte Error Correction Methoden sind sie überhaupt einsetzbar.
Je mehr Bits pro Speicherzelle, desto katastrophaler.
Praktisch ist dies aber kein Problem, die Controller können damit umgehen und auch die Optane haben eine deutlich Fehlerkorrektur, was man auch den schwachen Schreibraten und geringeren Nutzkapazität gerade der kleinen Optane Memory sieht. Bei den 900P und DC P4800X dürfte die Fehlerkorrektur noch aufwendiger sein, die haben nämlich sehr viel mehr OP ab Wert und eigentlich kann man diese nur damit erklären, dass die Daten dort mit noch mehr Redundanz gespeichert werden.

Selbst HDDs sind sehr fehleranfällig und haben daher auch immer eine ECC hinter jedem physikalischen Sektor, damit man sie überhaupt nutzen kann. Trotzdem wird von den Herstellern in Form der UBER extra angegeben mit welche Häufigkeit man mit unkorrigierbaren Bitfehlern rechnen muss, was dann aber nicht dazu führt das eine Platte korrupte Daten rausgibt, sie gibt stattdessen einen Lesefehler aus und markiert den betroffenen Sektor als schwebend.
Fred_EM schrieb:
In diversen industriellen Anwendungen kommt daher vorzugsweise NOR FLASH zum Einsatz.
Ein Bit nimmt da eine Speicherzelle vollständig in Anspruch.
NOR wird aber nicht deswegen verwendet, sondern weil es bitweise gelesen und zumindest in eine Richtung ohne Löschen auch überschrieben werden kann. Außerdem ist es wie RAM oder 3D XPoint linear adressierbar, was die Nutzung in Schaltungen gegenüber Speichern die blockweise adressiert werden müssen, extrem vereinfacht.

Der Nachteil von NOR sind die kleinen Kapazitäten und höheren Kosten, aber wenn man keine sehr große Kapazität braucht, ist dies zu verschmerzen, wozu sollte man ein NAND nehmen, bei dem heute schon Diesize von 128Gbit klein sind, wenn man nur einen Bruchteil davon braucht?
Fred_EM schrieb:
3D XPoint ist als Technologie gegenüber FLASH grundsätzlich wesentlich Daten-sicherer.
Da man darüber noch zu wenig weiß, würde ich mich nicht so weit aus dem Fenster lehnen, denn ohne einen scheinbar doch recht deutlichen Fehlerkorrekturaufwand kommen die Optane nicht aus und die DIMM Module verzögern sich auch. Der Grund dafür ist nicht bekannt, es könnte durchaus sein, dass die bisherige Fehlerkorrektur für RAM nicht reicht, aber dies wird man auch erst wissen, wenn die Optane DIMM dann mal auf dem Markt sind.
Fred_EM schrieb:
Für einige Anwendungen ist das sehr wichtig, für andere wiederum nicht.
Die Sicherheit der Daten auf dem Medium ist immer wichtig. daher werden die Daten ja auch bei allen Massenspeichern per ECC vor Korruption soweit geschützt, dass damit ein praktikables Mass an Sicherheit erzielt wird.
Fred_EM schrieb:
Auf einer NAND FLASH SSD befinden sich üblicherweise viele Foto-, Video- und Musik-Dateien.
Wenn da mal ein Bit hin und wieder falsch ausgelesen wird
merkt das wahrscheinlich keiner - who cares.
Es werden ja keine Bits falsch geliefert, es werden Lesefehler geliefert, wenn die ECC nicht ausgereicht hat um die Fehler der Daten zu korrigieren. Unerkannte Fehler können allenfalls auf den internen Datenpfaden der Laufwerke oder Host Controller oder auch im RAM des Rechners entstehen, aber die Laufwerke selbst, egal ob HDD oder SSD, haben immer eine Fehlerkorrektur und die Übertragung zum Host hat ebenfalls eine Fehlerkennung, da müssen fehlerhafte Übertragungen dann eben wiederholt werden. Die Annahme ein Bit wäre von dem Medium falsch geliefert und bis zur Anwendung durchgereicht worden, ist ein Märchen, dies gibt es nicht. Man kann allenfalls mit bestimmten Befehlen oder Konfigurationen erreichen das Platten auch Daten liefern die nicht korrekt gelesen werden, die ATA Streaming Befehle für Echtzeitvideoaufzeichnungen machen dies z.B. und bei SAS Platten die auf 520/528 Byte pro Sektor formatiert werden, passiert dies auch, aber da legt der RAID Controller dann selbst eine ECC auf diese 8 oder 16 zusätzlichen Bytes jedes Sektors damit er selbst Lesefehler erkennen und dann mit Hilfe der Redundanz des RAID beheben kann. Das alles hat aber mit normalen PCs nichts zu tun.
 
Mich würde brennend interessieren, wie hoch der Leistungsverlust von Meltdown und Spectre 2 bei den Optane Memories ausfällt. Ich denke, der wird massivst sein....
 
Es gibt doch hier bei CB einen Review dazu, der Bugfix für Meltdown kostet fast nichts, aber der bisherige von Intel für Spectre schon. Wegen der Reboot Problems wird Intel den ja noch mal überarbeiten müssen, da wird man also noch mal sehen müssen ob dann die Performance gleich bleibt, oder ob es auch gelingt die Einbrüche zu mindern. Wie der Bugfix von AMD dann dort die Performance beeinflusst, muss man abwarten, der ist meines Wissens nach ja noch nicht draußen.
 
@Holt: Je schneller das Medium, desto stärker brechen die Transferraten ein. Deshalb sehe ich schwarz für Optane Memory. Dein Seitenhieb auf AMD ist obsolet, weil Optane Memory sowieso nur Intel Only ist. Und so wie es aussieht, wird bei AMD keinerlei Geschwindigkeit durch einen Patch eingebüßt.
 
Die Optane, auch die kleinen Memory sind einfach nur PCIe NVMe SSDs, die laufen in jedem System welches mit solchen SSDs zurecht kommt, nur die Nutzung als Diskcache ist an die HW Voraussetzungen von Intel gebunden. Wie viel Performance der Patch von AMD kosten wird, sollte man einfach abwarten, aber wenn der bei Intel Performance kostet, dann ist nicht davon auszugehen, dass der AMD nicht auch Performance kosten wird.
 
Anders als manches Fazit in den Tests finde ich die Optane auch bei professionellen Anwendungen meist sinnlos.
Zumindest alles was auf eine Workstation anzutreffen ist.

Alle Software die im letzten Jahrzent programmiert wurde, wurde so optimiert das eben nicht permanent zufällig Daten von der disk geladen werden müssen. Solche Software wäre einfach extrem ineffizient gewesen.
Solche Zugriffsmuster sind fast immer vermeidbar und wurden fast immer vermieden. Deshalb bringt es einem auch nichts bei Videobearbeitung, dass die Latenz noch etwas niedriger ist. Es werden immer größere Batches geladen und da ist eine SSD mit sequenziell sogar überlegener Leistung annährend gleich schnell.

Apache Spark das wichtigste Framework für verteilte Datenverarbeitung (machine learning, logs verarbeiten und co.), wurde in seiner ersten Iteration hauptsächlich Disk Zugriffe optimiert (damals noch für HDDs). In 2.0 wurde die CPU verarbeitungsseite optimiert, weil das Daten zur CPU bringen nicht mehr der Flaschenhals war.
Ein Optane SSD würde da einfach nur viel zu viel kosten und praktisch nichts bringen.

In den meisten Anwendungen die viel Leistung verlangen ist RAM caching so intelligent und optimiert (weil es das sein musste füher), dass eine schnellere Optane SSD wenig bis nichts ausmacht.

Optane bringt etwas in ganz speziellen Fällen wie einem Redis-Server. Also einem in RAM key-value store, in dem man Optane RAM Riegel statt DRAM verwendet und eventuell Geld spart.
Oder in seltenen Anwendungsfällen wo die permanente Schreiblast so hoch ist das eben die SSDs ihre nötigen Erholungspausen nicht bekommt. Die meiste Software hat zuviel Compute Anteil auf CPU/GPU, wodurch mehr als genug Zeit anfällt in denen die SSD ihre Erholungspausen bekommt. Gelesen wird eventuell permanent oder sehr viel aber es wird nur selten permanent geschrieben. Mir fällt da fast kein Anwendungsfall ein. Es gibt sicher welche aber viele sind es nicht.

3d Xpoint wird sicher seine Nische finden, aber es löst eigentlich kein wirkliches Problem heute.
SSDs mit 3GB/s lese Leistung und hohen peak Schreibleistungen sind alles was wirklich gebraucht wird, solange 3D Xpoint sich nicht preislich genug angleicht, damit es einfach als die bessere Lösung dasteht, seh ich keinen Sinn.
Für workstations, notebooks, Spieler PCs ist es imo komplett nutzlos. Da sollte man Geld in alles andere vorher investieren.

Ganz besonders für Spieler wie Computerbase eben hauptsächlich anspricht, bringt so eine kleine SSD nichts. Jetzt gibt es schon Spiele mit 150GB Platzbedarf. Wenn man die dann auch der HDD unterbringen muss weil das schnelle Systemlaufwerk keinen Platz hat, dann hat man nicht viel davon. Besser man kauft eine größere SATA SSD und es bringt einem weit mehr bei den Ladezeiten.
 
Datenbanken sind eine Anwendung wo 3D XPoint sehr gut performt, auch die Bearbeitung von so großen Datenmengen das sie nicht ins RAM passen und ständig von Disk nachgeladen und dahin ausgelagert werden müssen. Die Optante lösen schon heute Probleme weit besser als NAND SSDs, aber dies sind kaum Anwendungen wie sie Heimanwender haben und auch nicht jeder Enterpriseanwender hat die passende Anwendung dafür. Diejenigen die eine haben, frage die DC P4800X aber kräftig nach.
 
Genau dies ist doch der Grund, warum so schlecht über Optane geredet wird. Intel vermarktet es als Produkt für jederman, was schlicht und einfach (noch, in ein paar jahren sehen wir weiter) nicht der Fall ist. Optane für Consumer ist meiner Meinung nach einfach nur ein marketing gag. Einige Benchmarkfetischisten und Technikesotheriker (wenn ich dieses Geplapper über Haltbarkeitsprobleme schon höre...) springen natürlich voll darauf an.
 
Zurück
Oben