News Optane Memory H10: Intel bringt QLC-SSD mit 3D-XPoint-Cache

Schade, dass sich Intel so verzettelt. Am ehesten würnsche ich mir 10 GBE NICs von Intel auf Mainstream-Platformen.

Optane war ein Versuch. Warum sie nicht einfach in der Nische lassen wo sie tatsächlich etwas bringen mögen?

SSDs sind auf aktuellen PCs selten ein Flaschenhals und die Nutzer bzw. Windows haben mehr Informationen, um die Daten besser auf unterschiedlich schnelle Speichermedien zu verteilen.
 
EvilsTwin schrieb:

Naja, echt toll wäre ein Maybach mit Fahrer ;) Aber wie sage ich doch zu pflegen - der Kapitalismus macht uns eben alle arm.
Ergänzung ()

Wattwanderer schrieb:
Schade, dass sich Intel so verzettelt. Am ehesten würnsche ich mir 10 GBE NICs von Intel auf Mainstream-Platformen.

Naja, dann schau mal in den anderen Thread. Dort wird gesagt, mit Ethernet Lösungen > 1Gbit für Homeuser würde man sich verzetteln :D
 
Bei anderen SSD regelt der Controller den schreibCache, warum wird für diese hier ein angepasstes BIOS benötig? Spart sich hier Intel die Entwicklung/Programmierung eines angepassten Controller?
 
Giga-Gaga schrieb:
Bei anderen SSD regelt der Controller den schreibCache, warum wird für diese hier ein angepasstes BIOS benötig? Spart sich hier Intel die Entwicklung/Programmierung eines angepassten Controller?

Weil der Optane Speicher nicht "im Chip" ist wie ein DRAM Cache, sondern einfach drangeklebt wird. Technisch wie eine Steckkarte.
 
Giga-Gaga schrieb:
warum wird für diese hier ein angepasstes BIOS benötig

Weil Optane bereits von Haus aus nur auf gewissen Kombis aus CPU und Motherboard läuft, da wird dann der Funktionsumfang einfach erweitert.
 
Cool Master schrieb:
Weil Optane bereits von Haus aus nur auf gewissen Kombis aus CPU und Motherboard läuft

Das ist doch aber nur bei der Verwendung als Cache so. Die Optane Memory sind technisch ganz normale (kleine) NVMe SSDs.
 
  • Gefällt mir
Reaktionen: r4yn3
fragemann schrieb:
Naja, dann schau mal in den anderen Thread. Dort wird gesagt, mit Ethernet Lösungen > 1Gbit für Homeuser würde man sich verzetteln :D

Das ist wohl im Reigen der aktuellen Ängste eine weitere hinsichtlich Kabel. Daher diese Minimallösung mit 2,5 GBE. Der wünsche ich, so leid es mir tut, alles Schlechte weil sie den Schritt in Richtung 10 GBE nicht klar verfolgt und so den Markt verunsichert.

Nach meinen Erfahrungen funktionieren die bereits verlegten Kabel erstaunlich gut mit 10 GBE. Bei mehr als 1 GBE muss man sowieso in NICs und Switches investieren. Warum dann nicht 10 GBE mit Rückfalloption auf 5 bzw. 2,5 statt gleich auf die kleinste Geschwindigkeit zu kappen?

Jedenfalls hat Intel in Sachen NIC immer sehr ordentliche Arbeit geleistet. Das würde ich mir auch bei 10 GBE wünschen.
 
  • Gefällt mir
Reaktionen: Cool Master
@user2357

Korrekt, daher kennen die Leute Optane auch eher als durch Optane Memory.
 
0xffffffff schrieb:
Was bringt "Optane"? Was hat der klassische Benutzer oder der klassische Server davon?
Der normale Heimanwender nutzt die Fähigkeiten einer Optane praktisch nicht, im Servern aber schon. Die Dinger bringen einfach immer die gleiche hohe Leistung und da rede ich nicht von den seq. Transferraten auf die die meisten Leute bei SSDs immer nur schauen, sondern die IOPS. Die Optane haben keinen Steady State Zustand wie es bei allen SSDs mit NAND Flash der Fall ist, bei denen die Schreibraten immer irgendwann einbrechen wenn sie dauerhaft beschrieben werden, bei denen mit TLC NAND und Pseudo-SLC Schreibcache früher, bei denen mit MLC NAND später. Denn nachdem die volle NAND Kapazität geschrieben wurde, muss auch bei SSDs mit MLC (oder sogar SLC) der Controller während des Schreibvorgangs nebenbei noch NAND Blöcke löschen und dazu vorher die noch gültigen Daten umkopieren und daher fällt eben auch bei denen Schreibrate irgendwann ab. Bei der Optane aber nicht und auch nicht, wenn man parallele Lese- und Schreibvorgänge hat und man bezahlt letztlich für Performance bei anspruchsvollen Workloads:
Eine DRAM-less SSDs kann nur die volle Leistung bringen wenn sie leer ist und über einen Adreessraum von wengen GB gebencht wird, schon im Alltag wird sie oft lahm und erzeugt sogar Freezes:
Das liegt daran das die Controller die Mappingtabelle also den Flash Translation Layer (FTL) und eben nicht Userdaten im DRAM Cache ablegen, also die Information wo die Daten im NAND stehen und wo NAND frei ist um dort schreiben zu können. Die ohne DRAM Cache halten dann immer einen kleinen Teil der Mappingtabelle im interen SRAM des Controller, genug um in den Benchmarks die ja nur über ein oder weniger GB Adressraum benchen, aber im Alltag muss sie dann ständig erstmal wieder den passenden Teil aus dem NAND nachladen, was eben viel länger als ein DRAM Zugriff dauert.

Das ist das andere Ende der Fahnenstange und von den billige DRAM less SSD bis zur Optane die nie einbricht egal welcher Workload anliegt und wie lange auf sie geschrieben wird, ist eben das ganze Spektrum am Markt vertreten und je teurer die SSD ist, umso besser performt sie dann auch bei anspruchsvollen Workloads, nur haben eben die meisten Heimanwender gar keine so anspruchsvollen Workloads für die SSD und können daher eben auch weiter unten zugreifen, wobei ich aber einen Bogen um DRAM less SSDs machen würde.
0xffffffff schrieb:
Und ich hantiere mit VMs und Datenbanken
Privat oder professionell?
r4yn3 schrieb:
Eine konstant hohe Schreibrate bieten sonst nur die Samsung Pros.
Nein, die kann man zwar über die ganze Kapazität mit der vollen Geschwindigkeit beschreiben, aber eben nur einmal, überschreibt man alles sofort wieder und dies womöglich mit zufälligen 4k Schreibzugriffen, so geht auch sie in den Steady State und die Schreibperformance fällt, bei einer Optane passiert selbst das nicht.
Kulasko schrieb:
Also nach der technischen Beschreibung im Artikel ist das gar keine QLC-SSD mit integriertem XPoint-Cache, sondern eine QLC-SSD und ein Optane-Cachemodul auf einem Träger.
So ist es, dies sind zwei getrennte PCIe 3.0 x2 SSDs auf einer Platine, einmal eine Intel 660p und eine Optane Memory / M10.

Das ist wie damals die WD BLACK2 DUAL DRIVE, nur eben mit zwei PCIe NVMe SSDs.
Cool Master schrieb:
Das Produkt ist doch zu 100% an den Otto-Normalverbraucher gerichtet.
Die Optane 900P/905P sind für Enthusiasten, als die obersten Prozent der Privatkunden die nicht so aufs Geld schauen müssen und bereit sind für besondere Hardware auch einen entsprechenden Preis zu bezahlen. Genau wie die Intel 750 sind die Optane 900P/905P eben Consumerversionen von Enterprise SSDs.
Cool Master schrieb:
Optane Cache ist auch nicht wirklich interessant.
Das stimmt so nicht, dies ist nicht so interessant wenn man damit das Systemlaufwerk cachen will, aber es wird interessant, wenn damit das Datenlaufwerk cacht und das geht ja inzwischen auch, was leider vielen gar nicht bekannt zu sein scheint.
mkdr schrieb:
Wieso sollte ich einen kostbaren M.2 slot für diese gammel Optane-Speicher verbraten, dann kann ich gleich ne SSD da reinstecken.
Genau da setzt ja diese SSD an, man braucht nur einen Slot und kann da die 660p als Systemlaufwerk und trotzdem eine Optane Memory / M10 als Cache für die HDD einbauen und braucht nicht zwei Slots dafür oder sich zwischen beidem zu entscheiden.
luckysh0t schrieb:
Ich hoffe ja, dass durch dieses "fluten" des Marktes der allgemeine Optane Preis (900p,..) sinkt.
Das wäre schön.
Xes schrieb:
Eine neue SSHD hätte ich ansprechender gefunden.
Eine 3TB HDD + 250GB SSD-Cache zum attraktiven Preis käme dem ein oder anderen hier als großes Spielelaufwerk sicher gelegen.
Genau das bietet die H10 doch dann und zwar auch mit nur einem M.2 Slot, nur eben nicht mir so viel Cache, wobei es sowieso nicht sinnvoll ist einen zu großen Cache zu nehmen, da die Cachverwaltung sonst zu aufwendig ist und zu lange dauert. Laut Intel sind so bei 32 bis 64GB das Optimum.
fragemann schrieb:
Ne 2TB SSD kost doch quasi garnix mehr.
Wenn man sowieso alles auf SSDs hat weil die Kosten nicht abschrenken, dann braucht man natürlich kein Caching. Aber diese H10 ist für OEMs und da vor allem Notebooks gedacht und die OEMs werden sie da einbauen wo der Preis es eben nicht erlaubt eine fette 1TB oder 2TB SSD zu verbaut, sondern da wird dann der 660p Teil als Systemlaufwerk und der Optane Teil dann als Cache für die verbaute HDD verwendet.
Wattwanderer schrieb:
Schade, dass sich Intel so verzettelt. Am ehesten würnsche ich mir 10 GBE NICs von Intel auf Mainstream-Platformen.
Ja, aber verzetteln würde ich nicht sagen, dies sind ja unterschiedliche Abteilungen die parallel arbeiten und niemand wird von der Neztwerksparte abgezogen um solche SSDs zu entwickeln.
fragemann schrieb:
Weil der Optane Speicher nicht "im Chip" ist wie ein DRAM Cache, sondern einfach drangeklebt wird.
Was wie? Die Dies des 3D XPoint sind auch in einem Chip, keine Ahnung was damit meinst.
fragemann schrieb:
Technisch wie eine Steckkarte.
Nein, das ist technisch eben nicht eine, sondern zwei Karten, zwei unabhängige SSDs auf einer Steckkarte und daher ist die Anpassung die man braucht eben die Unterstützung der PCIe Lane Bifurkation für die PCIe Lanes des Slots, der natürlich 4 Lanes haben und eben in der Lage sein muss diese in zwei x2 aufgeteilt mit je einem Geräte an 2 Lanes zu betreiben. Bei den Lanes der Intel Chipsätze ist dies kein Thema, bei denen von der CPU schon, diese lassen sich nämlich nur bis maximal x4 aufteilen, aber für solche Rechner wo die NVMe SSDs an den Lanes der CPU hängen, ist diese SSD gar nicht gedacht.
user2357 schrieb:
Das ist doch aber nur bei der Verwendung als Cache so.
Das ist einerseits richtig, aber nicht bei dieser H10, die eben technisch zwei SSDs auf einer Platine ist.
user2357 schrieb:
Die Optane Memory sind technisch ganz normale (kleine) NVMe SSDs.
So ist es, ich habe eine Optane Memory als Systemlaufwerk für meinen Heimserver auf Xeon-D Basis mit Linux drauf. Der Xeon-D hat übrigens gleich 2 10GBASE-T Ports, aber die unterstützen eben kein NBASE-T, wie viele der älteren Enterprise 10GbE Produkte, denn NBASE-T ist ja noch recht neu.
Wattwanderer schrieb:
Bei mehr als 1 GBE muss man sowieso in NICs und Switches investieren. Warum dann nicht 10 GBE mit Rückfalloption auf 5 bzw. 2,5 statt gleich auf die kleinste Geschwindigkeit zu kappen?
Das sehe ich auch so, aber offenbar versuchen die Hersteller hier schrittweise die Geschwindigkeit zu erhöhen um den Kunden immer wieder mit etwas Neuen zum Kauf überreden zu können. Dies werde ich nicht mitmachen, schon jetzt schafft mein Heimserver mehr Durchsatz als 5GbE bietet und da der Xeon-D eben auch kein NBASE-T unterstützt, sind Lösungen die nur NBASE-T aber kein 10GBASE-T bieten, für mich auch total irrelevant.
 
Endlich einmal eine sinnvolle Anwendung des Ganzen nur muss die Logik in Zukunft schon in den SSD Controller eingebaut werden. Das Ganze sollte einige Probleme lösen:
.) Die Schreibschwäche des QLC Speichers wird nett umgangen, da in den meisten Fällen sowieso nicht mehr als 32GB auf einmal geschrieben werden
.) Da oft immer wieder dieselben Speicherbereiche beschrieben werden löst das das Problem der limitierten Schreibzugriffe. Sehr oft werden Dateien geschrieben und gleich wieder gelöscht oder mit anderen Daten überschrieben oder es kommt ein Schwung an Schreibzugriffen wo jedes Mal derselbe Block gelöscht und nur mit teilweise neuen Daten beschrieben wird. Auch wenn normalerweise ein SLC Cache eingesetzt wird aber auch dieser ist mit den Schreibzyklen begrenzt.
.) Man kann die gesamte Blockzuordnungstabelle im Optane halten was noch den Bedarf an DRAM Cache deutlich reduziert.
.) Kostenmäßig sollte sich das Ganze auch im Rahmen halten. Der Gesamtpreis sollte nicht über einer TLC SSD liegen.

Ich könnte mir den Optane als Schreibcache auch sehr gut bei einer Festplatte vorstellen, klarerweise aber nicht als Betriebssystem sondern als Datenplatte. Man braucht sich nur ansehen wie viel Performance ein guter RAID Controller aus lahmen Platten raus holt nur dadurch dass er einen batteriegestützten Writecache hat und hier reden wir von 32GB und nicht von den üblichen 1-2GB.
 
andr_gin schrieb:
nur muss die Logik in Zukunft schon in den SSD Controller eingebaut werden. Das Ganze sollte einige Probleme lösen:
Dann wäre man aber einerseits darauf beschränkt damit nur die SSD cachen zu können und dies auch noch viel schlechter als es der RST kann, denn der Controller sieht nur die Zugriffe auf die Platte und kann nicht einmal wissen geschweigen den unterscheiden was für Daten dabei gelesen werden, außerdem hat er weniger Resourcen als der RST der auf der viel schnelleren CPU läuft und auch mehr RAM nutzen kann. Dann wäre es nur eine Art SSHD.
andr_gin schrieb:
Da oft immer wieder dieselben Speicherbereiche beschrieben werden
Jeder SSD Conroller macht schon lange Wear Leveling.
andr_gin schrieb:
Sehr oft werden Dateien geschrieben und gleich wieder gelöscht oder mit anderen Daten überschrieben oder es kommt ein Schwung an Schreibzugriffen wo jedes Mal derselbe Block gelöscht und nur mit teilweise neuen Daten beschrieben wird.
Das passiert doch gar nicht, denn dafür gibt es ja was Du also Blockzuordnungstabelle bezeichnest, aber die arbeitet in Wahrheit nur nur auf Blockebene, sondern mappt die LBA auf die internen NAND Adresse und wahrscheinlich Pageweise, auf jeden Fall nicht Blockweise. Eine Page ist die kleinste Einheit die man bei NAND Lese- bzw- schreiben kann.
 
Xes schrieb:
Eine neue SSHD hätte ich ansprechender gefunden.
Eine 3TB HDD + 250GB SSD-Cache zum attraktiven Preis käme dem ein oder anderen hier als großes Spielelaufwerk sicher gelegen.
Was spricht denn für dich dagegen, eine 250GB SSD als Cache Laufwerk für eine 3GB HDD - oder besser 10TB, damit sich das preislich auch wirklich lohnt ;) - zu konfigurieren (abgesehen von dem höheren Cache-Verwaltungsaufwand, den du auch hättest, wenn beides in einem Produkt wäre)?

-> Achso, du hast ein Laptop mit nur einem Anschluss?
 
Zuletzt bearbeitet:
Giga-Gaga schrieb:
Bei anderen SSD regelt der Controller den schreibCache, warum wird für diese hier ein angepasstes BIOS benötig? Spart sich hier Intel die Entwicklung/Programmierung eines angepassten Controller?
Genau das habe ich mich auch gefragt. Warum jeweils zwei PCIe-Lanes für 3D-XPoint und NAND reservieren, wenn man dies viel besser je nach Bedarf dynamisch anpassen könnte über den Controller der SSD?
Während in den 3D-XPoint-Cache geschrieben wird werden die Lanes des NANDs doch nicht benötigt, es sei denn der Cache ist voll, aber dann werden die Lanes des Caches nicht mehr benötigt. :confused_alt:
 
Holt schrieb:
Dann wäre man aber einerseits darauf beschränkt damit nur die SSD cachen zu können und dies auch noch viel schlechter als es der RST kann, denn der Controller sieht nur die Zugriffe auf die Platte und kann nicht einmal wissen geschweigen den unterscheiden was für Daten dabei gelesen werden, außerdem hat er weniger Resourcen als der RST der auf der viel schnelleren CPU läuft und auch mehr RAM nutzen kann. Dann wäre es nur eine Art SSHD.

Das wo es wirklich um Performance geht sind Schreibzugriffe. Lesezugriffe werden sowieso in der Regel vom RAM gecached und die beim Booten benötigten Daten können selbst von QLC Speicher schnell genug gelesen werden.
Bei Schreibzugriffen hat man das Problem dass im Falle eines Stromausfalls (und das schließt auch das Abstecken des SATA Kabels mit ein) die Daten noch sicher geschrieben werden können. Ist der Cache nicht am Datenträger verbaut oder sitzt dieser am RAID Controller der immer eine Einheit mit den Daten bildet, so sind die Daten nicht sicher geschrieben.

Jeder SSD Conroller macht schon lange Wear Leveling.
Das passiert doch gar nicht, denn dafür gibt es ja was Du also Blockzuordnungstabelle bezeichnest, aber die arbeitet in Wahrheit nur nur auf Blockebene, sondern mappt die LBA auf die internen NAND Adresse und wahrscheinlich Pageweise, auf jeden Fall nicht Blockweise. Eine Page ist die kleinste Einheit die man bei NAND Lese- bzw- schreiben kann.

Wear Leveling sorgt nur dafür dass die Daten wo anders hin geschrieben werden aber der Schreibzugriff ist unvermeidbar d.h. man hat eine ganze Seite mit einem Scbreibzugriff belastet selbst wenn es sich um den SLC Cache handelt. Werden die Daten in den Optane geschrieben passiert erst mal gar nichts am Flash. Wird der Block in den nächsten 32GB bereits wieder gelöscht oder mit anderen Daten überschrieben (was ja auch einem Löschen und neu schreiben gleich kommt) müssen diese Daten nie in den Flash übertragen werden. Stell dir z.B. ein Spiel mit automatischer Quicksave Funktion vor das jede Minute 10MB auf die SSD schreibt.Spätestens beim übernächsten Speichervorgang wird die alte Datei gelöscht, per TRIM freigegeben und der Optane kann die Daten einfach verwerfen ohne den Cache zu belasten.

Was die Zuordnungstabelle angeht so meine ich die Tabelle die von Blockadresse (LBA) auf die physische Seitenadresse mapped wobei ich nicht davon ausgehe dass bei modernen Controllern wirklich eine Seite nur angrenzende Blöcke enthalten muss. Das wäre hochgradig ineffizient. Nicht umsonst hat jeder RAID Controller für jedes GB Daten 1MB Cache um die Zuteilung zumindest auf 4K Basis zu machen.
 
@Leli196

Ich sehe das aktuelle Produkt auch eher als eine Testlösung ob ein entsprechender Markt existiert und ob sich die weitere Entwicklung für so ein Produkt im Consumer Bereich lohnt.

Die Entwicklung und Fertigung des Controllers benötigt ja auch seine Zeit und Ressourcen.
 
Kann man mit einem Produkt welches eines BIOS-Updates bedarf wirklich eruieren ob für das Produkt eine gewisse Nachfrage besteht? Wenn kein Mainboard-Hersteller Updates bringt kauft auch keiner die Teile. Da muss Intel ja zwangsläufig Kooperationen eingehen um die SSD überhaupt nutzbar zu machen.
 
@Leli196

Der große Markt dürften OEM-Systeme mit passenden BIOS sein, bei den das Modul enthalten oder optional ist.
Beim BIOS muss man einfach abwarten was da in nächsten Monaten erfolgt. Wobei ich bei den privaten Endkunden keinen großen Markt für diese Lösung sehe.
 
Zurück
Oben