News Optane Memory H10 SSD: Start für die erste Fusion von 3D XPoint und 3D-NAND

Footluck0r

Lt. Junior Grade
Dabei seit
Apr. 2008
Beiträge
471
Und das fertige Notebook im Regal hat dann einen Core i 9xxx a ++ verbaut?
Um den letzten uninformiertem Kunden ein tollen Leistungsschub zu suggerieren?
 

HaZweiOh

Admiral
Dabei seit
Mai 2011
Beiträge
7.370
Seltsam find ich nur: Warum schafft es Micron nicht ein Produkt auf den Markt zu werfen?
Für den Massenmarkt beobachten sie sicher aufmerksam ihren ehemaligen Partner. Bevor borizb und Holt wieder im Dreieck springen, zitiere ich mal eine blaue Seite mit weißer Schrift, die wir alle kennen:
Im Einzelhandel waren die Verkäufe bisher hingegen mehr als ernüchternd und dürften es bleiben.
Nach nicht einmal einem Jahr wird das von Intel geschnürte Bundle aus Core-i-8000-Desktop-Prozessoren gepaart mit einem M.2-Optane-Modul wieder eingestellt. Als Grund gibt Intel die geringe Nachfrage aus dem Markt an.
In möglichen Nischen kann die Haltbarkeit von QLC zum Problem werden. Außerdem gibt es halt noch andere (auch Samsung), die weiter entwickeln.
 
Zuletzt bearbeitet:

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
53.689
Ich hoffe an so etwas wird bereits gearbeitet und es kommt in Zukunft
Nochmal, weil Du da so drauf rumreitest: Optane DC Persistent Memory ist die SSD im RAM Slot mit dem elektronischen DDR4 Interface. Dies kann als RAM oder auch als RAM Disk genutzt werden. Nachdem nun sowohl das Optane DC Persistent Memory offziell vorgestellt wurden und sogar bei ersten Händlern zu haben ist, als auch die passende Caskade Lake Plattform, kann man also wohl behauptet, dass es das schon gibt.
dass das "Produkt" nur im Intel-Ökosystem funktioniert.
Wieso sollte es nur im Intel-Ökosystem funktionierten? Dies gilt nur für das Cachen mit dem RST Treiber, aber nicht für die Hardware selbst. auch die Optane Memory sind einfach nur M.2 NVMe SSDs, die laufe überall wo auch andere M.2 NVMe SSDs funktionieren. Ich habe eine Optane Memory als Linux Systemlaufwerk in einem Heimserver auf Xeon-D 1500er (Boradwell-DE) Basis und damit einer Plattform, die nicht offiziell unterstützt wird.
Parallelen zur restriktiven Anfangszeit der standalone Optane Memory Cache-Lösung sind ziemlich offensichtlich.
Nein, auch die kann man in jedem System nutzen welches M.2 NVMe SSDs unterstützt, man muss dann nur eine anderen Software für das Caching einsetzen, aber da gibt es ja auch genug Alternativen, auch eine von AMD selbst.
Ich hatte zumindest erwartet, dass 3d-Xpoint und NAND unabhängig vom Betriebssystem so in dieser SSD funktionieren
3D Point ist nur der Name des Speichermediums und Optane der Intels Handelsname dafür. Die Optane SSDs laufen alles auf allen Plattformen und mit allen OS die NVMe SSDs unterstützen. Alleine die Cachefunktion über den RST ist an bestimmte Intel Plattformen gebunden und die Optane H10 ist auch nicht anderes als einfach nur zwei SSDs auf einer M.2 Platine. Die einzige Anforderung an die Hardware ist hier, dass diese PCIe Lane Bifuraction bei dem M.2 Slot unterstützt. Dies sollte im Prinzip auch bei AM4 gehe, da die M.2 Lanes da ja an dem interen Chipsatz hängen und bei den RYZEN CPUs sind 2 der 4 Lanes mit den beiden SATA Ports dieses interen Chipsatzes geshared und ich meine auch ein Board gesehen zu haben bei dem man den Slot mit nur 2 Lanes betreiben kann, ohne dann die beiden SATA Ports zu verlieren.
Das würde ja bedeuten, dass der Bedarf an Produkten, die nicht realisiert werden können, weil die Fertigung noch nicht so weit ist, durch diese Produkte hier "behelfsmäßig" abgedeckt werden soll - oder was meinst du damit?
Letzteres. Ich erinnere mich an eine große IT Firma mit der ich in den 90ern mal beruflich zu tun hatte, da war es Pflicht jede Woche (oder war es jeden Monat) ein neues Produkt auf den Markt zu bringen und wenn man sonst nichts hatte, gab es eben die kleinen Tütchen mit Gummibärsen oder sowas wie TicTac. Dinge die man sonst mit dem eigenen Logo nur für Messen herstellen lässt, bekamen eine Produktnummer und sind in dem offiziellen Bestellsystem bestellbar gewesen, damit war es dann eben das neue Produkt der Woche.

Intel dürfte mit 10nm locker Server CPUs mit 40+ Kernen auf einem Die herstellen können, aber die gibt es eben wegen der Verzögerung noch nicht. Also bringt man die 9000er Xeons mit zwei Dies um den Markt für sehr kompakte Server mit viele Kerne für HPC bedienen zu können. Man bringt die F CPUs um Diesize zu sparen, denn das neue R0 dürfte wohl nun ohne iGPU sein und so mehr CPUs aus einem Wafer zu bekommen. Dazu gibt es eben solche speziellen CPUs wie den Xeon W-3175X oder den i9-9990XE. Die hätte es wohl kaum alle gegeben, wenn die Einführung der 10nm Fertigung sich nicht so verspätet hatte.
dank der Plattheitswahn der von Intel mit Ultrabook befeuert wurde.
Gibt es dafür einen Beleg oder geht es nur ums stänkern? Kann es nicht auch sein, dass die Kunden einfach nach immer flacheren Notebooks verlangt haben und Intel mit den Ultrabooks auf diese Nachfrage nur reagiert hat.
Gerade wenn man ein NUC mit Mobilkomponenten und einem Desktop nebeneinander an der Tastatur hat wird man schnell ungeduldig.
Keine Ahnung welches NUC da mit welchem Desktop verglichen wird. Es gibt viele NUC mit sehr unterschiedliche leistungsfähigen CPUs, genau wie es auch beim Desktop sehr unterschiedliche Leistungsklassen gibt und es gibt auch Desktops die viel lahmer als ein schnelles NUC sind.
Schnellerer Massenspeicher ist aber nicht etwas was einem sofort einfällt wenn man sich beim NUC etwas wünschen soll.
Schnellen Massenspeicher möchte ich in jedem meiner Rechner haben.
Es scheint als ob Intel versucht eine Nische für Optane, den sie womöglich für viel Geld entwickelt hat, zu finden.
Die Hauptanwendung für das 3D XPoint ist im Enterprisesegment, die Consumerprodukte dürften vor allem dazu dienen die Verbreitung zu erhöhen, was auch wichtig ist damit die Enterprisekunden Vertrauen in die Technik fassen. Es hat ja auch bei den SSDs mit NAND lange gedauert bis diese auch abseits von speziellen Anwendungen dann breite Akzeptanz bei den Entscheidern der Rechenzentren gefunden haben. Da hilft es wenn man sowas schon im Notebook oder dem PC hat, im eigenen oder dem von Bekannten, die dann bestätigen können dass es zuverlässig funktioniert.
Abseits von Mini-ITX mMn Nice-to-have, aber mehr auch nicht.
Es ist ja auch genau für solche kleinen Formfaktoren gemacht bei denen man eben keinen zwei M.2 Slot oder nicht genug Lanes hat um das eine normale Intel 660p und eine Optane Memory auf je einer M.2 SSD verbauen zu können.
NVME ist ja heute schon (im Consumerbereich) mehr Marketing als dass er praktischen Nutzen hat.
Wieso ist es Marketing, denn bisher die meisten Anwendungen noch gar nicht von deren Performance profitieren. Dies liegt auch daran, dass die ihre Daten in aller Regel noch komprimiert speichern, womit dann schnell die Performance der CPU limitiert. Die Entwicklung der Software hängt eben den Möglichkeiten der Hardware meist um Jahre hinterher. Außerdem gibt es auch genug Blender, also NVMe SSDs die nur leer schnell sind, voll aber teils langsamer als SATA SSD und wenn man sich so einen Mist kauft, sollte man sich schon gleich gar nicht wundern, wenn man im Alltag keinen Vorteil merkt.
Es gibt keine NVMe Slots, da NVMe ein Software Protokoll für PCIe SSDs ist. Wer von NVMe Slots redet, müsste statt von SATA Port auch von AHCI sprechen und beweist nur, dass er vom Thema so gar keine Ahnung hat. Dies gilt auch für den Deppen der dies damals bei AMD in die Folien über die AM4 Plattform geschrieben hat.
Da die CPU immer der Flaschenhals bleibt, insbesondere in Notebook
Wobei es nun schon U CPUs mit sehr hohen Turbotakten gibt. Solche Notebooks sind für leichte Lasten gemacht, aber nicht für Dauerlast. Dafür gibt es die mobilen Workstation, die haben auch eine andere Bauhöhe, wiegen richtig was und haben die H Serie CPUs statt der U verbaut.
Denn mit QLC und OLC werden die Preise verdammt niedrig,
OCL war eine Fake News die von Micron umgehend dementiert wurde. Wobei eigentlich jedem klar sein sollte, dass es kaum realistisch ist einen Sprung von 4 auf 8 bpc zu erreichen, nachdem man viele Jahre gebraucht hat um überhaupt von 2 auf 3 und dann auf 4 bpc zu kommen.
Optane hat bisher das Problem das sowohl Speicher- und Produkt-Herstellung sowie Vertrieb in einer Hand liegen. Bei Intel.
So ein Unsinn und Du schreibst es doch kurz darauf selbst, dass dem nicht so ist:
Warum schafft es Micron nicht ein Produkt auf den Markt zu werfen? Die haben die Technologie doch auch.
Intel und Micron haben 3D XPoint zusammen entwickelt, wird sogar die Fab in Utah übernehmen und hat auch das Recht dies zu nutzen, nur eben nicht unter dem Namen Optane, denn das ist der Markenname von Intel für das 3D Point, aber der Name ist ja nun wohl wirklich egal.

Micron hat keine Kompetenz bei der Herstellung von SSD Controllern und die braucht man ja offenbar um die 3D XPoint einsetzen zu können. Micron wollte ursprünglich NVME SSDs mit 3D XPoint von Partnern entwickeln lassen, die muss man aber auch erstmal finden. Dann ist der Aufwand extrem hoch, der Markt aber klein und schon von Intel besetzt. Was die Nutzung von 3D XPoint wie RAM analog zu den Optane DC Persistent Memory angeht, so fehlt da einfach noch die passende JEDEC Spezifikation (NVDIMM-P), die in der zweiten Jahreshälfte erwartet wird. Dann kann jeder die Technik zu definierten Konditionen lizenzieren und nutzen, auch AMD und Micron. Es sind dann aber trotzdem gewaltige Investitionen nötig, dabei ist das Marktpotential unbekannt und mit Intel schon ein Konkurrent auf dem Markt. Gleichzeitig schwächt sich gerade die Konjunktur ab, die Nachfrage nach NAND und DRAM ist massiv gefallen und damit auch Preise dafür und die Gewinne von Micron, die ja praktisch nur DRAM und NAND herstellen. Da überlegt es sich eine Firma wirklich dreimal, bevor sie solch große Investitionen angeht.

Außerdem gibt es ja auch noch andere Storage Class Memory Technologien, die sind nur noch nicht so weit um auch bzgl. der Kapazitäten eine Konkurrenz sein zu können, aber irgendwann wird schon jemand den Durchbruch schaffen, aber bis dahin können Intel und Micron alleine das Feld beackern.
 
Dabei seit
März 2017
Beiträge
873
@Holt ist es nicht weil flüchtig, hält keine Daten nach Neustart, mehr als ne Art RAM-DISK in anderer form ist das nicht... ich rede von direkter SSD Technik ala NVME M.2 etc. einfach nur in Bauform von RAM-Riegeln die dann dort auch gehen und erkannt werden ohne beisein von RAM ansich, sprich nur die nutzung des gleichen Slots.

Was Intel da hat und macht ist nicht das wovon ich spreche!
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
53.689
Dabei seit
März 2017
Beiträge
873
Die auf dem RAM-Slot sind flüchtig soviel ich gelesen habe...
 

ZeroZerp

Commodore
Dabei seit
Okt. 2007
Beiträge
4.698
Es geht um Reaktionszeit, nicht um Datenverarbeitungsgeschwindigkeit oder Bandbreite. Du hast keine Sekunden weniger Warterei.
Niedrigere Reaktionszeit bei gleichbleibender Datenübertragungsgeschwindigkeit=weniger Warterei.

Nach Deiner Logik hätten die ersten SSDs, die niedrigere Übertragungsgeschwindigkeiten hatten, langsamer sein müssen, als HDDs. Aber selbst die ersten SSDs, die diese Bezeichnung verdient haben (mit 20-30MB/sek.) haben die HDDs, die damals schon 80MB/Sek. geliefert haben im Praxisbetrieb deutlich geputzt.

LG
Zero
 

projectneo

Lieutenant
Dabei seit
Juli 2010
Beiträge
524
Mhh was soll das bringen? Der Preis wird nicht günstig, es sind zwei Controller verbaut und zwei unterschiedliche Speichertypen die das PCB komplexer gestallten. Gleichzeitig ist das Ding aber langsamer als gute M2 SSDs da hier ja nur 32GB Cache schnell sind. Was will Intel damit erreichen?
 

user2357

Cadet 4th Year
Dabei seit
März 2017
Beiträge
122
Wieso sollte es nur im Intel-Ökosystem funktionierten? Dies gilt nur für das Cachen mit dem RST Treiber, aber nicht für die Hardware selbst. [...]
Nein, auch die kann man in jedem System nutzen welches M.2 NVMe SSDs unterstützt, man muss dann nur eine anderen Software für das Caching einsetzen, aber da gibt es ja auch genug Alternativen, auch eine von AMD selbst.
[...]
3D Point ist nur der Name des Speichermediums und Optane der Intels Handelsname dafür. Die Optane SSDs laufen alles auf allen Plattformen und mit allen OS die NVMe SSDs unterstützen. Alleine die Cachefunktion über den RST ist an bestimmte Intel Plattformen gebunden [...]
Meine Kritik, dass das Produkt nur im Ökosystem von Intel funktioniert, bezog sich auf den abgezielten Einsatzzweck, bzw. die grundlegende Idee, wie diese SSD in einem System verwendet wird.
Mir ist vollkommen klar, dass es sich dabei einfach um zwei separate M.2-SSDs auf einer Platine handelt, und dass sie "roh" auch in anderen Systemen laufen werden, wie dein Beispiel des Optane Memory Sticks als Systemplatte in dem Server. Nur zeigt gerade dieses Beispiel, dass es aus dem Produkt (Memory Stick) abgeleitete Einsatzszenarien gibt, die damit eigentlich nicht besetzt werden sollten. Ich finde es schade, dass Intel durch die Beschränkung auf RST (und 8e Generation U-Prozessor und 300er Chipsatz) den für das Produkt vorgesehenen Einsatzzweck nur auf die eigenen Systeme beschränkt - und davon auch nur eine Teilmenge. Das Argument, dass eine vergleichbare Verwendung auf AMD-Systemen möglich ist mit Software-Lösungen wie Fuzedrive (StoreMI) oder meinetwegen Primocache oder ähnliches - das sind mir einfach zu viele ifs and buts.
Das Produkt wäre mMn erfolgreicher und würde eine größere Verbreitung erfahren, wenn das Caching (besser gleich Tiering) direkt intern erfolgen würde. Ein entsprechend dafür entwickelter Controller, der über "Massenware" wie diese OEM-Lösungen amortisiert wird, ließe sich sicher auch Micron gut unterjubeln.
 
Zuletzt bearbeitet:

Lonesloane

Lt. Junior Grade
Dabei seit
Okt. 2006
Beiträge
319
Mhh was soll das bringen? Der Preis wird nicht günstig, es sind zwei Controller verbaut und zwei unterschiedliche Speichertypen die das PCB komplexer gestallten. Gleichzeitig ist das Ding aber langsamer als gute M2 SSDs da hier ja nur 32GB Cache schnell sind. Was will Intel damit erreichen?
Bei einer normalen M2 (mit DRAM und Triple Cell) wird auch nur ein Teil per SLC-Cache beschleunigt und ist wirklich schnell. Oft sind das weniger als 32GB. Diese 32GB Optane haben dann aber noch eine deutlich bessere Latenz und stabilere und höhere IOPS. Kaputtschreiben kann man den auch nicht. Eingespart wird der DRAM-Cache, den gibt es auch nicht umsonst.

Ich erwarte/hoffe, daß man in Normalfall fast nur die Optane-Geschwindigkeit spürt und die Schreibschwäche des QLC nicht mehr auffällt. Lesend ist der QLC ja ok und ich hoffe, daß der Treiber so intelligent ist die entscheidenden zufälligen kleinen Schreib und Lesezugriffe komplett über den Optane abzuwickeln.

Meine Erfahrungen mit Optane sind sehr positiv: Ich habe eine 900p (280GB) als BS-Platte und beschleunige eine 3TB Seagate mit 32GB Optane.

Also warte ich mal einen echten Test ab, aber für ein Ultrabook könnte das eine Lösung sein mehr Speicherplatz anzubieten. Vor allem wenn man sieht wie manche Hersteller beim Speicherplatz geizen und Aufpreise verlangen (Was kosten Macbooks mit 500GB oder 1TB SSDs?)
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
53.689
ie auf dem RAM-Slot sind flüchtig soviel ich gelesen habe...
Wo hast Du denn Quatsch gelesen? Die 3D XPoint sind nicht flüchtig, egal ob der Controller über PCIe oder den DDR4 Slot angesprochen wird. Aufpassen muss man natürlich, dass das BIOS nicht beim einen RAM Test macht und dabei Inhalte überschreibt, es muss also wissen, dass es ein nicht flüchtiges RAM hat, denn normalerweise geht das BIOS ja davon aus, dass das RAM beim Start leer ist. Dies gilt aber auch, wenn andere Arten von NVDIMM verwendet werden, wie etwa die bei denen der RAM Inhalt über einen Akku gepuffert in NAND geschrieben wird.
Meine Kritik, dass das Produkt nur im Ökosystem von Intel funktioniert, bezog sich auf den abgezielten Einsatzzweck, bzw. die grundlegende Idee, wie diese SSD in einem System verwendet wird.
Aber genau diese grundlegende Idee, nämlich die Optane Memory als Cachelaufwerk zu nutzen, ist doch auf jeder anderen Plattform ebenso möglich.
das sind mir einfach zu viele ifs and buts.
Welche denn? Intel liefert halt für einen Teil seiner Plattformen mit dem RST die passende Cachingsoftware gleich mit, also gewissermaßen die Komplettlösung, aber es gibt doch genug andere Cachingsoftware, AMD hat eine und unter Linux gibt es auch genug, die meisten NAS unterstützten Caching ja auch und basieren auf Linux. Wo da nun die vielen "ifs and buts" sein sollen, wenn man statt einer SSD mit NAND nun eine Optane mit ihrem 3D XPoint als Cachelaufwerk nimmt, kann ich da wirklich nicht nachvollziehen. Die einzige Einschränkung ist bei der, dass die ganzen Optane SSDs alles NVMe SSDs sind und es kein Modell mit SATA Interface gibt, so dass eben PCIe zur Anbindung der Cache SSDs nötig ist. Dies gilt aber auch, wenn man z.B. eine Samsung 970 Pro als Cachelaufwerk nutzen möchte.
Das Produkt wäre mMn erfolgreicher und würde eine größere Verbreitung erfahren, wenn das Caching (besser gleich Tiering) direkt intern erfolgen würde.
Das Problem ist nur, dass dann das Caching nicht so effektiv sein kann, da der Controller auf der Platine ja nur die Zugriffe sieht, also ab welchem LBA wie viele aufeinanderfolgende LBAs gelesen oder geschrieben werden sollen. Was das für Daten sind, ob das also Metadaten des Filesystems sind oder doch Nutzerdaten und zu welcher Datei sie gehören, weiß er gar nicht. Auf Ebene des Betriebssystem kann der Algorithmus viel effizienter arbeiten und den Cache besser verwalten, auch weil er auf der CPU läuft die viel mehr Resourcen hat als so ein kleiner Controller der mit ein paar wenigen Watt und wenig RAM auskommen muss. Die SSHDs cachen deshalb auch einfach nur die Daten, wenn sie mit einem kurzen Zugriff gelesen wurden, also z.B. alles wo beim Zugriff nur maximal 64k auf einmal gelesen wurden, landet im Cache.

Marvells HyperDuo-Technologie wie sie z.B. im Marvell 9230 steckt, ist noch simpler, der wird nur der untere Adressbereich auf der SSD gespiegelt, wie bei einem RAID 1 welches nur eben unvollständig ist, da ja die Cache SSD kleiner ist als die HDD die gecacht werden soll oder im anderen Modus ist es ein JBOD (BIG) aus der SSD und der Platte bei der der Adressbereich erst von der SSD und dann von der HDD gebildet wird. Da wird also immer nur auf den niedrigen Adressen, eben so weit die Kapazität der SSD reicht, überhaupt etwas mit der SSD gemacht. Das funktioniert dann auch nur, wenn man den Benchmark schön auf einem leeren Volumen ausführt. Aber der Controller hat auch nur 1W zur Verfügung und muss dabei auch noch alles andere erledigen, was ein SATA Host Controller tun muss und ist dabei noch ein echter HW RAID Controller.

Man kann mit so minimalen Resourcen wie sie auf einem Controller einer SSD für Notebooks überhaupt nur zur Verfügung stehen können, einfach keine besonders ausgefallenen Cachingalgorithmen realisieren, auch wenn die Werbung z.B. für die SSHDs dies immer verspricht.
Eingespart wird der DRAM-Cache, den gibt es auch nicht umsonst.
Wo denn, ich sehe es auf dem Bild immer noch und dies ist auch gut so, denn die beiden SSDs teilen sich zwar die gleiche Platine, aber haben sonst nichts miteinander zu tun, der Controller für die NANDs kann also nicht einfach mal auf das 3D XPoint zugreifen.
Ich erwarte/hoffe, daß man in Normalfall fast nur die Optane-Geschwindigkeit spürt und die Schreibschwäche des QLC nicht mehr auffällt.
Vergiss es, denn auch die Schreibraten der Optane Memory sind nun nicht gerade rekordverdächtig.
 

HaZweiOh

Admiral
Dabei seit
Mai 2011
Beiträge
7.370
Ich habe eine 900p (280GB) als BS-Platte und beschleunige eine 3TB Seagate mit 32GB Optane.
Eine Festplatte wollen heute immer weniger Leute in ihrem PC haben. Von dieser Summe:
  • 400 € für die Optane
  • 53 € für die Caching-Lösung (die auch einen M.2-Slot blockiert)
  • 94 € für die 3 TB Festplatte
= 547 Euro

bekommt man 4 TB reinen SSD-Speicher, und hat dann
  • 4 TB statt 3,3 TB Speicher
  • SSD only, kein halbgares Caching
  • keine lärmende Festplatte im Rechner
  • kein langsames Nachladen von der Festplatte
  • weniger Stromkosten
  • keine Extra-Software mehr nötig
  • kompatibel mit allen Plattformen und Systemen
 
Zuletzt bearbeitet:

MichaG

Redakteur
Ersteller dieses Themas
Teammitglied
Dabei seit
Juli 2010
Beiträge
8.639
Konnte jetzt nicht alles durchlesen hier. Aber wegen flüchtig/nicht flüchtig mal zur Aufklärung:

Optane DIMM lässt sich in zwei Modi nutzen. Im Memory Mode ist er wie normaler RAM flüchtig! Nur im App Direct Mode ist er nicht flüchtig. Per se ist es aber eine nicht flüchtige Speicehrtechnik. Ich hoffe das verwirrt jetzt nicht noch mehr. :D

Mehr dazu hier: https://www.computerbase.de/2018-10/intel-optane-dc-persistent-memory-modes/
 

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
53.689
Leider fürchte ist, dass diese Aussage schon verwirrt:
Im Memory Mode ist er wie normaler RAM flüchtig!
Dies stimmt so nicht, denn 3D XPoint ist nie flüchtig, die Daten bleiben wie bei NAND auch ohne eine Versorgungsspannung erhalten! Es wird dann nur so behandelt als wäre es flüchtig, es wird also beim und nach dem Booten nichts davon gelesen, sondern so getan als würde da nichts drin stehen. Vielleicht wird es auch aktiv genullt, ggf. teilweise beim RAM Test im POST. Es geht ja auch nicht anders, in dem Modus wird es ja als RAM benutzt, RAM steht für Random Access Memory und nicht für eine bestimmte Technologie, bevor das flüchtige DRAM üblich wurde, hat man u.a. ebenfalls nicht flüchtige Kernspeicher dafür genommen.

Ein Optane DIMM wird aber immer mit einem DRAM DIMM an gleichen Speicherkanal kombiniert und im Memory Mode wird eben vom Memory Controller entschieden wo die Daten genau stehen, also ob im flüchtigen DRAM oder im nicht flüchtigen 3D XPoint. Damit ist nach einem Spannungsabfall auch nur ein Teil des Speicherinhaltes noch vorhanden, nämlich der im 3D Point und keiner weiß welcher Teil dies ist.

Daher gibt es den App Direct Mode in dem genau kontrolliert werden kann, welche Daten nun konkret im 3D XPoint stehen und daher nicht verloren gehen werden. Diesen muss man natürlich für eine RAM Disk wählen die dem Wünschen von Retro-3dfx-User entspricht, wobei, angesichts des Nicks, wäre nicht vielleicht doch Kernspeicher...
 

Lonesloane

Lt. Junior Grade
Dabei seit
Okt. 2006
Beiträge
319
Eine Festplatte wollen heute immer weniger Leute in ihrem PC haben. Von dieser Summe:
  • 400 € für die Optane
  • 53 € für die Caching-Lösung (die auch einen M.2-Slot blockiert)
  • 94 € für die 3 TB Festplatte
= 547 Euro

bekommt man 4 TB reinen SSD-Speicher, und hat dann
  • 4 TB statt 3,3 TB Speicher
  • SSD only, kein halbgares Caching
  • keine lärmende Festplatte im Rechner
  • kein langsames Nachladen von der Festplatte
  • weniger Stromkosten
  • keine Extra-Software mehr nötig
  • kompatibel mit allen Plattformen und Systemen
Da habe ich natürlich optimiert und bei guten Angeboten zugeschnappt:
  • 250€ für die 900p (neu, nicht gebraucht)
  • 35€ für die 32GB Optane Cache (gebraucht aus dem Forum)
  • Die 3TB ist schon länger da.
  • Meine 2TB MX500 gab's am Black Friday für 200€
Hardware macht schon Spaß, aber völlig wahnsinnig kaufe ich nicht ein. Aber Du hast natürlich Recht, wenn ich den Platz brauchen sollte, dann fliegt die 32GB Optane raus und es kommt eine 1TB oder 2TB NVME rein. In meinem 1. Slot habe ich ja noch eine 960EVO und die 900p blockiert keinen M2, da sie direkt in einem PCIE 4x steckt.
 
Zuletzt bearbeitet:

Holt

Fleet Admiral
Dabei seit
Mai 2010
Beiträge
53.689
Dabei seit
März 2019
Beiträge
215
Auf der einen Seite haben wir die Situation, dass dieses Produkt an der gefühlten Performance im Alltag leider nichts ändert. Wie der Test der Optane hier auf Computerbase (siehe Abschnitt Praxismessungen!) bewiesen hat.
Für die super dünnen profi Geräte ist sowas interessant. Spart Platz und die Anwendungen profitieren von Optane. Kleines Problem das bei diesen Anwendungen eine 660p und 32Gb 3d-crosspoint eigentlich Schwachsinn ist.
 

Lonesloane

Lt. Junior Grade
Dabei seit
Okt. 2006
Beiträge
319
Hier ist der Test:

Vergleich gegen eine 760p.
Ergänzung ()

Ein etwas besserer Test:
 
Zuletzt bearbeitet:
Top