News Intel Optane Memory: Kleine Cache-Module mit 3D XPoint beschleunigen HDDs

1.) Die Schreibraten (vor allem beim 16GB Modul) sind wirklich erbärmlich. Da erreichen aktuelle Festplatten sequentiell schon teilweise mehr.

2.) Das, was am meisten bremst, da es sich von Superfetch optimierbar ist sind die täglich neu geschriebenen Definitionen des Virenscanners. Eine Cachelösung muss nicht oft benötigte Dateien cachen, da die sowieso von Superfetch schon sequentiell angeordnet sind, sofern sie beim Booten geladen werden. Eine Cachelösung muss die vor Kurzem geschriebenen Dateien cachen, die noch nicht optimiert wurden und dafür sind 32GB in der Regel zu wenig.

3.) Wo die Dinger Sinn machen sind in low Budget RAID Controllern, die ohne Batteriemodul auskommen aber da müsste noch massiv an Schreibrate gedreht werden und auch noch an der Haltbarkeit.
 
borizb schrieb:
Das ist schön. Intel weist also nach, dass es technisch möglich ist, verbietet es aber via Firm oder Software.
Der RST wird das Cache nur anbieten, wenn er auf dem passenden System läuft, aber als normale NVMe SSD sollte die überall laufen.
borizb schrieb:
Der Zugewinn von 16 oder 32Gb SSHD Cache erschließt sich mir auch nicht so richtig. 64 oder
128 wären sehr viel interessanter, wenn man bedenkt, mit welchen Datenmengen wir im Jahr
2017-2020 arbeiten (werden).
Klar, nur bei den etwa 2,50$/GB wäre eine 256GB dann mit 300$ auch sehr, sehr teuer für Heimanwender und OEMs würden sowas allenfalls in ganz wenigen Spitzenmodellen anbieten. Das Ziel von Intel ist die Technologie zu verbreiten und dies geht mit billigen SSDs besser, nur kann man dort für den Preis nicht viel davon verbauen und damit bleibt dann nur Caching als halbwegs sinnvoller Einsatzzweck für Heimanwender übrig. Die Preise fallen erst, wenn die Fertigungsvolumen steigen und dann kommen auch größte Optane SSDs für Heimanwender und dann dürften die Controller dafür auch besser und die SSDs schneller sein.
Piktogramm schrieb:
Da liegt ja schon der Hase begraben, wenn eine Anwendung / das ganze System nur eine QD um 1 erreicht oder ähnlich niedrige Werte, ist das ein Anzeichen dafür, dass das Laufwerk I/O-Aufgaben deutlich schneller abzuarbeiten scheint als sie gefordert werden
Aber das ist doch kein Nachteil, sondern was man im Grunde anstrebt: Ein Massenspeicher der schnell antworten kann!
Piktogramm schrieb:
oder aber die entsprechende Anwendung arbeiten nicht parallel obwohl da moderne SSDs und auch Optane wunderbar drauf skalieren würden.
Das kann auch sein, nur ist genau dann eine Technologie die eben schon bei einem Zugriff schnell ist deutlich im Vorteil und genau dies dies verspricht Intel für die DC P4800X: "5-8x faster at low Queue Depths"
Piktogramm schrieb:
Ich bleib dafür, für Endanwender gibt es nicht viele (nicht konstruierte) Anwendungsfälle wo das Ding gescheit liefern kann und für etwas gehobener Ansprüche sind die Dinger zu klein.
Das ist unstrittig. Es ist auch Intel klar, dass dies kein Massenprodukt ist für das die Leute vor den Läden Schlage stehen werden um ihre Rechner damit aufzurüsten. Die sind für OEMs interessant, ein AiO mit einer 4TB HDD ist halt nicht sehr flott, wird aber meist nicht groß aufgerüstet werden können und wenn man dann mit so einer Cache SSDs die Spontanität des Systems bei den typischen Anwendungen deutlich steigern kann, dann macht sowas eben schon Sinn. Sowas kauft auch keiner der sich intensive mit Rechnern beschäftigt, den aufrüsten will, der wird gekauft, aufgehängt oder aufgestellt und soll schnell sein, viel Plattenplatz bieten und nicht zu teuer sein.
Mydgard schrieb:
Seltsame Preise, 32 GB für 77 $? Man bekommt doch schon günstige 120 GB SSDs für einen ähnlichen Preis ...
Die Preise scheinen sich an denen der 600p in 128 bzw 256GB zu orientieren.

Serienjobby schrieb:
1. Interessantes Konzept das es schon längst gibt zb. ISRT in Verbindung einer 32GB SSD
Klar, neu ist nur das RST nun eben diese PCIe SSDs als Cache nutzen kann, vorher ging das meines Wissens nur mit SATA SSDs.
Serienjobby schrieb:
einen echten nutzen für einen Kennen gibt es nicht da nichts neu daran ist.
An den Kenner richtet sich sowas auch nicht, der hat längst eine System SSD verbaut. Das Caching ist eher für Leute die mit dem Rechner nicht viel mehr am Hut haben als ihn einzuschalten und zu nutzen. Da wird dann ein wenig gesurft, Officearbeiten gemacht und dann noch ein oder zwei Spiele gespielt, aber auch nicht die anspruchsvollen Titel, dafür wären die Kisten wo man sowas finden zu lahm und sich dann einer der Film angesehen die auf der Platte gespeichert werden soll, denn ein NAS haben solche Leute für gewöhnlich nicht. Dafür passt Cachen dann gut, denn der Browser, Office und das Lieblingsspiel werden damit deutlich schneller geladen.

HominiLupus schrieb:
Wobei ich nicht verstehe wie die es auf Kaby Lake beschränken können: SRT funktioniert mit allen und jeden Laufwerken sogar Partitionen.
Der Treiber läuft unter Windows, weiß also auf welcher HW er läuft und entsprechend wird dann die Funktion freigegeben oder eben nicht.

digger66a schrieb:
Das ist nicht für Leute mit SSD only gedacht.
Eben und auch nicht für Leute mit dicken RAIDs im Rechner.
digger66a schrieb:
Aber für Leute mit HDD only ist das ne nette Sache
hier die Auswirkungen

https://www.youtube.com/watch?v=bO_fh450u6Y
Genau wie der Typ es am Ende sagt, Intel erwartet nicht das Leute ihre 750er entsorgen um auf eine HDDs mit einer Optane als Cache zu wechseln. Das begreifen aber mal wieder viele hier im Thread nicht, die denken damit würde die nächste Stufe gezündet die ihre alten SSDs blass aussehen lässt und sind nun enttäuscht, dass dem nicht so ist. Nicht einmal die Enterprise Optane DC P4800X ist in jeder Hinsicht schneller als eine SSD mit NAND und viel teurer sowieso.

Anmeldeblödsinn schrieb:
Wenn es denn nur SSHDs mit größerem Cache gäbe wäre das glaub ich ein besserer Weg.
SSHDs haben den Vorteil auch als Datenlaufwerke vom Cache zu profitieren, Caching für diese Anwendung erlaubt der RST ja nicht.

HominiLupus schrieb:
Aber wieso sollte jemand mit HDD only 77$ ausgeben für ne caching SSD
Erstens wird da öfter die 16GB für 44$ drin sein und zweitens gibt er das ja nicht einzeln aus, sondern im Paket mit dem Rechner für einige Hundert $ den er sich gerade gekauft hat.
HominiLupus schrieb:
wenn er ne 120GB SSD für weniger bekommt oder minimal mehr für ne 250GB SSD zahlen kann?
Weil der Hersteller des Rechners ihm diese Option aber nicht oder er sie nicht möchte weil er sonst die Dateien von Hand verschieben muss damit die SSD nicht so schnell voll wird.
HominiLupus schrieb:
Caching SSDs sind immer eine schlechte Anwendung weil der Preis zu hoch ist. Schon jetzt kauf niemand eine 16-32GB SSD fürs Caching
Weil die auch zu lahm und bei den aktuellen NANDs zu wenig haltbar wären, außerdem sind die Controller dann im Verhältnis zu teuer. SSHDs werden aber schon noch gekauft.
HominiLupus schrieb:
Und jetzt will Intel eine noch teurere Caching SSD verkaufen?
Das ist eben die einzige Möglichkeit überhaupt einen sinnvollen Nutzen für so kleine SSDs unter Windows zu finden und würde man die Kapazitäten erhöhen, wäre sie schnell viel zu teuer um überhaupt gekauft zu werden. Intel erwartet so offenbar die Technologie erstmal am Besten verbreiten zu können um die Stückzahlen in der Fertigung steigern zu können, was dann die Preise denkt und davon werden wir alle profitieren, wenn dann die Modelle mit größerer Kapazität kommen die auch als Systemlaufwerk interessant werden könnten.
nebulus schrieb:
Da hat Intel ja mal wieder einen super Quatsch gebaut...
Nein, Du hast nur noch verstanden was Intel damit bezwecken will und für welchen Einsatz die gedacht ist.
nebulus schrieb:
Und für Server macht das Ding auch keinen Sinn
Dafür ist die auch nicht gedacht, dafür gibt es die DC P4800X.
nebulus schrieb:
richtige Server haben so viel Ram, das mehrere HDs darin platz finden... Gerade auf der Arbeit haben wir wieder ein paar ESx mit je 240GB - Ram verbaut.
Was meist Du mit Platz finden? 240GB (sind wohl eher 256) reichen nicht um den Inhalt auch nur einer aktuellen HDD aufzunehmen.
 
Ich frage mich gerade, ob nicht die niedrigen Schreib und Transferraten, besonders bei dem kleinen Modell, nicht doch das System ausbremsen werden in Verbindung mit einer SSD? IOPS und Latenzen sind ja schön und gut, aber so eine geringe Bandbreite?! Ich kann mir nicht vorstellen, dass man die nur 190mb/s schreibend nicht doch bemerkt...

Kommt wohl darauf an, ob alles durch den Cache zur Festplatte und wieder zurück geleitet oder der Cache nur separat beschrieben wird. Bin da nicht sehr beleutet
 
Sagte ich ja bereits dass das Datenblatt nicht stimmt.

Und wo kann man nun vorbestellen?
 
Tja irgendwie muss Intel die Leute doch zum kauf einer neun Mobo Gen überreden ;-).

Nee also ich für meinen fall hole mir Am ende des Jahres eine schöne M.2 SSD und gut ist. 500-1000 MB, mal sehen wie die Preise sich entwickeln.
 
@Holt Klar will man Hardware die möglichst schnell ist. Gleichzeitig aber auch wirtschaftlich. Bei Festspeichern die fast nur mit eiener QD um 1 betrieben werden, hat man jedoch in aller Regel zu viel Geld an der falschen Stelle ausgegeben, da der Festspeicher zwar unglaublich schnell ist, das restliche System es aber anscheinend nicht schafft die Daten ausreichend schnell umzuwälzen.
Auch für kleine Systeme mit HDDs sind diese MiniCaches reichlich bescheiden. In der Bauform könnte man genausogut ausreichend schneller, größere SSDs zum selben Preis verbauen oder gleich EMC Speicher auf die Platine löten.
 
Wieso hat man bei Festspeichern die fast nur mit eiener QD um 1 betrieben werden in aller Regel zu viel Geld an der falschen Stelle ausgegeben? Deine SSD dürfte auch im Alltag nur selten mehr als QD 1 erleben, dies hängt eben einfach von der Nutzung ab und es läuft eben nicht so viel was auf eine Platte zugreift, als dass diese eine größere QD aufbauen würde.

SSHDs und auch solche Cacheinglösung verwenden den Cache meist nur als Lesecache und es werden auch nur Daten in den Cache eingelagert die mit kleinen Zugriffen gelesen wurden, wobei eine Cacheverwaltung unter Windows natürlich hier nach der Größe der Datei selbst gehen könnte. Schreibvorgänge erfolgen ja sowieso meist gepuffert, man muss als dann nicht warten bis diese beendet ist, außer es geht um sehr große Daten aber die würden man sowieso nicht cachen, denn auch diese kleinen Optane haben selbst gegenüber SSDs genau wie NAND ältere, kleine SSDs im Vergleich zu HDDs vor allem bei kurzen, zufälligen Zugriffe einen großen Vorteil und daher macht es keinen Sinn Daten zu cachen die lange sequentielle Zugriffe zum Lesen erfordern, zumal dann der Cache schnell voll wäre.

Die Schreibrate ist also für so einen Cache eher sekundär, da die Platte die gecacht wurd, selbst eine SATA SSD bei den Zugriffen die man cacht weil sie sich am meisten lohnen, dann sowieso keine so hohe Leserate erreicht, als dass die Cache SSD (also diese Optane) die Daten nicht noch in Echtzeit mitschrieben könnte.
 
Zuletzt bearbeitet:
QD1 heißt bei einem Laufwerk welches seine optimale Leistung bei einer größeren Warteschlange erreicht schlicht, dass das Laufwerk unter seinem optimalem Arbeitspunkt betrieben wird. Für die meisten Anwendungen hätte an der Stelle dann auch ein Laufwerk gereicht, welches etwas langsamer und günstiger ist. Bei dem wäre die Warteschlange dann zwar sicher höher, was für die meisten Anwendungen aber in Bezug auf deren Geschwindigkeit aber egal wäre.
Wobei jene Anwendungen, die extrem sensibel gegenüber Latenzen beim Speicherzugriff sind, lieber sowieso auf den immer noch schnelleren RAM zugreifen sollten anstatt auf ein Laufwerk mit Xpointspeicher. Wobei mir keine Anwendung einfällt, die derart sensibel auf Speicherlatenzen reagieren würde und der dann mit 16-32GB geholfen wäre (gegen die größeren Severkarten sag ich ja nix).
 
Zuletzt bearbeitet:
Holt schrieb:
Nein, Du hast nur noch nicht verstanden was Intel damit bezwecken will

Tja, mal wieder hast nur du verstanden, was Intel bezwecken will. Als einziger aus dem Forum. :freak:

Nur werden die anderen deine Meinung wohl nicht einfach übernehmen wollen, trotz der "Ich-antworte-jedem-und-weise-jeden-zurecht"-Postings in Taschenbuch-Länge.

Dieses Produkt wird wohl wieder - wie alle Versuche vorher - grandios scheitern.
 
Zuletzt bearbeitet:
Intel wie die neue Technik an den Mann bringen und hat sich ne Nische gesucht, um erstmal Geld zu scheffeln.
Die Nische ist nicht schlecht gewählt, nur wird es wieder mal am Preis scheitern.

Fur 70€ gibts gute 250gb SSDs, die man zusätzlich einbauen kann. Da muss man auch nicht ständig manuell hin und her verschieben, da OS und alle Programme drauf passen. Den Ottonormalverbraucher juckt es nicht, ob es nun 1ns oder 1ms dauert, bis sein Programm reagiert.
 
Richtig und den OEMs sind ja sogar billigere SATA SSD schon meistens viel zu teuer. Das nächste ist dass es nur im Z270 geht auch zu teuer für die Masse und genau daran wird es scheitern zu Teuer Punkt aus.
 
Das macht nur als Optane-DIMM wirklich Sinn und zwar da wo man eine persistant cache Stufe direkt unter dem RAM braucht, also highend Server.
Über M.2 meiner Meinung nach völliger Blödsinn und bei den Preisen einer 256GB SSD erst recht.
 
Piktogramm schrieb:
QD1 heißt bei einem Laufwerk welches seine optimale Leistung bei einer größeren Warteschlange erreicht schlicht, dass das Laufwerk unter seinem optimalem Arbeitspunkt betrieben wird.
Eine hoch taktende 4 oder 8 Kern CPU auf der nur ein Thread belastet wird, ist ja dann auch unter unter dem optimalen Arbeitspunkt.

Piktogramm schrieb:
Für die meisten Anwendungen hätte an der Stelle dann auch ein Laufwerk gereicht, welches etwas langsamer und günstiger ist.
Nach der Logik reicht für so eine Anwendung dann auch eine CPU mit einem viel geringeren Takt.
Piktogramm schrieb:
Bei dem wäre die Warteschlange dann zwar sicher höher, was für die meisten Anwendungen aber in Bezug auf deren Geschwindigkeit aber egal wäre.
So wie beim CPU Beispiel die Singlethreadleistung dann geringer ist und das Programm langsamer läuft, so ist dann auch bei einer Nutzung die nur eine QD1 erzielt die Performance eben viel schlechter und Intel spricht von bis zu Faktor 10 bei 4k QD1 Vorteil für die Optane SSDs. Das wäre dann also so als wäre eine CPU mit 400 MHz Takt besser, wenn man wegen einer Singlethreadlast die anderen Kerne eine 4GHz CPU nicht auslasten kann, aber weil man bei der eben mit seiner Last nicht die optimale rausholen kann, ist dann die Geschwindigkeit plötzlich egal.

Sorry, aber Deiner Logik kann ich nicht folgen. Aber gerade wenn man bei geringen QDs hohe Leistung will, dann verspricht Optane dort einen Quantensprung gegenüber NAND SSDs, ob der eingelöst wird es in der Praxis bei welcher Anwendung bringt, wird man sehen müssen.
Piktogramm schrieb:
Wobei jene Anwendungen, die extrem sensibel gegenüber Latenzen beim Speicherzugriff sind, lieber sowieso auf den immer noch schnelleren RAM zugreifen sollten anstatt auf ein Laufwerk mit Xpointspeicher.
Klar nur ist DRAM halt flüchtig und man muss die Daten dort erst rein bekommen, außerdem ist (gut bei diesen kleinen Modellen um die es geht nicht gerade), die Kapazität vom RAM meist deutlich geringer als die der Massenspeicher.
Piktogramm schrieb:
Wobei mir keine Anwendung einfällt, die derart sensibel auf Speicherlatenzen reagieren würde und der dann mit 16-32GB geholfen wäre
Das ist das Problem und deshalb hat Intel eben Caching als die Anwendung für diese SSDs auserkoren.

Mi1k4 schrieb:
Intel wie die neue Technik an den Mann bringen und hat sich ne Nische gesucht, um erstmal Geld zu scheffeln.
Die Nische ist nicht schlecht gewählt, nur wird es wieder mal am Preis scheitern.
Eben, also doch einer der es auch so sieht, das Spiel hat Intel damals bei NAND auch schon gemacht und so gescheitert sind sie nicht, denn der Sinn war es auch damals schon nicht diese Teile massenweise zu verkaufen, sondern die NAND Technologie in die Rechner von Heimanwendern zu bekommen, davor gab es allenfalls NAND SSDs wie die dicken FusionIO für Enterprise und die hatte nur ganz wenige Kunden, weil die Masse der Enterprisekunden dem nicht vertraut hat, die NANDs teuer waren, die Controller lahm und wenig zuverlässig. Nachdem dann solche fetten Enterprise SSD zunehmen als Cache für die HDD Arrays eingesetzt wurden, ersetzen nun Arrays von SSDs die HDDs komplett, die 15krpm HDDs sind schon vom Aussterben bedroht.

Was die Preise angeht, so dürften die OEMs bei entsprechender Abnahme dann auch mit Rabatten rechnen können, der Ziel von Intel ist die Technik in die Breite auszurollen, größere Optane SSDs für Heimanwender sollen ja noch dieses Jahr kommen:
Mi1k4 schrieb:
Fur 70€ gibts gute 250gb SSDs, die man zusätzlich einbauen kann.
Wenn man nur so viel weiß, dann ist man kaum der Kunde für eine Cachinglösung, die richten wie es auch in der News steht vor allem an Desktop PCs und AIOs wo der Bedarf an Speicherplatz größer ist und nicht mit SSDs gedeckt wird.
 
Trotzdem wäre es an der Stelle sinnvoller, einfach normale NAND-SSDs als caching-Lösung zu betreiben. Die Software wäre im Prinzip ja die selbe, für Aio OEMs wäre dies nicht schwer umzusetzen, vielleicht sogar auf BIOS Ebene(?). 128gb M.2 Sata sticks wären für den Hersteller billiger und er würde mehr Abnehmer finden/mehr Profit einfahren (je nach Unternehmensidiologie).
Der Effekt wäre der selbe, der Kunde hätte immer noch das "Wow ist das schnell" empfinden und es ließe sich sogar besser vermarkten.
Auf dem Produkt würde dann sowas wie "Superhighspeed M.2 3D-NAND 128+XYtb memory" stehen statt "SUPERHIGHSPEED 3D-xpoint 32/70+XYtb memory"

Von beiden wäre der Kunde geblendet und der PC läuft butterweich. Ersteres schindet dank der größeren Zahl sogar mehr Eindruck, wäre trotzdem billiger.
Ich als Hersteller würde mich für eine normale SSD entscheiden, zwecks Kosten und höherer Werbewirkung.

Leichter auf den Markt bringen ließe sich der Speicher in geringeren Größen als zb. kleinerer Cache auf TLC-SSDs oder HDDs
Die DIMM Lösung als Ram-Vorstufe scheint mir auch aktuell das einzige sinnvolle Einsatzgebiet zu sein. Günstiger als RAM, schneller als Sata-SSDs. Ein RAM-Upgrade ließe sich so weiter hinauszögern und wäre auch für Endverbraucher sinnvoll.
 
Bei einem großen Cache ist die Verwaltung aber aufwendiger und damit verliert man bei der Suche welche Daten drin steht und der Entscheidung welche dann für neue Daten im Cache verdrängt werden sollen, mehr Zeit. Es gibt da einen Sweetpoint und ich meine beim RST liegt der bei 32GB, mehr als 64GB nutzt der RST dann sowieso nicht als Cache. Wie weit eine 128GB SSD wie die 600p am Ende teuer oder billiger wäre, kann man schwer sagen ohne die Großabnehmerpreise und -rabatte zu kennen und da Intel damit die Optane Technologie puschen möchte, könnte ich mir durchaus vorstellen, dass man diese so gestaltet, dass die Optane dann doch die billigere Lösung sein wird.

Die DIMM Lösung als RAM wird es aber zumindest vorerst nur für die Purley Enterprise Plattform geben, Kaby Lake dürfte die auch noch gar nicht unterstützen, denn dazu muss Intel im RAM Controller einiges tun. Außerdem dürfte es zumindest Anfang nur als Kombination von DRAM und Optane DIMMs laufen bei der diie Optane DIMMS vom DRAM gecacht werden um zu viele Schreibzugriffe zu vermeiden. DDR4 RAM Riegel gibt es praktisch nicht unter 4GB pro Riegel, 8 GB RAM müsste man dann sinnvollerweise sowieso verbauen und dann eben 16 oder 32GB als Optane DIMMs um den typischen RAM Ausbau von Heimanwendern zu bekommen. Dann hat man aber ein RAM mit zwei Geschwindigkeiten, was bei der 970er NVidia auf wenig Gegenliebe gestoßen ist und ob man dann so viel spart um das in Kauf nehmen zu wollen? Sinnvoll scheint mir das vor allem für Server wo man einen möglichst großen RAM Ausbau realisieren möchte, der mit DRAM nicht möglich oder zu teuer ist. Da würde es dann auch vor allem bei Anwendungen gut sein, wo auf den Großteil der RAM Inhalte nur lesend zugegriffen wird, der aber nicht ständig überschrieben wird.
 
Was mir auch schon wieder stinkt ist dass Intel selbst ein Skylake genommen hat und im gleichen Atemzug lüget und sagt dass kann nur der Kabylake.

Ja ist klar ;-) würde mich freuen wenn dass CB mit Testet würde mich wirklich interessieren ob der Skylake es doch kann.

Noch was Intel ist verlogen ohne ende.
 
Das ist eben Marketing, die 200er wurden groß mit dem Optane Support vermarktet, da kann man nun nicht hingehen und sagen man würde es auch für die 100er unterstützen. Das es technisch kein Problem wäre dies auch unter Skylake zu machen, war ja klar weil es auch auf den C23x Chipsätzen läuft die so alt die 100er für Skylake sind und ebenso auf den mobilen 100er Chipsätzen, da gibt es ja keine 200er Generation. Aber so spart man eben den Support für die alte Plattform und motiviert die OEMs noch mehr die Modelle ggf. auf die aktuellen Kaby Lake zu aktualisieren. Es ist ja auch noch gar nicht klar, ob Intel die 100er Desktopchipsätze wirklich aussperrt, vielleicht läuft es dort auch problemlos, nur hat man dann eben bei Problemen keine Support zu erwarten.
 
Zurück
Oben