News Intel Optane SSD 900P: 3D-XPoint-SSDs bald mit 960 GB und 1,5 TB

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.286
Bis zu 24 Watt das is mal ne Ansage, aber gut ich nehme mal an das ist fürs Schreiben, Lesen wird wohl weniger verbrauchen.
 
Schade, wenn man bedenkt was für ein Marketing Müll Intel verzapft hat und was nun am Ende daraus geworden ist.
https://semiaccurate.com/2016/09/12/intels-xpoint-pretty-much-broken/
Aus den 1000x schneller, besser, höher, tiefer, wurde dann nur noch 100x.. dann 10x dann... wir sind doch nur knapp so schnell und jetzt?


Eigentlich kostet es deutlich mehr, für ein wenig weniger Latency.
Einfach schade.
So wird das nichts mit dem RAM/Massenspeicher Ersatz.
 
@thenoxier

Intel hat wahrscheinlich schon gewusst was möglich ist aber dennoch dürften die Mitbewerber von den vollmundigen Ankündigungen erst einmal geschockt gewesen sein. Während die Mitbewerber nun nicht mehr mit voller Kraft die Flashspeicherfertigung hochfuhr hat Intel Zeit gewonnen.
 
Man fragt sich dann halt warum z.B. Ladevorgänge teilweise sehr lange dauern z.B. bei Spielen. Wo genau ist da der Flaschenhals? Ist das nur die CPU oder gibt es da noch andere Probleme?
 
Dafür dass man gar keinen Unterschied bemerkt ist sowohl die Leistungsaufnahme zu hoch als auch der Preis fern der Realität. Da sind andere Investitionen doch deutlich sinnvoller. Selbst für Besitzer eines (aktuell noch) perfekten PCs ist es rentabler, das Geld etwas liegen zu lassen und früher auf eine neue Grafikkarte umzusteigen.

(Disclaimer: Das CB-Forum ist nicht als Spezial-Forum für "Administratoren von Datenbank-Servern mit langsamen Festplatten und zu wenig RAM" bekannt. Falls jemand eine Nischenanwendung fährt, bitte nicht auf die große Masse übertragen.)
 
Zuletzt bearbeitet:
HaZweiOh schrieb:
(Disclaimer: Das CB-Forum ist nicht als Spezial-Forum für "Administratoren von Datenbank-Servern mit langsamen Festplatten und zu wenig RAM" bekannt. Falls jemand eine Nischenanwendung fährt, bitte nicht auf die große Masse übertragen.)
Könnte es nicht sein, dass hier einige Programmierer unterwegs sind, die öfter mal Source Ordner kopieren, was Ewigkeiten dauern kann?
Ein paar Gigabyte an Daten, die teilweise nur wenige kB groß sind, dauert erstaunlich lange auf einer einigermaßen neuen Samsung SSD.
 
Naja, ob sie trotz Versionsverwaltung noch ständig Gigabytes an Source-Code kopieren .... ich weiß nicht.

Wenn ja, wäre das wieder ein Spezial-Fall, der an der typischen Nutzung in diesem Forum vorbei geht.
 
Zuletzt bearbeitet:
Lefteous schrieb:
Man fragt sich dann halt warum z.B. Ladevorgänge teilweise sehr lange dauern z.B. bei Spielen.

Viele Spiele greifen auf komprimierte Daten zurück. Da ist dann leider die CPU der Flaschenhals.
Ergänzung ()

TheNoxier schrieb:
Schade, wenn man bedenkt was für ein Marketing Müll Intel verzapft hat und was nun am Ende daraus geworden ist.

Wenn ich mich richtig erinnere, bezogen sich die Aussagen auf den reinen Speicher, nicht die fertige SSD mit Controller. Also IC gegen IC. Laut Intel sollen ja PCIe und Controller stark limitieren, weswegen man die Anbindung über den Speichercontroller der CPU realisieren will.

Inwieweit Intel also mit den Versprechen daneben, wird sich zeigen, wenn die entsprechenden Produkte (nächstes Jahr) zur Verfügung stehen.
 
Schau dir den Cb-Test an, den Abschnitt über den spürbaren Nutzen bei Alltagsanwendungen.

In diesem Artikel wird es schon angedeutet.
 
Zuletzt bearbeitet:
TheNoxier schrieb:
Schade, wenn man bedenkt was für ein Marketing Müll Intel verzapft hat und was nun am Ende daraus geworden ist.
https://semiaccurate.com/2016/09/12/intels-xpoint-pretty-much-broken/
Aus den 1000x schneller, besser, höher, tiefer, wurde dann nur noch 100x.. dann 10x dann...
Da hat Semiaccurate den Bock aber auch selbst geschossen, denn sie haben die von Intel auf das reine Medium bezogene Geschwindigkeit von 1000x mit der des Endprodukt SSD verglichen, nur kommen da aber noch reichlich Latenzen dazu und das Bild welches diese zeigt haben sie ja sogar selbst im Artikel veröffentlicht:



Wobei der blaue Teil "Internal" dort auch noch die Latenz des Controller beinhaltet und der ist bei den großen Controllern der 900P sogar etwa höher als beim kleinen auf der Optane Memory.

Weit besser hat Tomshardware hier das Thema behandelt und da sieht man auch das Intel selbst für die SSDs keinen Faktor 1000, sondern nur etwa Faktor 10 versprochen hat:



Man sollte eben nicht Äpfel mit Birnen vergleichen!

TheNoxier schrieb:
wir sind doch nur knapp so schnell und jetzt?
Du gehst nun noch einen Schritt weiter und rechnest noch die Zeit an die die CPU braucht um die Daten zu verarbeiten, aber die ist natürlich sehr von der Anwendung und dem System abhängig. Die üblichen synthetischen SSD Benchmarks verarbeiten die Daten ja nicht die sie lesen, die führen nur I/O aus und messen wie lange dies dauert. Reale Anwendungen lesen Programmcode den die CPU abarbeiten muss und Daten die verarbeitet werden müssen, die CPU braucht dafür also Zeit und diese Zeit hängt eben nicht von der Geschwindigkeit der SSD ab, wird also nicht kürzer wenn die SSD schneller ist. Dauert es im Vergleich zur Zeit für das Laden sehr lange die Daten zu verarbeiten, dann kann eine Verkürzung der Ladezeiten eben auch keine großartige Verbesserung der Gesamtzeit bewirken.

Leider sieht man bei Windows nicht so einfach wann ein SW Thread der Flaschenhals ist und oft erfolgt die Verarbeitung, zumindest das Entpacken der meist gepackten Datenformate, eben nur Singlethread. Dies liegt daran das der Task Scheduler von Windows die Threads der SW sehr schnell zwischen den Kernen verschiebt und im Task Manager nur 100% angezeigt werden, wenn alle Kern voll ausgelastet sind. Bei 2 Kernen scheint dann jeder mit 50% (plus der Grundl- und sonstigen Last) ausgelastet zu sein, bei 4 Kernen mit 25% und bei 8 Kernen nur noch mit 13%, ab dann oder spätestens bei noch mehr Kernen schwören dann die meisten User Stein und Bein das ihre CPU ja kaum was zu tun hat und ganz bestimmt nicht der Flaschenhals sein kann, obwohl es eben gerade deren Singlethreadperformance ist die bestimmt wie lange der Vorgang dauert.

Unter Linux ist dies viel Besser zu sehen, dessen Task Scheduler verschiebt die Thread viel langsamer zwischen den Kernen der CPU und top zeigt 100% Auslastung bei Auslastung eines Kerns ab, schaut man sich da die Auslastung der einzelnen Kerne an, sieht man sofort wenn eines zu 100% ausgelastet ist und man sieht auch wie viel Prozent der Zeit der auf I/O warten muss, wenn der Wert hoch, dann lohnt es sich in schnelleres I/O zu investieren, sind es aber z.B. vielleicht nur 2%, so sollte klar sein das man selbst mit dem schnellsten I/O in der Situation nicht viel gewinnen kann.
TheNoxier schrieb:
So wird das nichts mit dem RAM/Massenspeicher Ersatz.
Als Ersatz für RAM haben wie 3D XPount noch gar nicht gesehen, die Produkte (Optane DIMM?) und die nötig Plattform kommen erst im nächsten Jahr, von daher kann man auch noch gar nicht sagen ob es damit was wird und als SSD sind die Optane P4800X bei den Enterprisekunden die eine entsprechende Anwendung dafür haben, heiß begehrt und das ist auch der Markt dafür.

Die 900P ist ein Ableger der P4800X für Heimanwender, aber nur für Enthusiasten, so wie es damals auch die Intel 750 war. Das die Masse der Heimanwender von so einer teuren HW nicht angesprochen wird, ist klar und für die Masse lohnt die sich auch nicht, da die meisten Heimanwender gar nicht die Anwendungen haben um wirklich einen Nutzen daraus zu ziehen. Trotzdem finde ich es schön das Intel die 900P auf den Markt gebracht hat und nun auch die großen Kapazitäten nachreicht, denn damit bekommt man als privater Kunden Zugang zu dieser neuen Technologie, andere Hersteller machen dies nicht und da ist es oft unmöglich überhaupt an Enterprise HW zu kommen. Obendrein ist die 900P ja auch noch deutlich günstiger als die P4800X, wenn auch mit weniger DWPD, aber die ist für den Heimanwender ja immer noch weit mehr als ausreichend.

Wattwanderer schrieb:
Während die Mitbewerber nun nicht mehr mit voller Kraft die Flashspeicherfertigung hochfuhr hat Intel Zeit gewonnen.
3D XPoint wird Flash nur in der Nische der High-Performance High Endurance Anwendungen verdrängen, aber selbst für Enterprise SSD ist dies heute eine Nische, die Nische in der SSDs mit NAND mal angefangen haben die HDDs zu verdrängen. Wettbewerber für 3D XPoint gibt es auch noch keine, Samsung versucht es mit den Z-SSDs, aber muss man erst mal abwarten wie die sich schlagen werden, vor allem im Steady State und bei parallelen Read-Write Zugriffen.

Echte Wettbewerber für 3D XPoint werden aber wohl nur die anderen Storage Class Memory wie ReRAM, STT-RAM, PCM, Memristors, MRAM, CBRAM, NRAM, und FeRAM werden, die aber alle noch nicht so weit sind um eine SSD mit Hunderten GB damit kaufen zu können. Wenn die aber mal so weit sind, dann wird sich 3X Point gegen die behaupten müssen.
Ergänzung ()

simons700 schrieb:
Kann mir mal jemand erklären was das ding denn jetzt besser können soll als eine 960 Evo?
Dinge die für die meisten Heimanwender nicht wirklich relevant sind, wie die Steady State Performance und paralleles Lesen und Schreiben, da zieht sie jeder SSD mit NAND gnadenlos davon:


 
Holt erklärt die Welt und räumt mit Ammenmärchen auf... so mag ich das 😊 Dankeschön
 
Oder in anderen Worten: man kann es sich nachher immer zurechtreden. Ich kann und werde mich da nun sicherlich nicht auf eine Diskussion einlassen, da ich zu wenig Lust, Zeit und Wissen habe. Dafür gibt es andere Leute :)
Was am Ende zählt ist die Leitungs die es liefern kann, nicht dass was es therotisch können sollte. Aber das müssen anderen Testen, ich kann das nicht :D


Aber schön das es da noch Hoffnung gibt.
 
Wer es als "nachher zurechtreden" bezeichnet wenn man ihn mit Fakten auf Fehler aufmerksam macht, sollte man sich nicht wundern wenn er seine Defizite beim Wissen behält.
 
Wenn ich etwas gelernt habe bei solchen Grafiken: Traue nie einer Grafik, die du nicht selbst gefälscht hast :) Die Zeit wird zeigen was daraus wird. Ich hoffe auf eine Unified Memory, gerne auch von Intel. :)

Und die Fakten muss du nicht mir geben, sonder SemiAccurate. Ich kann nicht in Namen deren einen Faktenkrieg führen. Einer wird schon Recht haben, aber ich weiß nicht wer :)

Und ja das Internet ist undankbar :D
 
Man sollte nicht nur aber gerade bei Grafiken immer genau hinsehen was diese genau zeigen sollen, dann verwechselt man auch nicht wie SemiAccurate die Latenz des Medium mit der einer SSD auf dessen Basis "The second 10x claim, not the 1000x original one." Das Du jetzt meiner Ausführungen den Fehler immer noch nicht siehst, ist allerdings wirklich traurig.
 
Das liegt wohl daran, dass ich gar keinen Fehler suche :D
Es ist nur ein Frage wie man Aussagen (in dem Fall von Intel) wertet und was man als Erwartung hat und was man am Ende bekommt.

Ok noch ein Versuch:

Toyota: Wir haben ein Fahrgestell für Anhänger entwickelt, das bis zu 10.000 km/h schafft. 500x so schnell wie unser vorheriges Modell.
...2 Jahre später...
Toyota: Unser neuer Auto-Anhänger schafft nun 200 km/h statt wie unser Vormodell 100km/h. Begrenzend sind Straßenverhältnisse, die Verbindung zum Auto, das Material den Anhängers und an sich sollte man nicht schneller als 130 km/h auf Autobahnen fahren - Am Besten auch keine Kurven bei hohen Geschwindigkeiten.


... wie auch immer ... Analogien sind selten Perfekt.




https://www.intel.de/content/www/de/de/it-managers/non-volatile-memory-idf.html

3D XPoint kombiniert die besten Eigenschaften bestehender Techniken; die Speichertechnik ermöglicht die 10-fache Kapazität von DRAM, ist 1000-mal so schnell wie NAND und ebenso nicht flüchtig – und all das bei weiterhin niedrigen Kosten.

Am Ende kann das ja jeder behaupten. Aber ich glaube das Intel sogar. Ich war/bin auch ganz geil drauf. So bald geliefert wird, bin ich der erste der so etwas haben will. :D

Aber hat denn, außer Intel, schon jemand bestätigt, dass der Chip das auch wirklich leistet?

Frage am Rande: Wie schnell ist denn ein NAND-Chip von .. Samsung oder Intel? Finde das gerade keine Daten dazu. Sehe immer nur Daten zu SSDs.

Laut deiner/der letzten Grafik erreicht der Intel Speicher (als Produkt) 5-10x mehr bei, was auch immer die da machen, als NVMe. Da ist cool. Somit sind von den theoretischen 1000x als NAND im eigentlichen Produkt nur 5-10x finale Leistung am Ende übrig geblieben. Sehr schade.

Somit kann ich Intel verstehen, die sich jetzt zurück lehnen, und sagen: Hey, unser Chip alleine würde das ja schaffen, aber wir haben es (Soft oder Hardware abhängig) noch nicht geschafft ein Produkt an den "Endkunden" umzusetzen. "DAS" haben wir ja aber auch nie behauptet.

Und das, ist der Marketing Bullshit den ich meine und das "zurecht reden"/"zurecht legen". Und das kreidet auch Tom's Hardware an.

Wenn man jetzt die (neueren) Intel Optane Slides mit den Realität vergleicht, sind die natürlich fast richtig. Sind ja auch 1 oder 2 Jahren später erstellt worden, als das ganze ein Produkt wurde und, wenn nicht erst da, feststelle, die Zahlen nun anderes sein müssen, da die die 1000x nicht bis zum "Endkunden" bringen - zumindest noch nicht. Hoffentlich kommen die mal an. Vielleicht als DRAM Ersatz.
 
TheNoxier schrieb:
Was am Ende zählt ist die Leitungs die es liefern kann, nicht dass was es therotisch können sollte.

Richtig. Mir scheint, dass manche mit ihren Spezial-Fällen und dem Verlieren in Details von dem großen Problem der Alltagstauglichkeit ablenken wollen. Insgesamt scheint sich die Erkenntnis aber langsam durchzusetzen. Bei NVMe haben auch zuerst viele auf "Das Wunder des Benchmark-Balkens" gehofft, inzwischen wird die Technik realistischer beurteilt.

Die Nachteile der Optane (teuer, hoher Stromverbrauch) merkt man ja deutlich.
 
Zuletzt bearbeitet:
@HaZweiOh,

das ist einfach ein Henne- Ei- Problem.
Die vorhandene Software zieht einfach noch keinen Nutzen aus dem ganzen. Die Hardware kanns, die Software noch nicht, weil sie auf die schnelleren Timings nicht abgestimmt ist.

Grüße
Zero
 
Zurück
Oben