News Samsung Z-SSD SZ985: Mehr Details und Benchmarks vom Hersteller

Holt schrieb:
Die hat mit dem 3D XPoint ja auch einen Speicher der weit schneller als NAND und nicht so viel langsamer als DRAM ist,

Ohje.
Gewagte Behauptung.
Natürlich ist XPoint in allen Punkten deutlich langsamer als RAM .

Auf einer log. Verhältnisskala der Leistungsfähigkeit ist XPoint so viel schlechter als RAM, dass er quasi noch in der Nähe von NAND ist..

Da RAM seit Jahrzehnten die immer gleichbleibende Zugriffszeit von 10ns hat, gehe ich mal davon aus, dass du diese kennen dürftest?
Scheinbar liegt dein Fehler möglicherweise daran, dass du nicht zwischen ns und µs umrechnen kannst oder du evtl gar denkst, beides sei das Gleiche?
Sicherheitshalber rechne ich es dir mal komplett vor:
1s=1000ms=1'000'000µs=1'000'000'000 ns

Beispiele für typische Zugriffzeiten:
HDD=10ms=10'000µs
SATA-SSD Samsung 840 Evo=0,11ms=110µs ***ca. 90x so schnell wie HDD***
NVMe-NAND- SSD Samsung 960 Pro = 22µs ***ca. 5x so schnell wie SATA-SSD***
Optane=10µs = 10'000ns =》***ca. 2x so schnell wie 960 Pro***
RAM= 10ns =》***exakt 1000x so schnell wie Optane***

Hier die Entwicklung als simple Grafik in einer Verhältnisskala:

Pro Verdopplung der 2er-Potenz ein Strich:
RAM----------Optane-960pro---SATASSD-------HDD

Zumindest eines sollte anhand der Dimensionen in dem Schaubild schnell klar sein: würde man Optane genauso schnell anbinden wie RAM, hätte er dadurch kaum echte Vorteile.
Er ist und bleibt einfach 1000x langsamer als RAM!!
Daran würde auch eine schnelle Anbindung nichts ändern.
Vorteile in der Größenordnung von 1-5% wären denkbar, wenn Optane irgendwann nur noch 100x langsamer ist als RAM.
Abgesehen davon ist die Anbindung des RAM gar nicht mal soooo schnell, wie du evtl denkst, mehr dazu weiter unten.

Wie man sieht, es tut sich nicht **übertrieben** viel, aber dennoch bin ich begeistert, denn offenbar kann
NAND also doch noch einen oben drauf setzen und nochmals deutlich schnellere Latenzen als früher liefern.
Das ist aus 2 Gründen richtig geil:
1. es ist echte Rohleistung.
2. Intel hat die Performancekrone nicht jahrelang allein!!!

Zu eins:
Von Rohleistung werden wir alle profitieren und nicht nur Spezialanwendungen, wie hier irgendwie immer noch so einige zu denken scheinen!!
Um von schnellen Latenzen profitieren zu können muss die Software nicht extra umgeschrieben werden.
Dies ist quasi genauso automatisch der Fall, wie der Profit von hohen GHz-Zahlen.
Besonders begeistern kann mich die zunehmende Universalität der Leistung.
Hohe Bandbreite und hohe Leistung bei hoher QD / Wortlänge haben wir bereits bei klassischem NAND.
Durch die niedrigen Latenzen kommt jetzt als i-Tüpfelchen auch noch hohe Leistung bei sehr geringer QD /Wortlänge dazu.
toll!

Besonders Heimanwender werden am jetzigen Punkt der Technik von den künftigen niedrigen Latenzen deutlicher stärker profitieren, als von einer weiteren sinnlosen Steigerung der Bandbreite.
Niedrige Latenzen bewirken hohe Spritzigkeit bei vielen einzelnen kleinen Anforderungen in Reihe/Serie.
Und genau DAS (viele kleine Dateien in Serie / geringe QD) ist der Alltag eines jeden Anwenders daheim mit 0815-Betriebsystem!
Hohe Bandbreite ist dagegen eher der selten benötigte Spezialfall.
Ich finde das immer lustig, wenn ich es genau andersherum hier von einigen Foristen lesen, die behaupten, der Heimanwender würde nicht von Optane und dessen geringeren Latenzen profitieren.
Leuteleuteleute... Niedrige Latenzen sind m.E. der einzige derzeit gangbare Weg, wie man bei aktuellen SSDs überhaupt noch mehr spürbare Praxisleistung herauskitzeln kann!
Hatte da gestern einen Beitrag von dir gelesen, dass du dies genauso siehst.
;)
yay!
Schön, dass du es inzwischen genauso siehst.
Vor 2 Jahren haben wir uns noch gefetzt deswegen, wenn mich meine Erinnerung nicht täuscht.
:D

Hatte es ja vor Jahren / Monaten bereits erwähnt... Das Zeitalter der fallenden Latenzen bricht endlich an.
Bin mal gespannt, wie lange es beim RAM noch dauern wird bis es endlich das erste Mal seit bald 2 Jahrzehnten eine Etage weiter runter geht...
;)
Lange kann es nicht mehr sein.
Noch ist RAM bei den Zugriffszeiten um den Faktor 1000x schneller, als die derzeit nächste Technikstufe (Optane), aber der Abstand wird immer kleiner und RAM kann auf Dauer nur seinen Bestand sichern, wenn es auch deutliche Vorteile bietet.
Der Vorsprung von RAM wird in den kommenden 5 Jahren deutlich zusammenschrumpfen, so zumindest meine Hoffnung.
Sollte dann üblicher Massenspeicher mit 2µs aufwarten oder gar nur 1µs, dann hat RAM nur noch einen Vorsprung von Faktor 100-200.
Sehr wenig.
Das gibt dann heftig Druck von oben auf die Latenzen bei RAM.

Zu 2:
Was wir derzeit sehen ist ja lediglich die allererste Zündstufe von XPoint.
Ich bin mir sicher, da ist noch deutlich mehr drin als die bislang kommunizierten 10µs!
Optane kann (wenn es eine vergleichbare Entwicklung macht wie NAND in den letzten 10 Jahren) auf unter 1µs runter gehen in den kommenden 10 Jahren.
Kommt halt immer drauf an wie viel Druck kann Samsung auf Intel machen mit ebenfalls gesenkten Zugriffzeiten beim NAND.
Also von den ersten Generationen XPoint kann ich echt abraten, der Vorteil ist noch zu gering, aber sobald Intel die Bremse loslässt, wird sich XPoint richtig heftig lohnen!!!

Speichertakt und Zugriffszeit hängen ja zusammen über eine simple Formel:
t(zugriff)= 1/Takt
In Worten: umso höher der **echte** Takt, umso geringer automatisch die Zugriffzeit.

Wie viel Potential es in der Zugriffzeit von RAM noch gibt, sieht man ganz einfach indem man sich mal den realen Takt von RAM anschaut und nicht den Marktetingfaketakt.
Selbst teuerer DDR4 3200 hat einen Speichertakt von gerade mal 400Mhz.
Das ist natürlich ein viel geringerer Wert, als die über das Marketing kommunizierten 3200 (MT!! NICHT MHz!!).
Selbst viele Foren-Profis es wissen es nicht richtig und rechnen immer noch falsch und umständlich mit Taktwerten, die der RAM-Baustein real gar nicht hat.

Auch du, Holt, glorifizierst hier evtl die Anbindung des RAM zu sehr. Klar, sie ist besser als via PCIe, aber auch nicht viel:
Selbst jedem Amateur wird anhand des Taktwertes von lediglich 400Mhz schnell klar sein, dass der RAM hier im System auf Latenzebene inzwischen den Flaschenhals darstellt. 400MHz ist eine miserable Anbindung.
Ein RAMbaustein mit nur 400Mhz ist rein physikalisch selbst unter Ausnutzung sämtlicher Vorhersagetricks gar nicht dazu in der Lage eine CPU mit >4GHz mit Daten zu versorgen, ohne dass es zu teilweise erheblichen Engpässen und Wartezeiten kommt.

Auch ist die RAM-Hersetllungstechnik inzwischen alleine schon durch den jahrelangen Stillstand so vorangeschritten, dass ich hier eine Entwicklung erwarte, ähnlich wie bei den Multicore-CPUs.
Ewiger Stillstand bei 4-Core und dann führt ein Event dazu, dass plötzlich "wie aus dem Nichts" halbwegs bezahlbare CPUs mit 8 und 16-Cores innerhalb nur eines Jahres herauskommen.

Insofern, RAM, XPoint und NAND hängen mehr zusammen, als man zuerst denken könnte!
;)

Bzgl. PCIe-Takt und dessen negativem Einfluss auf die Latenz, das hat Holt wohl ganz goldrichtig erkannt.
Richtige Klarheit herrscht da bei mir nicht... weiß jemand, wie PCIe die hohen Bandbreiten erreichen kann?
Mit dem Basistakt von 100Mhz kann dies ja kaum möglich sein!!!
Wie wird das denn technisch umgesetzt? Mit welchen Taktraten wird denn PCIe 3.0, 4.0 und 5.0 betrieben?
Dazu ist nirgends etwas tiefgründigeres zu finden.

Die Entwicklung zu immer kürzeren Latenzen bei dauerhaftem Massenspeicher beginnt nun langsam immer mehr Druck auf den RAM auszuüben, ebenfalls die Latenzen zu verbessern... und das wird echt allerhöchste Zeit.
Nach 15-20 Jahren Stillstand in der Entwicklung sollte es jetzt auch auf dieser Ebene mal wieder einen Sprung geben.
Auch Dank Optane.
Es wird allerhöchste Zeit zu sagen, Ade, gute alte Nanosekunde!!

Hier schon mal ein kurzer Ausblick auf das kommende Picosekundenzeitalter:
1ns=1000ps=1'000'000fs=1'000'000'000as=1'000'000'000'000zs

Da ist noch sehr viel Raum nach unten!!
 
Zuletzt bearbeitet:
Unlimited1980 schrieb:
Auf einer log. Verhältnisskala der Leistungsfähigkeit ist XPoint so viel schlechter als RAM, dass er quasi noch in der Nähe von NAND ist..
Mit passenden Skalen kann man alles zeigen :evillol:

Unlimited1980 schrieb:
Beispiele für typische Zugriffzeiten:
HDD=10ms=10'000µs
SATA-SSD Samsung 840 Evo=0,11ms=110µs ***ca. 90x so schnell wie HDD***
NVMe-NAND- SSD Samsung 960 Pro = 22µs ***ca. 5x so schnell wie SATA-SSD***
Optane=10µs = 10'000ns =》***ca. 2x so schnell wie 960 Pro***
RAM= 10ns =》***exakt 1000x so schnell wie Optane***
Siehe #17! Ich habe auch 3D XPoint geschrieben und nicht Optane, meine also nur das Medium! Auf der erste steht auch, wieso ich diese Aussage getroffen habe.
Unlimited1980 schrieb:
würde man Optane genauso schnell anbinden wie RAM, hätte er dadurch kaum echte Vorteile.
Die kommen ja nächstes Jahr, aber dafür wird es dann andere Anwendungen geben, ob man ob man die überhaupt als Massenspeicher nutzen und ggf. davon booten kann, wird von Anpassungen abhängen die an den Systemen noch zu machen sind. Dann ist die Frage ob und ggf. wann die für Heimanwenderplattformen überhaupt verfügbar sein werden.
Unlimited1980 schrieb:
Er ist und bleibt einfach 1000x langsamer als RAM!!
Im Verhältnis zu der Latenz die schon durch die PCIe Anbindung und die ganze Software zum Ansprechen von SSDs entsteht, ist der Unterschied der Latenz von DRAM und 3D XPoint aber zu vernachlässigen. Dies hatte ich aber so alles schon auf der ersten Seite geschrieben.
Unlimited1980 schrieb:
Um von schnellen Latenzen profitieren zu können muss die Software nicht extra umgeschrieben werden.
Dies ist quasi genauso automatisch der Fall, wie der Profit von hohen GHz-Zahlen.
Mit der Meinung steht Du aber recht alleine da, denn wäre dem so, würden ja durch die Bank alle Anwendungen davon spürbar profitieren, dem ist aber nicht so. Die wichtigste Anpassung wäre die Daten nicht mehr komprimiert abzulegen, da das Entpacken im Verhältnis zum Laden bei so schnellen SSDs einfach viel zu lange dauert und noch mehr Bandbreite oder noch geringere Latenz daher kaum noch einen Einfluss auf die gesamte Dauer des Ladevorgangs hat.
Unlimited1980 schrieb:
Niedrige Latenzen bewirken hohe Spritzigkeit bei vielen einzelnen kleinen Anforderungen in Reihe/Serie.
Und genau DAS (viele kleine Dateien in Serie / geringe QD) ist der Alltag eines jeden Anwenders daheim mit 0815-Betriebsystem!
Hohe Bandbreite ist dagegen eher der selten benötigte Spezialfall.
Das ist richtig, trotzdem gibt es ohne Anpassungen der SW auch nicht den Vorteil wie die Rohleistung es verspricht und SW von Heimanwendern ist eben oft noch auf die Eigenschaften von HDDs optimiert und selbst die HW hat oft hohe Latenzen, auch weil Energiesparen mehr Priorität hat und die Änderungen der Energiesparzustände sind immer mit einer gewissen, je nach Plattform mehr oder weniger hohen Latenz, verbunden.
Unlimited1980 schrieb:
Auch du, Holt, glorifizierst hier evtl die Anbindung des RAM zu sehr. Klar, sie ist besser als via PCIe, aber auch nicht viel:
Was viel ist, kann man wie oben bemerkt mit passenden Skalen nach belieben so oder so dargestellt werden. Aber dies Missverständnis scheint die Ursache mancher Aussagen dieses Posts zu sein, auf die ich daher auch gar nicht alle eingehen möchte. Alleine die RAM oder PCIe Latenz aus dem Takt ableiten zu wollen ohne auf die Timings einzugehen.....
Unlimited1980 schrieb:
Auch ist die RAM-Hersetllungstechnik inzwischen alleine schon durch den jahrelangen Stillstand so vorangeschritten,
durch den Stillstand vorangeschritten??
Unlimited1980 schrieb:
Richtige Klarheit herrscht da bei mir nicht...
Das merkt man, da Du den BLCK Takt mit dem Takt der PCIe Lanes verwechselst. Bei der Latenz von PCIe SSDs gibt es weit mehr als nur die Latenz der PCIe Verbindung.
 
Holt schrieb:
Siehe #17! Ich habe auch 3D XPoint geschrieben und nicht Optane, meine also nur das Medium! Auf der erste steht auch, wieso ich diese Aussage getroffen habe.
Ich habe das schon gelesen.
Also dennoch, es ist so wie zu sagen, die HDDs waren ja nur so "langsam", da sie via SATA angebunden waren.
Klar hat die Anbindung einen Einfluss, aber bei solchen Größenordnungen wie 1000x, glaub mir, da ist es einfach nur völlig logischerweise die "Technologie des Speichers", die limitiert und niemals die Anbindung durch PCIe.
Beweisen kannst du es derzeit eh nicht, ist nur eine leere Behauptung/Vermutung, während die 10µs sicherer Fakt sind.
Sobald die DIMM-Version mit echten Messdaten raus gekommen ist, können wir ja gerne nochmals deine These überprüfen.
Ich bookmarke mir sehr gerne hier diesen Thread und werde den dann nochmals rausholen!
;)
Ich kann die aber jetzt schon sagen, dass sich da nicht so wahnsinnig viel tun wird, da ich denke, die Speichertechnik ist limitierend und NVMe / PCIe könnte sogar noch mehr rausholen.
PCIe/NVMe ist ja eben auch auf geringe Latenzen optimiert und es wäre schon merkwürdig, wenn das jetzt bereits an seine Grenzen stoßen würde, wo es doch gerade erst mal losgeht, dass NVMe Sinn macht, weil die Speichertechnik endlich mit der Geschwindigkeit hinterher kommt.

Holt schrieb:
Die kommen ja nächstes Jahr, aber dafür wird es dann andere Anwendungen geben, ob man ob man die überhaupt als Massenspeicher nutzen und ggf. davon booten kann, wird von Anpassungen abhängen die an den Systemen noch zu machen sind. Dann ist die Frage ob und ggf. wann die für Heimanwenderplattformen überhaupt verfügbar sein werden.
Eben genau, dann lass noch mal schauen.
Ich sehe diese DIMM-Dinger auch zunächst als Nischenprodukt, ähnlich wie die ersten XPoint-Cachebausteine.
Es sind in der 1.Gen reine Machbarkeitsstudien ohne echte Anwendung.
Kein Mensch wird so was kaufen, nur um davon zu booten und die Geschwindigkeit wird sicherlich auch nicht überzeugen zu Beginn.

Holt schrieb:
Im Verhältnis zu der Latenz die schon durch die PCIe Anbindung und die ganze Software zum Ansprechen von SSDs entsteht, ist der Unterschied der Latenz von DRAM und 3D XPoint aber zu vernachlässigen. Dies hatte ich aber so alles schon auf der ersten Seite geschrieben.
Tja und ich hatte bereits geschrieben, im Vergleich zu der **derzeitig** X-Point-technologiebedingten "Langsamkeit" ist der Nachteil durch die langsamere Schnittstelle zu vernachlässigen.
Was glaubst du denn, was für Wunderdinge X-Point vollbringen können soll???
X-Point ist immer noch viel zu langsam, als dass es einen echten Vorteil durch eine erheblich schnellere Anbindung geben kann.
Wir werden es ja sehen.


Holt schrieb:
Mit der Meinung steht Du aber recht alleine da, denn wäre dem so, würden ja durch die Bank alle Anwendungen davon spürbar profitieren, dem ist aber nicht so. Die wichtigste Anpassung wäre die Daten nicht mehr komprimiert abzulegen, da das Entpacken im Verhältnis zum Laden bei so schnellen SSDs einfach viel zu lange dauert und noch mehr Bandbreite oder noch geringere Latenz daher kaum noch einen Einfluss auf die gesamte Dauer des Ladevorgangs hat.
Du beschreibst ja selber hier sehr schön, wie eine verbesserte Rohleistung völlig ohne Anpassung bereits erhebliche Leistungsvorteile bringt: das (deiner Behauptung nach) unnötige Entpacken geht trotzdem schneller, obwohl es niemand umprogrammiert, weil auf einer schnelleren SSD das Laden schneller abläuft (weniger Latenz). Klar wäre es besser, wenn man es ganz weglassen würde, aber mal ganz ehrlich, wie groß ist denn der Anteil an Daten, die auf die von dir beschriebene Weise gehandhabt werden?
Hast einen Link als Nachweis dazu, dass was du hier immer wieder recht plausibel erklärst im Alltag überhaupt relevant ist und auch in welchem Umfang?
Selbst wenn man es umprogrammieren würde, dann bliebe es dennoch so erhalten, dass die Vorteile im Alltag für die schnelleren SSDs auch erhalten blieben.
Insofern drehst du dich mit deiner Argumentation im Kreis.
Schnellere Latenzen sind im Alltag immer von Vorteil. Wenn die Software kacke programmiert ist sind sie schneller, wenn die Software perfekt programmiert ist sind sie sogar noch mehr umso schneller.
;)
Du merkst also in gewisser Weise ist deine Argumentation nichtig, bzw du versucht dich an den eigenen Haaren aus dem Sumpf zu ziehen...
;)

klar wäre es toll, wenn die Software **perfekt** programmiert wäre... aber bitte:
1. träum schon weiter
2. selbst dann wäre eine kurze Latenz immer noch von Vorteil.

Andersrum, wenn ein Programm auf einer CPU langsam abläuft da es ineffizient programmiert ist, läuft es dennoch auf einer schnelleren CPU auch schneller ab, ohne dass man in der Programmierung etwas ändert.
Selbiges gilt für SSDs.

Holt schrieb:
Das ist richtig, trotzdem gibt es ohne Anpassungen der SW auch nicht den Vorteil wie die Rohleistung es verspricht und SW von Heimanwendern ist eben oft noch auf die Eigenschaften von HDDs optimiert und selbst die HW hat oft hohe Latenzen, auch weil Energiesparen mehr Priorität hat und die Änderungen der Energiesparzustände sind immer mit einer gewissen, je nach Plattform mehr oder weniger hohen Latenz, verbunden.
Wie gesagt, dafür kann die SSD gar nichts und darüber hinaus läuft auch alter Schrottcode auf schnellen SSDs besser.
q.
e.
d.

Holt schrieb:
Was viel ist, kann man wie oben bemerkt mit passenden Skalen nach belieben so oder so dargestellt werden. Aber dies Missverständnis scheint die Ursache mancher Aussagen dieses Posts zu sein, auf die ich daher auch gar nicht alle eingehen möchte. Alleine die RAM oder PCIe Latenz aus dem Takt ableiten zu wollen ohne auf die Timings einzugehen.....
tststs... Takt und Latenz stehen sehr wohl i.A. über von mir genannte Formel in reziprokem Zusammenhang.
Natürlich kann man daraus grobe Vermutungen anstellen. Nichts anders tue ich, ich schätze grob Größenordnungen ab.
Jeder, der halbwegs logisch denken aknn, wird mir folgen können.
Ich habe auch nirgendwo etwas davon geschrieben, dass die Timings egal wären... loool
Ich gehe eher pauschal davon aus, dass die grundlegenden Rahmenbedingungen, zu denen ich die Timings ebenfalls zähle) bei allen Speichertechniken recht ähnlich sind und zumindest verhältnismäßig erhalten bleiben.
Bitteschön, hier geht zum ersten Semester Physikgrundpraktikum:
https://de.wikipedia.org/wiki/Frequenz
Wenn der Holt das verstanden hat, dann versteht er vielleicht auch meine Aussage, die nichts anderes war, als dass ein Speicher oder Bus oder was auch immer durch seine Frequenz automatisch auch physikalisch begrenzt ist in seiner minimalen Latenz.
Umso weniger Herz, umso länger/schlechter automatisch die schnellstmögliche Latenz.
Völlig unabhängig von Timings und was auch immer für Nebenfaktoren.
Klar, die sind schon wichtig, aber den Rahmen legt die Frequenz.
Und die setzt auch die Grenzen.
Frequenz ist der wichtigste Parameter.
Wenn etwas eine Frequenz von 1MHz hat, ist es physikalisch ausgeschlossen, dass es eine Zugriffzeit von schneller als 1µs hat, wenn sonst alle Parameter **perfekt** sind.
Wenn etwas eine Frequenz von 1GHz hat, ist es physikalisch ausgeschlossen, dass es eine Zugriffzeit von schneller als 1ns hat, wenn sonst alle Parameter **perfekt** sind.
RAM mit 100MHz hat daher auch unter perfekten Bedingungen (CL1) eine Zugriffzeit von 10ns.
Lässt sich sehr einfach berechnen, einfach 1/100MHz=10ns
Bei CL=2 sieht die Rechnung dann so aus 2/100MHz=20ns

Man kann aus der Frequenz also direkt die bestmögliche Zugriffszeit errechnen, die mit dieser Frequenz zu erreichen ist. Eben gerade weil diese beiden Parameter direkt über eine simple Formel miteinander verbunden sind.
Ist mir doch immer ein Vergnügen & eine Ehre, dir die Grundlagen der PC-Technik zu erklären...
:D :D :D

Holt schrieb:
durch den Stillstand vorangeschritten??
Naja, war evtl nicht ganz klar formuliert.
Fertigungstechnologien haben sich extrem stark weiterentwickelt in dieser Zeit.
Die Latenz blieb stehen.

Holt schrieb:
Das merkt man, da Du den BLCK Takt mit dem Takt der PCIe Lanes verwechselst. Bei der Latenz von PCIe SSDs gibt es weit mehr als nur die Latenz der PCIe Verbindung.
Ja dann erklären sie doch mal, Herr Holt!
:D
 
Zuletzt bearbeitet:
Unlimited1980 schrieb:
Ich habe das schon gelesen.
Also dennoch, es ist so wie zu sagen, die HDDs waren ja nur so "langsam", da sie via SATA angebunden waren.
Umgekehrt wird ein Schuh draus, die Anbindung muss nicht schneller sein und weniger Latenz bieten, wenn das Geräte selbst nicht mehr Bandbreite und ein viel höhere Latenz bietet. Idealerweise wäre eine Anbindung latenzfrei, aber dies kann man nicht realisieren und weniger Latenz bedeutet immer mehr Aufwand, also ist man eben zufrieden, wenn die Latenz der Anbindung im Verhältnis zu Latenz des Gerätes einigermaßen gering ist und treibt dann nicht mehr Aufwand diese weiter zu senken, auch weil es eben viel mehr bringen würde die Latenz des Gerätes selbst zu senken.

Unlimited1980 schrieb:
Klar hat die Anbindung einen Einfluss, aber bei solchen Größenordnungen wie 1000x, glaub mir, da ist es einfach nur völlig logischerweise die "Technologie des Speichers", die limitiert und niemals die Anbindung durch PCIe.
Beweisen kannst du es derzeit eh nicht, ist nur eine leere Behauptung/Vermutung, während die 10µs sicherer Fakt sind.
Beweise kann ich es nicht, aber es gibt die Aussagen von Intel darüber wie sich diese 10µs Latenz zusammensetzt:

intel-optane-dc-p4800x-ssd-3d-xpoint


Wie man sieht ist der Anteil der internen Latenz bei einer NVMe SSD auf Basis von NAND sehr hoch, nicht aber bei der Optane und dabei spielt hier ja auch die Latenz durch den Controller eine Rolle. Auch die Latenz der Plattform, vom Treiber und vor allem des Filesystems ist im Verhältnis hier schon recht hoch, weitere Optimierungen in diesen Bereichen können bei NAND basierten NVMe SSDs kaum zu Senkung der gesamten Latenz beitragen, anders bei den Optane.

Unlimited1980 schrieb:
Sobald die DIMM-Version mit echten Messdaten raus gekommen ist, können wir ja gerne nochmals deine These überprüfen.
Das 3D XPoint eine um den Faktor 1000 höhere Latenz als DRAM hat, sagt Intel doch selbst und bestreite ich ja auch nicht, nur ist das eben dann im Verhältnis zu den Latenzen die man im Bild oben sieht, wenig relevant. Bei 4k Schreiben auf die leere SSD im Neuzustand, die bei NAND basierten SSDs in den DRAM Cache gehen (dann ist deren Latenz auch geringer als auf dem Bild, fürs Schreiben in den DRAM Cache wären die Latenzen bei beiden etwa identisch), sind die Unterschiede zur Optane bei der diese direkt ins 3D XPoint gehen, nur minimal.

Mit der ganzen Latenz des Anbindung und des Controller (die ist in dem obersten Teil enthalten), spielt dieser Faktor 1000 zwischen DRAM und 3D XPoint auf der SSD daher eben keine Rolle mehr, genau dies habe ich so versucht auszusagen, verstanden wird es aber leider nicht von allen Lesern.
Unlimited1980 schrieb:
Ich kann die aber jetzt schon sagen, dass sich da nicht so wahnsinnig viel tun wird, da ich denke, die Speichertechnik ist limitierend und NVMe / PCIe könnte sogar noch mehr rausholen.
Genau dies sieht man auf Intel Graphik anders und da auch RAM Disks bei 4k QD lesen längst nicht so hohe Geschwindigkeiten erreichen wie das RAM diese Daten eigentlich liefern könnte, kann Intel hier nicht so ganz falsch liegen. Wie hoch welche Latenz konkret ist, hängt natürlich von viele Faktoren ab, je schneller die CPU ist, umso geringer wird die Latenz des Filesystems und Treibers sein, die natürlich auch von deren konkreten Implementierung abhängen.
Unlimited1980 schrieb:
PCIe/NVMe ist ja eben auch auf geringe Latenzen optimiert und es wäre schon merkwürdig, wenn das jetzt bereits an seine Grenzen stoßen würde, wo es doch gerade erst mal losgeht, dass NVMe Sinn macht, weil die Speichertechnik endlich mit der Geschwindigkeit hinterher kommt.
Schau Dir das Bild an, der Anteil der Latenz des Gerätes an der gesamten Latenz ist für die NAND SSDs auf einem so geringen Niveau, dass es vertretbar ist, für die Optane SSDs würde eine weitaus geringere Latenz der gesamten Anbindung aber einen gewaltigen Unterschied machen.

Der Punkt ist nur, dass man eben dafür eine ganz andere Anbindung braucht, die Intel ja auch in Form der Optane DIMMs im DDR4 Formfaktor bringen wird, dann werden diese aber eben wohl nicht als Massenspeicher, sondern als RAM verwendet und erst entsprechende Änderungen nötig sein und sei es nur eine neue Version von RAMDisk Programmen. Dann fängt man sich aber wieder die Latenz des Treibers und des Filesystems ein.
Unlimited1980 schrieb:
Ich sehe diese DIMM-Dinger auch zunächst als Nischenprodukt, ähnlich wie die ersten XPoint-Cachebausteine.
Intel erwartet das diese DIMMs in 2021 einen 8 Milliardenmarkt sein werden:


Unlimited1980 schrieb:
Kein Mensch wird so was kaufen, nur um davon zu booten und die Geschwindigkeit wird sicherlich auch nicht überzeugen zu Beginn.
Wie sich die Geschwindigkeit entwickelt wird, kann man schwer vorhersagen, aber Booten wird von den Kunden wirklich kaum einer davon wollen, die werden als großes RAM für Anwendungen wie InMemory Datenbanken und Big Data Analyse verwendet werden. Die Dinger werden ganz anders als SSDs verwendet werden. Leider scheint dies vielen Usern hier nicht klar zu sein, die offenbar damit die nächste Stufe eine SSD mit geringere Latenz zu erhalten, dies wäre auch möglich, aber wird kaum die vorrangige Anwendung sein, auch weil man sich dann eben zusätzliche Latenzen einhandelt. Angepasst Anwendungssoftware die Datenbanken die dann auch nach einen Neustart noch wissen welche Daten im persistenten weil mit 3D XPoint realisierten Teil des RAMs liegen und daher nicht alles neu laden müssen, werden viel eher genutzt werden.
Unlimited1980 schrieb:
Tja und ich hatte bereits geschrieben, im Vergleich zu der **derzeitig** X-Point-technologiebedingten "Langsamkeit" ist der Nachteil durch die langsamere Schnittstelle zu vernachlässigen.
Nur entspricht genau dies nicht den Aussagen von Intel, siehe Bild oben!
Unlimited1980 schrieb:
das (deiner Behauptung nach) unnötige Entpacken geht trotzdem schneller, obwohl es niemand umprogrammiert
Erstens behaupte ich nicht, dass das Entpacken unnötig ist, denn wie soll man sonst etwas mit Daten anfangen die nun einmal gepackt vorliegen und zweitens geht das Entpacken selbst doch kein wenig schneller, da dies auf der CPU stattfindet. Die kann mit einer Optane SSD etwas früher damit anfangen, weil die ersten Daten wegen der geringen Latenz früher kommen, aber dies macht dann eben am Ende nichts aus, wenn das Entpacken ein Vielfaches der Zeit dauert die man wegen der geringeren Latenz einspart?

Entpacken ist dabei nur ein Beispiel für eine Verarbeitung der gelesenen Daten, es kann auch eine andere sein, z.B. das Abarbeiten des gelesenen Programmcodes durch die CPU. Die Optane bringt eben schon jetzt vor allem bei Anwendungen im Vorteil, wo eben nur wenig Verarbeitung der Daten nötig ist.
Unlimited1980 schrieb:
wie groß ist denn der Anteil an Daten, die auf die von dir beschriebene Weise gehandhabt werden?
Schau Dir doch mal die Datenformate an die heute üblich sind und stelle z.B. mal zum Spaß die NTFS Datenkompression (die ist ja nicht sehr stark, dafür aber schnell) an und schau wie groß der Unterschied zwischen der Größe der Dateien und deren Größe auf dem Datenträger ist. Ist der Unterschied gering, so sind die Daten dieser Dateien praktisch immer schon komprimiert!
Unlimited1980 schrieb:
Schnellere Latenzen sind im Alltag immer von Vorteil.
Ja, aber die Frage ist doch wie relevant dieser Vorteil ist und wenn ich eine ms beim Laden einsparen kann bis die ersten Daten da sind und eine weitere um danach zu verarbeiten, dann bringt es mit viel wenn diese 1ms auf 0,1ms fällt, da es dann nur noch 1,1 statt 2ms dauert, brauche ich aber 10ms oder gar 100ms für die Verarbeiten, dann ist der Vorteil der 10x so geringen Latenz irrelevant und nicht mehr spürbar. Optimierungen lohnen sich eben immer da, wo die meiste Zeit gebraucht wird und dies ist eben im Alltag oft nicht die Latenz der SSD.
Unlimited1980 schrieb:
Du merkst also in gewisser Weise ist deine Argumentation nichtig, bzw du versucht dich an den eigenen Haaren aus dem Sumpf zu ziehen...
Vor allem sehe ich, dass Du keine Ahnung und trotzdem eine feste Meinung hast, die daher in den meisten Fällen einfach weit neben der Spur liegt.
QUOTE=Unlimited1980;20663967]Wie gesagt, dafür kann die SSD gar nichts und darüber hinaus läuft auch alter Schrottcode auf schnellen SSDs besser./QUOTE] Natürlich kann die SSD nicht dafür wenn eine Aufgabe so lange dauert, dass ihre Performance für die gesamte Zeit praktisch irrelevant ist, der User braucht dann aber so eine schnellere SSD nicht und wird kaum bereit sein dafür (mehr) Geld auszugeben (Enthusiasten ausgenommen) und der einzige Code der auf einer SSD abläuft ist der der FW des Controllers. Alle anderen Programmcodes die von ihr geladen werden, müssen von der CPU des Rechners verarbeitet werden.
Unlimited1980 schrieb:
Takt und Latenz stehen über von mir genannte Formel in reziprokem Zusammenhang.
Nur ist der Takt einer PCIe Lanes eben nicht 100MHz, sondern 2,5, 5 oder 8 GHz, nur hast Du davon eben leider keine Ahnung und ziehst daher eben falsche Schlüsse. Informiere Dich doch bitte mal besser bevor Du sowas schreibst und versuche nicht Dich an den eigenen Haaren aus dem Sumpf zu ziehen, wenn Dein mangelhaftes Wissen mal wieder aufgefallen ist.
Unlimited1980 schrieb:
Naja, war evtl nicht ganz klar formuliert.
Sowas zieht sich leider durch alle Deine Posts und zeigt eben, dass Du das Thema nicht wirklich stehst.
Unlimited1980 schrieb:
Die Latenz blieb stehen.
Weil diese technisch bedingt ist und kaum gesenkt werden kann. Beim DRAM kann man nur noch die Latenz signifikant senkt, indem man die Adressierung ändert wie wes bei HBM ja auch gemacht wurde, aber dafür braucht man mehr Pins, für HBM welches per Interposer angebunden wird, ist dies kein Problem, für normale RAM Riegel wäre es dies aber offenbar und daher hat man dort diesen Schritt bisher nicht vollzogen. Womit wir wieder am Anfang wäre, den auch hier gilt wieder, dass der Aufwand in einem Verhältnis zum Ertrag stehen muss und man kaum viel Aufwand für eine Optimierung aufwenden wird, die nur einen im Verhältnis sehr kleinen Vorteil bringen wird. Der Aufwand HDDs auf NVMe und damit PCIe Anbindung umzustellen, würde in keinen Verhältnis stehen, da deren Latenz sowieso so hoch sind, dass der Vorteil den man damit hätte, den Aufwand nicht rechtfertigt und selbst bei SSDs mit NAND ist der Vorteil ja nicht so übermäßig groß.
Unlimited1980 schrieb:
Ja dann erklären sie doch mal, Herr Holt!
Hat Google Dich ausgesperrt? Also etwas Eigeninitiative sollte man schon zeigen, wenn man sich weiterbilden will, ein kompletter Kurs Computertechnik würde den Rahmen hier auch deutlich sprengen.
 
Holt schrieb:
Nur ist der Takt einer PCIe Lanes eben nicht 100MHz, sondern 2,5, 5 oder 8 GHz, nur hast Du davon eben leider keine Ahnung und ziehst daher eben falsche Schlüsse. Informiere Dich doch bitte mal besser bevor Du sowas schreibst

looool?
Du musst echt mal aufhören überall immer Gespenster zu hören. Was du einem alles in den Mund legst!
Ich habe doch explizit geschrieben, dass 100MHz der Basistakt ist und dich um eine Erklärung gebeten, weswegen DU denkst, dass PCIe XPoint so stark ausbremst.

Naja... also PCIe ist ja viel besser, als ich gedacht hätte.
2 bis 8 GHz ist ja zumindest in der Theorie deutlich latenzärmer als die lächerlichen 400MHz des RAM-Speichertaktes.
8Ghz ermöglicht theor. eine maximale Latenz von unter 1ns und ist damit erheblich schneller als RAM.
Krass.

Klar, es kommen noch andere Faktoren hinzu, aber: die sind ja auch bereits stark vermindert worden.
Ich bin jetzt gar nicht mehr so sicher, ob du überhaupt Recht haben kannst mit deiner Behauptung, dass X-Point in der Optane durch PCIe, Treiber, Protokoll etc. maßgeblich ausgebremst wird.
Ich denke jetzt erst recht, dass die Grenze derzeit eher durch die X-Point-Hardware gegeben ist als durch PCIe etc.
Witzigerweise widersprichst du dir ja selber, indem du gerade versucht hast zu erklären, weswegen PCIe so langsam ist, aber dir dabei gar nicht klar war, dass du damit aufzeigst, dass es sogar sehr schnell ist!!
:)
Ich bin mir auch gar nicht mehr so sicher, dass du selber wusstest, wie schnell PCIe in Wirklichkeit ist, als du behauptest hattest, Optane würde durch PCIe, Treiber, Protokoll maßgeblich ausgebremst.
Du behauptest ja sogar XP sei "nicht so viel langsamer als DRAM":
Holt schrieb:
Die hat mit dem 3D XPoint ja auch einen Speicher der weit schneller als NAND und nicht so viel langsamer als DRAM ist,
Wie ich dir schon gezeigt und vorgerechnet habe, ist XP um den Faktor 1000 langsamer als DRAM.
Also irgendwie bist du schon stur, oder?

Du flüchtest dich jetzt einfach nur in die Behauptung, das ist alles nur die PCIe-Anbindung schuld.
Ich glaube da jetzt noch weniger dran. Ich denke es ist ganz einfach so, dass niemand aus dem Nichts plötzlich zigfachschnellen Dauerspeicher zaubern kann.
Ich denke du liegst mit deiner ursprünglichen Behauptung einfach nur falsch, dass XP fast genauso schnell ist wie DRAM.
Ich denke Faktor 10 Verschnellerung im Laufe der kommenden 5 Jahre wird schon viel sein und in dem Rahmen sollte PCIe auch noch nicht so übermäßig die Bremse sein, wie du das darstellst.
Müssen wir einfach mal beobachten, im Moment ist es ja alles Spekulation...

Holt schrieb:
Diese 10 Mikosekunden sind nicht die Zugriffszeit des 3D XPoints, sondern der Optane SSD und damit inklusiven dem ganze Weg über PCIe, Treiber, Protokoll etc. und daher eben nicht mit den paar Dutzend Nanosekunden von DRAM zu vergleichen, welches ja als Arbeitsspeicher ganz anderes angebunden ist und viel direkter angesprochen wird.

Auf die anderen Sachen in deinem Post werde ichs erst morgen schaffen einzugehen.
Aber als kleine ANmerkung, eines der von dir geposteten Bild geht leider nicht... kannst du da nochmal schauen?
Ergänzung ()

Naja, bevor ich jetzt aber weiter Zeit verschwende in sinnloser Herumdiskutiererei mit dir, erklär mir erstmal bitte, was hiervon überhaupt dein Standpunkt ist.

zuerst hast du ja behauptet:

Holt schrieb:
Richtig, da limitieren auch offensichtlich die Controller und nicht die 3D XPoints. Die hat mit dem 3D XPoint ja auch einen Speicher der weit schneller als NAND und nicht so viel langsamer als DRAM ist,

Das habe ich ja korrigiert mit meiner Aussage, dass DRAM 1000x schneller ist als XP.

Dann hast du seitenweise versucht alles so hinzubiegen, dass du doch recht hast und jetzt auf einmal lese ich so zwischendrin:

Holt schrieb:
Das 3D XPoint eine um den Faktor 1000 höhere Latenz als DRAM hat, sagt Intel doch selbst und bestreite ich ja auch nicht, .

Also erklär mir mal, wie das von dir in Einklang zu bringen ist mit dem ersten Zitat... oder gibts du mir jetzt doch endlich mal Recht, wo ich auch Recht habe, hehehe...?
Oder willst du mir einfach nur sagen, dass du 1000x langsamer als "nicht so viel" ansiehst....

Diskussion mit Holt@its best?
;)
mal hü mal hott, der Holt macht was er will?
 
Zuletzt bearbeitet:
Da Du wirklich 0 Ahnung von dem ganze Thema wie z.B. Datenübertragung und Latenzen hast und offenbar auch nicht bereit bist Dich zu Informieren um dazuzulernen, ist hier Ende der Diskussion für mich.
 
Da muss ich jetzt wirklich lachen.
Du wirst echt immer verrückter.
Ist doch schon fast wieder witzig, oder?

Also inzwischen schaffst du es echt innerhalb von 3 Posts komplett deine Meinung ins Gegenteil zu ändern, ohne es selber zu bemerken.
Hauptsache immer schön in allem immer widersprechen.
Tjaja, das ist halt dann das, was dabei herauskommt...

Ist mir klar, dass du dich da nicht mehr herausreden kannst und dich dann verdünnisierst.
Schade, aber ich denke auch bei längerer Diskussion hättest du dich eh nur immer weiter im Kreis gedreht.

Naja, immerhin hast du scheinbar am Schluss doch endlich deinen falschen Standpunkt eingesehen.
Habe ich doch etwas Gutes bewirkt heute, ne?

So ne Type wie Dich würd ich echt gerne mal im Reallive treffen, nur um mal zu sehen, was du für einer bist!
;)
Du kommst aber nicht zufällig auch aus Stuttgart und Umgebung oder Berlin?
 
Zuletzt bearbeitet:
Ja, du hast was gutes bewirkt, denn jetzt kommst Du auf meine Ignoreliste und ich spare mir künftig die Zeit die sinnlosen Posts von dir zu lesen oder zu versuchen dir was zu erklären.
 
Ich setze dich nicht auf ignore!
Bist viel zu unterhaltsam...
;)
Zick mal nicht so herum & lass mal ein Bierchen trinken gehn!
Cmon, ...
 
Zuletzt bearbeitet:
Zurück
Oben