News 3D XPoint: Intel zeigt weitere Benchmarks und DDR4‑DIMM

Oh, ist doch eine Enttäuschung nachdem man Erwartungen um Faktor 1.000 geweckt hat.

Offenbar bleibt davon weniger als 10 übrig.

Einige steigen selbst bei Faktor 1.000 nicht von HDD auf SSD um. Wie viele wohl wg. Faktor 10 noch einmal umsteigen werden?

Schade, dass offenbar auch hier der Drops gelutscht ist und nach aufregenden Zeiten weg von HDD dieselbe Langeweile einkehrt wie z.B. bei CPU, RAM etc.
 
So langsam kippen die IT Standards.
Was tut man nur wenn Platten so flott sind wie RAM .... alleine die ganzen Optimierungen bei Server Software (Datenbanken!) ... bzw generell bei Indexstrukturen wie Bäumen... :o

Die sequentielle Lesegeschwindigkeit ist hier recht egal, es geht um Seeks quer über den Datenträger.
 
Zuletzt bearbeitet von einem Moderator:
rob- schrieb:
Was tut man nur wenn Platten so flott sind wie RAM .... alleine die ganzen Optimierungen bei Server Software (Datenbanken!) ... bzw generell bei Indexstrukturen wie Bäumen... :o

In dem Fall nimmt man einzelne Glieder aus der Kette vom CPU Register zum Cold Storage raus wenn der Preis stimmt.

CPU Register - 1st Lvl Cache - 2nd Lvl Cache - weitere Caches - RAM - SSD - HDD - Tape dürfte die gängigste aktuelle Kette sein wobei einige schon einen Schnitt bei SSD gemacht haben. Werden SSDs schnell und vor allem haltbar genug, dann ist es nur eine Preisfrage wann RAM aus der Kette rausgenommen wird.
 
[F]L4SH schrieb:
wieder "nur" von Latenz und IOPS und kein Sterbenswörtchen zu Übertragunsraten die Rede ist?
Ganz einfach weil man die Übertragungsraten durch Parallelität praktisch beliebig steigern kann. Ein NAND Die schafft auch keine 2000MB/s wie es die 950 Pro kann, sondern vielleicht so 250MB/s, aber man hat eben 8 parallel und wenn die Zugriffe so lang sind das über alle 8 verteilt gelesen wird, dann hat man eben 2000MB/s. Oder nimm ein RAID 0 aus HDD, die schaffen maximal so 200MB/s und im RAID 0 mit 8 davon bist Du bei so 1600MB/s, die Latenz wird aber bei der Parallelität nicht geringer, man schafft allenfalls mehr IOPS. Der Vorteil von dem 3D XPoint ist nun aber einmal, dass es eben so eine gering Latenz hat, da kann man noch so viele NAND Dies oder HDD parallel nehmen, da kommt man nie dran.

Umgekehrt kann man aber mit genügend parallel geschalteten XPoint Chips dann praktisch jede gewünschte Übertagungsrate erzielen, braucht dann aber eben wie bei den SSDs auch entsprechend lange oder viele parallele ZUgriffe um diese auch zu erreichen.

strex schrieb:
mir sind aber Latenz und IOPS wichtiger als sequentielle Raten - wie wir bei der 950 Pro gesehen haben, sind die dort angegebenen Werte eh nur Makulatur.
Makulatur nicht, aber eben im Alltag kaum zu erzielen, weil man kaum solche Zugriffe hat, wo diese Werte überhaupt erzielt werden. Man beachte wie der neuen CrystalDiskMark 4.x die besten Werte erzielt, das ist nicht mehr beim seq. Test, sondern bei 128kQD32! Vermutlich kann die ganze I/O Architektur von Windows auch so gewaltig lange (also über viele aufeinanderfolgende LBAs gehende) I/O am Stück gar nicht realisieren.

Wattwanderer schrieb:
Offenbar bleibt davon weniger als 10 übrig.
Das ist eben der Unterschied zwischen dem was die Technologie kann und dem was davon bei praktischen Anwendungen ankommt und da spielen bei einer Datenbank eben mehr Dinge eine Rolle als nur die Performance des Storages. Genau deswegen bringen ja auch die schnellen PCIe SSDs wie die 950 Pro am Ende bei den Praxistests eben nicht die 4 fache Leistung die sie in den theretischen Benchmarks zeigen, dann z.B. ein Virenscann besteht ja eben nicht nur auf dem Lesen der Dateien, sondern auch aus der Analyse der gelesenen Daten in der CPU und die wird eben von der schnellen SSD nicht beschleunigt.

Wattwanderer schrieb:
Wie viele wohl wg. Faktor 10 noch einmal umsteigen werden?
Wenn die reale Anwendung am Ende um den Faktor 10 schneller wird: Viele! Gerade im Profiumfeld wo man große Systeme hat die ihre Aufgaben auf viele Server verteilen müssen, lohnt es sich wenn man wegen solch einer Steigerung dann entsprechend viele Server einsparen kann. Für den Heimanwender wird so eine XPoint SSD genau wie eine PCIe NVME SSD im Alltag kaum noch einen spürbaren Leistungsvorteil bringen, da der meist gar keine Anwendungen hat die überhaupt das Potential solcher SSDs auch nur annährend auslasten können, außer eben Disk-Benchmarks.

Wattwanderer schrieb:
nach aufregenden Zeiten weg von HDD dieselbe Langeweile einkehrt wie z.B. bei CPU, RAM etc.
Die HDDs waren ein gewaltiger Flaschenhals in einem PC, mit SSDs wurde der enorm aufgeweitet und ist nun praktisch kaum mehr vorhanden, es bringt also nichts den noch mehr zu erweitern, da muss erst die Möglichkeit geschaffen werden, die Daten die nun so schnell ankommen können auch noch schneller zu verarbeiten. Das Gleiche ist es doch mit USB, da war USB2 echt lange eine Bremse für externe HDDs, mit USB3 ist diese beseitigt und man hat mehr als genug Bandbreite für eine einzelne HDD, was soll da USB3.1 mit 10Gb/s noch bringen? Eben nichts und selbst mit einer SATA SSD ist der Voteil von 50 bis 150MB/s den man damit gegenüber den 5Gb/s von USB3 erzielen kann, dann doch eher bescheiden.
 
Holt schrieb:
Wattwanderer schrieb:
Oh, ist doch eine Enttäuschung nachdem man Erwartungen um Faktor 1.000 geweckt hat.
Offenbar bleibt davon weniger als 10 übrig.
Das ist eben der Unterschied zwischen dem was die Technologie kann und dem was davon bei praktischen Anwendungen ankommt

...

Wenn die reale Anwendung am Ende um den Faktor 10 schneller wird: Viele!

Sehe ich genauso. Der Faktor 10 ist auf die aktuell schnellste Technologie bezogen, die selbst in aktuellen High-End Systemen noch nicht wirklich weit verbreitet ist. Das ist schon ein krasser Sprung.

Zudem ist Faktor 10 das was man HEUTE erzielen kann. Wenn ein Softwareentwickler weiß dass er NVMe voraussetzen kann, egal ob NAND oder Xpoint, sieht die Sache in ein paar Jahren sicherlich nochmal anders aus.
 
Die SW-Entwicklung hängt der Hardwareentwicklung immer sehr lange hinterher. Würde man z.B. aufhören die Daten komprimiert auf den Datenträgern zu speichern, täte man damit oft einen gewaltigen Sprung bei dem was von der schnelleren Speichertechnologie am Ende ankommt. So limitiert dann am Ende immer das Entpacken die Gesamtzeit. Als HDDs Standard waren, machte es ja Sinn Daten möglichst kompakt dort abzulegen, die CPUs konnte es meist schneller entpacken als man die Daten lesen oder schreiben konnte, schon mit Flash NAND SSDs ist es aber nicht selten anders und mit XPOint wird es dann ganz bestimmte massiv anders sein.
 
Holt schrieb:
z.B. ein Virenscann besteht ja eben nicht nur auf dem Lesen der Dateien, sondern auch aus der Analyse der gelesenen Daten in der CPU und die wird eben von der schnellen SSD nicht beschleunigt.

Aus Spaß habe ich gerade eben mal analysiert, wo denn das Bottleneck beim Virenscan auf meiner Maschine ist. Und es ist... tadaaa... die CPU. Die SSD ist eine Crucial MX100 512GB und die CPU ein i7-5930k @ 4.2 GHz. Allerdings ist die CPU nicht zu 100% ausgelastet, sondern nur zu 8%. Warum? Weil die Engine des Virenscanners (MS Security Essentials) single-threaded ist. Eigentlich ein Skandal in der heutigen Zeit ;)
 
Zurück
Oben