News Intel: PCIe- und SATA-SSDs mit 3D-NAND in neun Varianten

vander schrieb:
Yep, genau so ein Ding meinte ich. ... mit einer passenden Lizenz für ReadyCache ...
Ich habe dich in https://www.computerbase.de/forum/t...n-neun-varianten.1612817/page-2#post-19184784 nach der Cache-Software gefragt, du hast leider nicht geantwortet.

Diese ExpressCache-Software stammt nicht von SanDisk selbst, sondern von Condusiv Technologies. Die hat SanDisk nur lizensiert. Laut Wikipedia hat SanDisk da eine exklusive Lizenz: https://en.wikipedia.org/wiki/ExpressCache
 
@vander

Das Problem für die Verbreitung dürfte eher die Hitrate sein und das Schweigen zum Algorithmus.

Warum sind nur 30% der Writes ein Hit? Sollten es nicht annähernd 100% sein, wenn du nicht mehr schreibst als freier Speicher auf den Cache Laufwerk verfügbar ist.

Bis jetzt dürfte es noch nicht klar sein, welche Daten in Cache gespeichert werden und wie diese verdrängt werden. Geht es nach der Anzahl der Zugriffe oder reicht ein Zugriff aus um die Datei zu cachen? Mir ist nicht bekannt, dass nur ein Hersteller seinen Algorithmus ein wenig erklärt hat.

Für viele Nutzer war damals eine große SSD die bessere Lösung im Vergleich zu den Cache Lösungen. Der Vorteil einer großen SSD ist, dass alle Zugriffe immer schnell sind und nicht nur ausgewählte.

Edit:
Ein anderes Problem waren Backup Lösungen, die nicht unter Windows liefen und kein Recovery Medium auf Windows Basis mit entsprechenden Cache Treibern hatten.
* Cache deaktivieren
* Backup
* Cache wieder aktivieren und neu aufbauen lassen
Das war für viele keine Lösung, wenn die Backups regelmäßig erstellt wurden.
 
Zuletzt bearbeitet:
Warum erklären sie es wohl nicht? Einfach weil es zu viel Aufwand ist einen wirklich tollen Algorithmus zu implementieren und daher die Algorithmen sehr einfach sind und i.d.R. alle kurzen Zugriffe cachen, also immer wenn z.B. maximal 64k mit einem Zugriff gelesen (oder ggf. geschrieben) werden, dann geht es in den Cache, sonst würde dessen Verwaltung viel zu lange dauern.
 
Selbst bei so einen einfachen Algorithmus sollte etwas geben, was die Verdrängung beschreibt bzw. das Risiko reduziert, dass nicht gerade wichtiges sinnvolles verdrängt wird.

Dieses sind Daten von einen Linux System, welches für Software Entwicklung genutzt wird:
Die average requests size liegt aktuell bei ~612 Sektoren. 612*512 B = 313,344 kB, somit würde ein Großteil meiner Zugriffe mit deinen einfache Algorithmus nicht gecacht.
 
Zuletzt bearbeitet:
Bei einem Zugriff über 612 LBA wäre aber auch eine HDDs schon recht schnell, die erreichen ja schon bei etwa 64k bis 128k die maximalen Transferraten und damit lohnt es sich kaum solche Zugriffe zu cachen.
 
War der Vorteil einer SSD nicht die Zugriffszeit und nicht die maximale Transferrate? ;)
Die Zugriffszeit ist bei HDDs auch bei 612 LBA um ein vielfaches höher.

Wie wäre es, wenn auch wir beiden wieder zum Topic des Threads wechseln? :)
 
Nur was nutzt die hohe Zugriffszeit wenn der eigentliche Datentransfer dann sowieso viel länger als die Zugriffszeit dauert? Daher werden eben nur kurze Zugriffe gecacht, denn bei denen fällt die hohe Zugriffszeit der HDDs im Vergleich zu der kurzen Zeit der Übertragung der Daten eben sehr ins Gewicht. Würde man nun auch noch einen komplexen Algorithmus für die Cacheverwaltung nutzen, wäre die Zugriffszeit auch noch höher, man muss ja vor dem Zugriff sowieso schon prüfen ob die Daten im Cache stehen und dann ggf. auch noch entscheiden, welche alten Daten nun verdrängt werden, wenn neue gecacht werden sollen und letzteres muss man entschieden haben, während die HDDs den Zugriff macht, damit man eben die gelesenen Daten sofort mit ins NAND schreiben kann, denn soll man die Daten sonst lassen, wen sofort der nächste Zugriff kommt? Bleibt da Zeit um alle Zugriffe mit der Zeit des Zugriffs zu protokollieren und auszuwerten, damit man wirklich die zuletzt am häufigsten genutzten cacht?

Und selbst wenn, was ist mit der Datei die auf die gestern dreimal zugegriffen wurde, soll die aus dem Cache von einer verdrängt werden die heute zum zweiten mal gelesen wurde? Oder doch erst nach dem dritte oder vierten Zugriff, weil dann klar ist, dass die von gestern heute gar nicht mehr gebraucht wird? Versuche einen guten Algorithmus zu finden und vergleiche dessen Aufwand mit dem einfachsten, eben alle zu Cache was gerade mit kurzen Zugriffen gelesen wurde und wenig Aufwand bedeutet und dann landest Du am Ende bei dem, zumal der auch gut in Benchmarks funktioniert. Denn was nutzt es wenn die Daten des letzten Benchmarks noch gespeichert sind und nicht die von dem er nun gerade läuft und dessen Dateien nun drei- oder fünfmal hintereinander gelesen werden.
 
Zuletzt bearbeitet:
Atto liefert bei mir für 256 kB mit der aktivierten Option "Neither" bei einer SSD am SATAII Port folgende Werte:
Write: 221923 kB/s Read: 219639 kB/s -> Average: 220781 kB/s

Optimistische Annahme: Eine HDD schafft mit identischen Einstellung die identischen Werte.

Somit dauert eine Transfer von ~313 kB ~0,00141769 s bzw 1,41769 ms.

Die Zugriffszeiten bei einer SSD liegen laut AS SSD bei ~0,2 ms und bei einer HDD bei ~11 ms.

Somit dauert der Transfer der Daten mit einer SSD ~1,61769 ms und mit einer HDD ~12,41769 ms.

Die Zugriffe müssen relativ groß sein, bis man die hohe Zugriffszeiten einer HDD gegenüber die einer SSD vernachlässigen kann.


Selbst dein einfaches "alles Cache wenn xy erfüllt ist" führt dazu, dass der Cache voll läuft und alte Daten verdrängt werden müssen.

Die aktuellen CPUs sollten relativ locker in der Lage sein den notwendigen Rechenaufwand innerhalb einer kurzen Zeitspanne zu erledigen. Wenn dieses bei einer Realisierung mit relativ langsam angebunden NAND Speicher nicht möglich sein sollte, wie ist dann eine Implementierung von Lösungen wie Rapid mit deutlich schnelleren RAM möglich?

Die Fragen, die du im zweiten Abschnitt stellst, sind die interessanten und dazu würde ich gerne das eine oder andere Paper lesen.
 
Die 11ms sind eine mittlere Zugriffszeit, von Track-to-Track bis Full-Stroke ergibt sich ja immer wieder eine andere Zeit für den Zugriff und natürlich wäre die SSD immer schneller als die HDD, nur kann man eben nicht alles cachen, dazu ist die SSD zwangsläufig zu klein und wenn man zu viel drauf schreibt, wird sie auch nicht so lange durchhalten, denn muss noch mehr verdrängt werden.

Aber wenn Du wissen willst wie das jeweils konkret implementiert ist, kaufe Dir die Lösung und probiere es aus, denn hier ist das nun wirklich komplett Off-Topic.
 
drSeehas schrieb:
Ich habe dich in https://www.computerbase.de/forum/t...n-neun-varianten.1612817/page-2#post-19184784 nach der Cache-Software gefragt, du hast leider nicht geantwortet.
drSeehas schrieb:
1.) Welche Steckkarten?
2.) Was für eine Cache-Software?
Diese ExpressCache-Software stammt nicht von SanDisk selbst, sondern von Condusiv Technologies. Die hat SanDisk nur lizensiert. Laut Wikipedia hat SanDisk da eine exklusive Lizenz: https://en.wikipedia.org/wiki/ExpressCache

1) z.B. die neuen PCIe aus dem Artikel bzw. jede beliebige PCIe SSD
2) sowas wie Expresscache/ReadyCache/...

Vor Condusiv hat AFAIR Diskkeeper die Software entwickelt, das Kind hatte im Laufe der Zeit viele Namen.
Es gibt/gab auch andere Parallelentwicklungen, schon ärgerlich das es bis heute (unter Windows) nichts gibt das mit aktueller Hardware funktioniert. Kann mir als Grund nur vorstellen, das es für die Firmen das Hardwaregeschäft schmälern würde.
WD hat sicher nicht umsonst die Technik gekauft/lizensiert und in die Black² gepackt.

@Holt
Mir ist klar das eine reine SSD Lösung in der Leistung dem HD/SSD Cache-Hybrid überlegen ist. Das P/L kann IMO der Hybrid, je nach Anwendungsfall, gewinnen. Besonders wenn es einem nicht auf den (theoretischen, nur noch messbaren) Unterschied nicht so ankommt.
SSHD zeigen, was bereits mit einem MiniCache (4-8GB) möglich ist. Ein CPU verwalteter Cache mit 256-512GB dürfte das um Längen toppen.
 
Zuletzt bearbeitet:
Ist bei der WD Black² überhaupt ein Caching der HDD auf der SSD vorgesehen? Die ist doch keine klassische SSHDs, sondern eine SSD und eine HDD in einem Gehäuse. Aber wie schon gesagt, der Intel RST bietet sowas und auch Marvell hat mit HyperDuo eine solche Cache-HW Lösung und die Controller kosten längst nicht so viel wie die großen SAS RAID Controller, von denen ja auch einige einen SSD Cache unterstützen.
 
Hast Recht, es ist ein Dual Drive.

Quelle
The Black2 consists of a 120GB SSD and 1TB dual-platter 5400rpm hard drive. It's not a hybrid drive (or SSHD) by definition like the Momentus XT because there's no caching involved. The SSD and hard drive appear as separate partitions, giving the end-user the power to decide what data goes to the SSD and what doesn't. WD calls the Black2 a dual-drive, which is a logical name for the drive because it's fundamentally two drives in one.

Bin grad am lesen zum Hyperduo. Hab mir den vor Jahren schon mal angesehen und wieder verworfen, erinnere mich aber nicht mehr daran warum. Der Cache von dem Teil arbeitet nicht auf Filesystem Ebene, sondern darunter. Kann sein das dort der Hund begraben lag.
 
vander ist eben mit seiner Begeisterung dafür recht alleine, wobei ich mich frage ob er sowas nun wirklich schon praktisch nutzt oder nur aufgrund der Benchmarks, die natürlich immer toll aussehen weil die Daten dort eben meist immer schön im Cache stehen, dafür schwärmt. Ich vermute letzteres, da er ja auch schon von den SSHDs mit ihren 4 oder 8GB NAND begeistert ist, er hat also offenbar diesen Beitrag von mir bzw. den Test von HWLuxx auf den ich dort u.a. eingehe, nicht gelesen.
Ergänzung ()

vander schrieb:
Der Cache von dem Teil arbeitet nicht auf Filesystem Ebene, sondern darunter. Kann sein das dort der Hund begraben lag.
Also ich habe zwar so eine Digitus, aber HyperDuo damit nie getestet. Hier ist ein Review davon, allerdings wart der Rechner wie Deine AMD Plattform nicht in der Lage den PCIe x2 Modus zu unterstützen, denn der hatte eine SandyBridge, aber das kann erst IvyBridge bei den Lanes der CPU selbst. CPUs der X58 Plattform können es übrigens auch. Aber auch bei dem Review werden nur wieder synthetische Benchmarks verwendet, wo also die Daten geschrieben und dann gleich mehrfach hintereinander gelesen werden, also immer artig im Cache stehen.
 
Das System kann ganz gut funktionieren, wenn die Cache Größe und das Verhalten des Benutzers passt.

Persönlich würde ich aber auch keine Cache Lösung empfehlen.
 
Ja, wenn der Cache groß genug ist um die regelmäßig genutzten Daten aufzunehmen und nicht viele sonstigen Daten genutzt werden, dann klappt das ganz gut, nur warum packt man diese Dateien dann nicht gleich auf eine SSD und die anderen auf eine HDD? Dann hat man auch schreibend die volle Performance der SSD, während die meisten Cache Lösungen nur Lesecaches sind und wenn man sie auch als Schreibcache einsetzt, HyperDuo kann beides, dann hat man ein erhöhtes Risiko bei Ausfall der Cache SSD und die ist ja gerade wenn es nicht so gut passt und ständig Daten verdrängt werden, auch ganz schön belastet. Da sollte man nicht unbedingt die billigsten SSDs mit planaren TLC NANDs nehmen. Intel hatte damals als RST das Caching von HDDs gelernt hat, extra kleine SLC SSDs dafür auf den Markt gebracht, als MLC das SLC bei Consumer SSD schon verdrängt hatte.
 
Praktische Nutzung, 1x Expresscache im Notebook, funktioniert super seitdem ich die originale 20GB (knapp 100MB/s 'schnelle' Steckkarte des Herstellers mit einer 60GB@250MB/s ausgetauscht habe.

Seitdem ich das Teil habe, wünsche ich mir sowas für den Desktop. Leider gibt es Expresscache Lizenzen nur für OEMs (kenne nur Notebooks/Ultrabooks damit) und der Readycache von Sandisk ist mit deren SSDs verbundelt. Maximum 32GB, sehr Zeitgemäß :mad:, hab so ein Teil. Ist ok, aber zu klein für das was ich mache, permanent 100% voll und am umlagern.
Andere SSDCache Software (z.B. VeloSSD) hab ich angetestet. Zeitverschwendung, da kein stabiler Betrieb möglich, aber solange es läuft ist es recht fix.

P.S. Der Hyperduo arbeitet wohl doch auf Fileebene.
Ob das Teil auch aktuelle Treiber für Win10 x64 hat und mit Platten 4TB+ klar kommt? Die Berichte darüber sind ja schon was älter.

EDIT
Das aktuellste auf der Marvell Seite ist von 2013 und für Win8 :(
 
Zuletzt bearbeitet:
@Holt

Wie gesagt würde ich persönlich auch keine Cache Lösung empfehlen. S, M oder TLC spielt bei den typischen Cache Lösungen, wenn der Flash hinreichend schnell ist, wahrscheinlich nicht einmal eine Rolle. Wir dürften hier nicht von Nutzern reden, die das System ans Limit treiben.
Diese dürften wohl eher auf eine SSD setzen und nicht auf eine Cache Lösung.

Warum aktuell noch Cache?
Evtl. Restverwertung der vorhanden kleinen SSDs.
 
SSDs sind in so großen Kapazitäten und zu so günstigen Preisen verfügbar geworden, dass sich dieses halbgare Caching größtenteils überlebt hat. Die Performance ist eben meist nicht so toll wie es in den Reviews aussieht, denn wenn regelmäßig mehr Daten bewegt werden als in den Cache passen bringt der nicht mehr viel und verschleißt obendrein auch noch schnell, weil ständig neue Daten dort hinein geschrieben und andere verdrängt werden. Dazu kommt die Verzögerung durch die Cacheverwaltung, es muss ja auch immer erst geschaut werden ob die Daten im Cache stehen oder nicht, was bei einer schnellen PCIe SSD eine noch größere Bremse wäre. Das Thema hat sich überlebt.
 
Zurück
Oben