Kuriose Schreib- & Lesewerte einer SSD

Wobei der Thread total veraltet ist und dringend mal überarbeitet werden müsste, da die dort empfohlenen SSDs schon längst von Nachfolgern abgelöst wurden und auch dort 3 Samsung und eine Crucial empfohlen.

Die unbekannten SSDs sind meist keine unbekannten, die basieren alle auf bekannten Controllern und NANDs, denn es gibt eben nur ein paar Hersteller von SSD Controllern und von NAND, man weiß bei denen nur nie, welche Komponenten genau verbaut sind. Bei den billigen SSDs unbekannter Anbieter kann man aber sicher sein, dass da die billigsten Controller verbaut sind, i.d.R. sind diese DRAM less und oft haben sie nur 2 NAND Kanäle und dazu die NAND die gerade billig auf dem Markt zu haben waren, zuweilen in zweifelhaften Qualitätsstufen. Dabei wechseln die verbauten Komponenten dann auch gerne mal, so dass man gar nicht weiß was da nun konkret drin ist und die Hersteller haben auch keinen Support in Form von FW Updates, dies kostet Geld und wird fast unmöglich wenn innerhalb einer Serie unterschiedliche Controller zum Einsatz kommen.

Wer diese Risiko für ein paar gesparte Euro eingehen möchte, der soll es tun, als Mist werde ich diese Art von SSDs weiterhin bezeichnen und die meisten die sowas gekauft haben, tun es eher früher als später dann auch.
 
Naja, ich hab in einem Rechner auch eine eher unbekannte SSD von Lite-On CV1 m.2 Sata drin, die kannte ich bis dahin noch gar nicht. Wenn ich damit mal Probleme haben sollte, sagst Du mir dann auch ich hätte mich mal besser informieren sollen, und nicht so einen Mist kaufen?
 
Lite-On ist der Hersteller hinter den Plextor SSDs und damit gar nicht so unbekannt. Unter dem Namen Plextor (dafür die Lite-On den von der Firma lizenziert die früher die bekannten optischen Laufwerke gebaut hat) werden die SSDs für private Endkunden verkauft (genau wie Micron Produkte für Endkunden unter dem Label der Tochterfirma Crucial verkauft), während die SSD die unter dem eigenen Lite-On Label für OEMs sind. Nach dem Fall dieser M5 Pro und der Feststellung das es leider kein Einzelfall ist und man bei den Plextor auf die S.M.A.R.T. Werte nicht vertrauen kann, denn einzig der Rohwert der nicht korrigierbaren Fehler (0xBB) und der Aktuelle Wert des Verfügbaren Reservespeichers scheinen da wirklich etwas über den Zustand der SSDs auszusagen, bin ich auch von Plextor ab und empfehlen deren SSDs nicht mehr.
 
Hallo,
melde mich nun wieder.
Habe in den letzten Tagen so nebenbei ein paar weitere Benchmark Durchläufe durchgeführt.

Habe mittels dem Ressourcen Manager darauf geachtet, dass die SSD nur gering ausgelastet war (bisschen SYSTEM + Firefox).
Kann nun nach gewisser Zeit der beobachtung beschreiben, was sie tut. SIe schreibt nur kurze Zeit (~1-5s) normal und dann bricht die Leistung in Richtung der 0-12MB/s ein. (Sieht man halbwegs gut im ATTO Benchmark). [Zwischenzeitlich kurze "hoch Phasen" bei ~60MB/s]. Dadurch schwanken die anderen Benchmark Ergebnisse halbwegs. Manchmal wird ein Teiltest abgeschlossen bevor die Leistung einbricht --> guter Wert. Bei anderen Durchläufen bricht die Leistung während des Test ein --> geringer Benchmark Teilwert.
Dies sieht man auch bei dem Kopiervorgang, den ich Durchgeführt habe.

Auch bei einer Budget SSD sollten die Werte nicht sooo sein?
Spannend wären Benchmarkergebnisse des gleichen SSD Modells.

In den Textdateien sind die CrystalDiskMark Ergebisse.


LG
Matthias

as-copy-bench TEAM L5 LITE SSD 26.11.2018 20-19-51.pngas-copy-bench TEAM L5 LITE SSD 26.11.2018 20-25-55.pngas-ssd-bench TEAM L5 LITE SSD 26.11.2018 20-00-01.pngas-ssd-bench TEAM L5 LITE SSD 26.11.2018 20-10-56.pngas-ssd-bench TEAM L5 LITE SSD 26.11.2018 20-17-59.pngas-ssd-bench TEAM L5 LITE SSD 26.11.2018 20-28-37.pngas-ssd-bench TEAM L5 LITE SSD 28.11.2018 17-21-52.pngas-ssd-bench TEAM L5 LITE SSD 28.11.2018 17-25-42.pngas-ssd-bench TEAM L5 LITE SSD 28.11.2018 17-52-50.pngATTO1.jpgCapture6.PNGCapture8.PNGATTO2.PNG
 

Anhänge

  • CDM_20181128173716.txt
    2 KB · Aufrufe: 271
  • CDM_20181128174238.txt
    2 KB · Aufrufe: 285
  • CDM_20181127231314.txt
    2 KB · Aufrufe: 284
  • CDM_20181127230802.txt
    2 KB · Aufrufe: 283
Zuletzt bearbeitet:
Da ja vor allem die Schreibrate schwankt, dürfte es am Füllstand und an der Verwaltung des Pseudo-SLC Schreibcaches liegen. Die oft nur 30 bis 50MB/s die dann beim Schreiben ermittelt werden, sind für eine SSD mit 480GB selbst bei planarem TLC NANDs sehr wenig, was darauf hindeuten könnte, dass der Controller dann zeitgleich den Pseudo-SLC Schreibcache leert, also möglicherweise alle Daten beim Schreiben immer über den Pseudo-SLC Schreibcache gehen.

Es ist halt eine SSD und sie war billig, Du hast damals 20% auf eine 850 Evo 500GB gespart und kannst eben nicht erwarten die gleiche Performance zu bekommen. Du hast bekommen was Du gekauft hat, eine SSD die billig ist. Du musst mit der Performance leben die sie bietet und wenn Du bestimmten Ansprüche an die Performance stellst, dann solltest Du beim nächsten mal bei der SSD nicht nur auf den Preis schauen und auch nicht nur auf die technischen Daten im Preisvergleich oder Datenblatt, sondern auch auf die Reviews und dort auf die Ergebnisse der einzelnen Benchmarks. Dabei muss man eben auch schauen was die einzelnen Benchmarks aussagen, nicht jeder Reviewer führt auch wirklich anspruchsvolle Benchmarks aus, einmal ATTO, CDM und AS-SSD auf einer leeren SSD sind trivial und sagen gar nichts aus, aber genau solche billigen SSDs werden allenfalls an Reviewer geschickt die gar nicht mehr als diese Benchmarks ausführen, eben damit sie dann dort gut aussehen.
 
Kann natürlich sein, das die SSD einen Fehler hat, aber 6,5TB Hostwrites und 12 TB interne Writes scheinen ja gut gegangen zu sein, aber bevor man die Platte abschreibt kann man noch einige Dinge prüfen:

1. Wie voll ist die SSD
2. Funktioniert TRIM (mit Trimcheck testen)
3. Ist auf die SSD noch Garantie?
 
Wie voll die SSD ist, kannst Du den Anhängen entnehmen, CDM zeigt dies nämlich an und was sollte bitten einen Austausch auf Garantie begründen? Wo siehst Du hier einen Defekt oder ein S.M.A.R.T. Attribut welches dies rechtfertigen würde? Was der TE hier sind die Eigenschaften der SSD, die eben keine konstant hohe Schreibrate bietet, wie es bei vielen SSDs mit TLC NAND und sogar bei welchen mit MLC NAND (da gibt es auch welche die Pseudo-SLC als Schreibcache nutzen, z.B. bei Micron Dynamic Write Acceleration genannt und in einigen M600 und MX200 verwendet) und erst recht denen mit QLC NAND der Fall ist. Bei einigen ist dies stärker ausgeprägt als bei anderen und bei den Billig-SSDs darf man nicht erwarten das diese eine besonders tolle Performance in allen Lebenslagen liefern, die sind dazu gemacht billig zu sein und wer sowas kauft, bekommt eine billige SSD, eben genau das was er gekauft hat.

Da sowas nicht in den Datenblättern steht, sondern allenfalls in anständigen und aufwendiger gemachten Reviews erkennbar ist, sollten die Leute die Produkte abseits des Main-Streams kaufen, eben auf solche Reviews mit entsprechenden Tests achten und wenn sie es nicht tun oder, wie meist bei den Billig-SSDs, solche Reviews nicht existieren (dies sollte jedem schon mal als Warnung dienen, wer ein gutes Produkt hat möchte dies auch publik machen), dann muss man eben damit leben dies selbst herausfinden zu müssen, auch wenn es dann eine Enttäuschung ist.

Ein Test mit TrimCheck kann nicht schaden, aber der TE hat ein Haswell System und ein Board welches nur die SATA Ports des Z87 Chipsatzes besitzt, auf dem läuft der alter Intel RST vor 9.6 der noch kein TRIM unterstützt hatte, gar nicht und wie man außerdem am Screenshot im ersten Post sieht, ein ausreichend aktuelles Windows welches TRIM unterstützt. Wenn TRIM nicht geht, dann also nur weil es deaktiviert wurde, sonst muss es laufen.
 
Trim funktioniert.

Ja, es scheint so, als ob die SSD normal funktioniert. :daumen:

Nun dies erklärt nicht die Probleme die ich in der Verangenheit hatte. Diese Probleme sind leider nicht reproduzierbar.Dennoch, danke für eure Hilfe und Einsatz:).

Falls wieder Bootprobleme, freezes auftauchen werde ich den Thread reaktivieren/ neuen aufmachen.

Wenn sie nur langsam wäre, hätte ich den Thread ger nicht geöffnet.
Meine alte SV300 ist nicht schnell. Sie hat aber bei ATTO keine Leistungseinbrüche (VL. andere/keine Chaching Struktur).

LG
Matthias
1543430585175.png
 
Beobachte halt die SMART Werte, ob sich da Änderungen bei Bad Blocks, ECC oder DMA Error Werten zeigen.

Falls wieder Fehler auftreten, sollte die SSD beim Händler reklamiert werden und unter Umständen ein Wechsel auf ein anderes Modell ausgehandelt werden.

Viel Glück
 
blacktedr schrieb:
Meine alte SV300 ist nicht schnell. Sie hat aber bei ATTO keine Leistungseinbrüche
Kein Wunder, denn die alte Kingston V300 hat den Sandforce Controller und der hat eine Datenkompression, ATTO bencht mit extrem komprimierbaren Daten (nur 00) und damit braucht der Sandforce Controller praktisch nichts ins NAND zu schreiben, weshalb die eben bei ATTO so viele besser abschneiden als bei Benchmarks die mit nicht komprimierbaren, zufälligen Daten benchen wie AS-SSD und CDM (in der Standardeinstellung, dies kann man z.B. auf 0 Fill umstellen).
 
  • Gefällt mir
Reaktionen: blacktedr
Wenn praktisch nichts in NAND geschrieben wird, geht aber auch die Write-Amplification deutlich runter. Sandforce warb doch damals mit einer WA < 1.
 
  • Gefällt mir
Reaktionen: blacktedr
Praktisch sieht man solche Werte von <1 aber nur noch selten, die Sandforce scheinen öfter ein Refresh zu machen. Auch die oft beworbenen Werte von deutlich unter 1 (ich meine so um 0,5 wurde damals oft genannt), habe ich noch nie gesehen, die meisten Daten kann der Sandforce gar nicht so massiv komprimieren wie z.B. 7z, aber der hat ja auch viel weniger Resourcen zur Verfügung und muss damit auch noch einen Datenstrom von 500MB/s in Echtzeit verarbeiten können.

Der TE kann ja mal den Screenshot von CDI für seine alte V300 posten, dann sehen wir ja wie hoch die WA bei seiner SSD war.

Aber da Heimanwender es sowieso nicht schaffen die NANDs einer ordentlichen SSDs kaputt zu schreiben, denn die halten eben viel mehr TBW aus als die Hersteller angeben und die wenigstens Heimanwender schreiben überhaupt mehr als 10TB pro Jahr auf ihre SSD, ist das Thema Haltbarkeit sowieso irrelevant.
 
  • Gefällt mir
Reaktionen: blacktedr
Die Komprimierung von zip oder 7z ist klar deutlich besser. Auch die Windows Filesystem Komprimierung kommt nicht auf die Werte, muß die ja auch wie im Sandforce transparent laufen.

Auf eine WA < 1 kommt man aber schon, vor allem bei Datenbanken, aber ich wüsste jetzt gar nicht, ob überhaupt noch SSDs mit transparenter Komprimierung am Markt sind.

Auf der früher verwendeten Sandforce SSD war die WA auch über 1.

Sandforce.JPG
 
Ich schätze, das für WA CDI nicht alle Werte liefert. Habe deshalb mit dem Kingston Tool die Werte ausgelesen.(sd.txt)
(HInweis: Tests wurden nicht am selben Rechner durchgeführt)
TOTAL NAND Writes: 16334 GB
1543441979366.pngCDI.PNG

PS.:
Nach einem Firmwareupdate sieht CDI etwas anders aus.
Unbenannt_FWUpdate.PNG
 

Anhänge

  • as-ssd-bench KINGSTON SV300S3 28.11.2018 22-51-58.png
    as-ssd-bench KINGSTON SV300S3 28.11.2018 22-51-58.png
    33 KB · Aufrufe: 309
  • Untitled2.jpg
    Untitled2.jpg
    84,5 KB · Aufrufe: 284
  • sd.txt
    11,8 KB · Aufrufe: 288
Das Attribute E9 Vendor Specific dürfte mit dem Wert hex 3FD8 die NAND Writes (16.329) sein. Das würde, sofern E9 eben diesen Value anzeigt eine WA von 1.05 ergeben.
 
juenger schrieb:
Auf eine WA < 1 kommt man aber schon, vor allem bei Datenbanken
Sofern da nicht lauter komprimierte Mediendaten in BOLBs angelegt werden, denn anderes als die übrigen Daten lassen die sich eben nicht mehr verlustfrei (und nur so dürften solche Algorithmen komprimieren) weiter komprimieren. Logs sind auch etwas was sich gewöhnlich extrem gut komprimieren lässt.
juenger schrieb:
aber ich wüsste jetzt gar nicht, ob überhaupt noch SSDs mit transparenter Komprimierung am Markt sind.
Die Phison Controller haben sowas auch und anderes als bei den Sandforce macht es bei denen sogar den 4k Werten Beine, weshalb die bei AS-SSD dann ausnahmsweise besser als bei CDM angezeigt werden, da AS-SSD nämlich einen Bug hat und un Wahrheit nur etwa 70% der Daten die bei 4k gelesen werden (zumindest in der Einstellung mit 1GB) wirklich nicht komprimierbar sind.
blacktedr schrieb:
ch schätze, das für WA CDI nicht alle Werte liefert.
Doch, denn die NAND Write stehen im Attribut E9, nur kennt CDI dessen korrekten Namen nicht. Der Rohwert ist 0x3fce = 16334 und den teilt man durch den Rohwert vom Attribut 0xEA (oder F1, beide sind identisch), der 0x3c8e = 15502 beträgt und damit ist die WA bei Deiner 1,05, also auch über 1.

Wenn sie nun vor allem Lesend verwendet und wenig darauf geschrieben wird, dann dürfte der Wert noch weiter steigen.
 
Zurück
Oben