Benchmarks von USB-Sticks (schreiben und lesen)

Hab ich schon getestet, und bei einer externen HDD klappt das auch wenn der Schreibcache aktiviert ist ("800MB/s"), also im Gerätemanger auf "bessere Leistung" statt "schnelles entfernen" umgestellt wurde. Wenn schreibcache deaktiviert ist, hab ich auch dort dann nur 28MB/s bei USB 2.0.

Beim Stick waren das halt 16-22MB/s

Hier sieht man das auch nochmal über USB 2.0, dass da ca. alle 100MB (95MiB) ein hänger gibt.
HDTune_Pro_Samsung_Flash_Drive_2018-12-01_21-20.png
 
Zuletzt bearbeitet:
Die 4K-Werte sind ja höchst erfreulich, endlich eine Alternative zu den Sandisk Extreme! (und dann auch noch massiv günstiger...macht das breite Ende Probleme, wenn am Nachbarslot auch was steckt?
 
Wobei ich die 4k Werte gerne mal mit AS-SSD sehen würde, denn CDM zeigt die Bestwerte der Wiederholungen an, AS-SSD die Mittelwerte und wenn der Abstand sehr groß ist, dann deutet dies darauf hin das der Stick diese Leistung nur für eine sehr kurze Zeit durchhält.
 
@DaBzzz
Wirklich breit ist das Ende nicht. Nur etwa so breit wie die meisten USB Kabel selber.
Was die Geschwindigkeit an geht muss man natürlich sagen, dass der 256GB schneller ist als die kleineren. Also ohnehin nicht sehr hohe Schreibgeschwindigkeit ist bei dem 120GB Modell zb noch niedriger, und der 64GB wohl nur halb so schnell beim schreiben.

EDIT: Hab grad gemerkt dass meine PCI Express USB 3.0 karte gerade nur mit x1 verbunden ist, daher nur 180MB/s max beim test. Vielleicht wiederhol ich nacher den test wenn nach Reboot x4 anliegt.

as-ssd-bench Samsung Flash Dr 02.12.2018 20-56-41.png
 
Die 4k Werte sind ja erstaunlich gut, die seq. Werte aber überraschend viel schlechter als bei CDM.
 
CDM Version die ich genutzt hatte war ja auch die 5er. Die hat bei Sequentiell noch 512KB Block Size. Die 6er version mit 128KB zeigt da niedrigere Werte.


as-ssd-bench Samsung Flash Dr 02.12.2018 21-19-46.png
 
Auf sequentiell ist gesch...., das bekommt inzwischen jeder 20€-Stick vom Grabbeltisch annehmbar hin, obendrein liefert mein Schlepptop eh nicht mehr als SATA2-Datenraten (und muss die noch durch eine Runde AES schieben, ohne AES-NI).
Aber kaum wirft man mal kleinere Dateien drauf, ist da Sense. 10MB/s @4K, der Nachfolger für meinen wieder zu klein gewordenen Extreme Pro 128 steht fest...Danke!
 
Q32T1 mit 128k ist kein echter seq. Test und bringt nur bei entsprechenden SSDs bessere Übertragungsraten als 512K, bei USB Sticks die ja i.d.R. kein NCQ Unterstützen, also die Befehle nicht parallel abarbeiten können (wie sieht sind 4k und 4k_64 im Rahmen der Messgenauigkeit gleich) , wird die Transferraten wegen der geringeren Länge der Zugriffe hingegen geringer.
 
Ich könnte mal wieder einen größeren USB-Stick/externe Platte gebrauchen. Derzeit hab ich 3x 32gb und 1x64GB. Kürzlich war die MX500 256gb für 36 Euro bei Amazon zu haben. Für den Preis bekommt man bei externen Geräten aber nur Schrott. Die MX500+Gehäuse wäre eine Möglichkeit, ist mir aber zu groß. Kann jemand etwas kleineres (bezogen auf das Volumen) als externen Datenträger empfehlen, so wie die SanDisk Extreme Portable ur eben günstiger. Ich brauche keine 500mb/s schreiben, aber 30MB/s eben auch nicht.
 
Muss den Samsung noch ein bisschen quälen, dieses schubweise Schreiben find ich dubios...insbesondere, weil das nach einiger Zeit abflacht. Und HD Sentinel hat nen Bug im Performance-Plot, da werden wohl nur die hohen Werte genommen und die Dips rausgefiltert. Okay bei normalen Platten, macht hier aber nen Darstellungsfehler von etwa nem Drittel aus. 256GB über 1h40 sind keine 60MB/s. Alle Werte hier erstmal mit Vorsicht genießen...

Ahso, und dass das Teile keine SMART-Daten zur Verfügung stellen will find ich etwas schade. Scheint wohl doch eher ein schneller Stick als eine kleine SSD zu sein. Auf alle Fälle deutlich kleiner als erwartet, ich hab mir die Maße vor dem Kauf nicht angesehen, bin aber positiv überrascht.
Screenshot_20181221_021950.png
Screenshot_20181220_235925.png
 
DaBzzz schrieb:
da werden wohl nur die hohen Werte genommen und die Dips rausgefiltert.
Das ist halt ein Tool für HDDs und da macht es schon Sinn, weil bei HDDs Werte einbrechen wenn die Kößpfe wegen eines anderen Zugriffs einbrechen. Dies sieht man bei HD Tune ja immer gerne, wenn man damit ein Systemlaufwerk bencht. Diese HDD Tools sind für Flashspeicher eben nur sehr bedingt brauchbar.
 
Das unterschreib ich mal wieder nur bedingt, denn man sieht klar einen Einbruch der Schreibrate (dunklere Kästchen) in einem halbwegs regelmäßigen Muster, grob alle 4-5 Kästchen = alle 98 bis 123 MB. Das entspricht exakt den Beobachtungen von VelleX in #701! Nenn mir mal ein SSD-Tool, mit dem ich das genauer ausleuchten kann. Das einzige, das mir gerade einfällt, wäre HDDScan, was, surprise, surprise, schon "HDD" im Namen trägt und daher kein SSD-spezifisches Tool ist.

VelleX schrieb:
Hier sieht man das auch nochmal über USB 2.0, dass da ca. alle 100MB (95MiB) ein hänger gibt.
Anhang anzeigen 729880
 

Nachdem die Leserate auf 210 MB/s gefallen ist und ich noch ein bisschen mit verschiedenen Füllständen gebencht hab, ist der gute Samsung gegen Mitternacht nochmal massiv langsamer geworden statt sich wieder in Richtung 240-260 MB/s zu erholen. Ich hab ihn dann über Nacht mit Zufallsdaten vollschreiben lassen, was auch nur schlappe 7h50 gedauert hat (9 MB/s, d.h. unter 4k-Schreibrate). Heute dann meinen Datenbestand zusammengekratzt, der da drauf sollte, wird aber nichts...es waren schon Echtdaten drauf, aber das wars. Ich lasse eben Nullen, und die Kiste steht nach 1h44 jetzt bei 31%, d.h. 13 MB/s. Da muss ich schon tief buddeln, um einen USB-Stick mit geringerer sequentieller Schreibrate zu finden. Geht zurück, ich brauche nen Datenträger, der auch mehr als 20x beschreibbar ist. Hmpf. War wohl doch zu gut für den Preis?

Und weils gar so schön ist: Beim Einsammeln der Daten hat mein 64er Sandisk Cruzer Extreme doch glatt 32 zusammenhängende Sektoren mit CRC-Fehlern angesammelt, die der aber keinesfalls als Warnmeldung in die SMART-Werte schieben möchte. Hat glücklicherweise nur ein dd-Image von nem Raspi erwischt. Nach nem Ründchen ddrescue sind auch 64k uncorrectable errors (#187) normiert 100 von 100. Saugut. Kann sich Sandisk/WD im neuen Jahr dann gleich vorsichtig von Süden her einführen, da will ich nen neuen für.

Jemand Vorschläge für nen haltbaren 256GB-Stick? (ja, is keine Kaufberatung hier...)
 
Das so ein kleiner Sticks sehr warm werden kann weil er einfach die Wärme nicht abgeben kann und deshalb die Performance einbricht, sollte Dir aber schon klar sein.

Wie hast Du denn die CRC Fehler der Sektoren auf dem SanDisk gefunden?
 
Der kleine Stick zieht maximal 0,6 Watt und erreicht hinten an der Öse 43°C. DAS muss das Boot abkönnen. Überhaupt find ich den Verbrauch unter Last bemerkenswert gering, dagegen mit 0,25W im Idle eher hoch.

Wie man sowas findet?

Erst bricht der Transfer mit "unreadable blabla" ab -> Alarmglocken läuten

dmesg vollgespammt:
Bash:
[3492045.112737] sd 8:0:0:0: [sdh] tag#0 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[3492045.112741] sd 8:0:0:0: [sdh] tag#0 Sense Key : Medium Error [current]
[3492045.112744] sd 8:0:0:0: [sdh] tag#0 Add. Sense: Unrecovered read error
[3492045.112747] sd 8:0:0:0: [sdh] tag#0 CDB: Read(10) 28 00 06 af 9a a8 00 00 08 00
[3492045.112749] print_req_error: critical medium error, dev sdh, sector 112171688
[3492045.112755] Buffer I/O error on dev sdh1, logical block 14021205, async page read

Dann schaut man ins SMART-Log (das Selftest-Log meldet in gsmartcontrol ebenfalls nen Konsistenzfehler in den Aufzeichnungen, noch nie gesehen)
Code:
Error 49034 [9] occurred at disk power-on lifetime: 243 hours (10 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 06 af 9a a8 40 00  Error: UNC at LBA = 0x06af9aa8 = 112171688

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  25 00 00 00 08 00 00 06 af 9a a8 40 00     00:11:46.952  READ DMA EXT
  2f 00 00 00 01 00 00 00 00 00 00 00 00     00:11:46.951  READ LOG EXT
  25 00 00 00 08 00 00 06 af 9a a0 40 00     00:11:46.937  READ DMA EXT
  b0 00 d5 00 01 00 00 00 c2 4f 00 00 00     00:11:46.936  SMART READ LOG
  25 00 00 00 08 00 00 06 af 9a a0 40 00     00:11:46.925  READ DMA EXT

ddrescue bricht bei genau diesem Sektor (und 31 anderen) bei beliebig vielen Lesevorgängen mit Fehler ab.

Und wenn man sich mit HD Sentinel den Sektor anschaut, bekommt man statt dem Inhalt auch nur eine CRC-Fehlermeldung angezeigt.

Sequentiell mit Randomdaten füllen hat mit 14 MB/s ne Weile gedauert, Leserate liegt danach bei 180 MB/s. Schreibrate (Nullen) jetzt 70 MB/s mit erheblichen Einbrüchen zu Beginn, jetzt ist mit viel GC wohl alles wieder fein (und lesbar). Average erase cycles liegt bei 145, was normiert 100/100 sind, Spare Blocks remaining 100/100 (0 RAW).

Dennoch hat der Sandisk Daten verloren und geht daher in die RMA. Dem vertrau ich genau gar nichts mehr an.
 
Gibt es denn unerwartete Spannungsabfälle? Diese können nicht nur bei HDDs sondern je nach Controller auch bei SSDs (und eben Sticks) zur Folge haben das der Sektoren der dabei gerade geschrieben wurde, dann nicht mehr lesbar ist und damit auch zu Datenverlust führen. Die Samsung T3 und T5 haben ja nicht zufällig recht große Stützkondensatoren auf der Adapterplatine und eine externe SSD scheint mir zu deinen Ansprüchen besser zu passen als jeder Stick.
 
Woher sollen die kommen?

Ich hatte vor dem Kauf auch die Toshiba BG3 auf der Watchlist, aber Verfügbarkeit...meh.
 
Wir sind hier nun schon komplett Off-Topic, aber nur soviel zur BG3: Die ist für OEMs, daher sollte die schlechter Verfügbarkeit nicht wundern und außerdem ist die DRAM less:
Das ist nichts für dich, die performen mies wenn sie nicht nur ganz leer mit Standardbenchmarks gebencht werden:
Das liegt daran das die Controller die Mappingtabelle also den Flash Translation Layer (FTL) und eben nicht Userdaten im DRAM Cache ablegen, also die Information wo die Daten im NAND stehen und wo NAND frei ist um dort schreiben zu können. Die ohne DRAM Cache halten dann immer einen kleinen Teil der Mappingtabelle im interen SRAM des Controller, genug um in den Benchmarks die ja nur über ein oder weniger GB Adressraum benchen, aber im Alltag muss sie dann ständig erstmal wieder den passenden Teil aus dem NAND nachladen, was eben viel länger als ein DRAM Zugriff dauert.

Obendrein gibt Toshiba nur typische Leistungaufnahme 3,2 bzw. 3,3W, nicht aber die maximale Leistungsaufnahme an und die M.2 SSDs brauchen 3,3V. USB liefert aber 5V und wenn das Gehäuse dann keinen Spannungswandler sondern nur eine -regler hat, dann kann sie leicht mehr als die 900mA ziehen die ein USB3 Port nur liefern muss und wenn der Port großzügig ist sondern den Saft abdreht, dann gibt es einen unterwarteten Spannungsabfall für die SSD. Fertig USB SSDs sollten diese Problem nicht haben, da sollte der Hersteller die FW der SSD so anpassen, dass sie nie zu viel Strom ziehen. Nimm die Samsung T5, auch wenn sie nicht so kompakt ist wie die Sticks oder eine Selbstbaulösung mit einer M.2 2230 SSD. Wobei die BG3 ja eine NVMe SSD ist und die paar passenden USB Gehäuse dafür sind meines Wissens alle auf 2280er ausgelegt und damit gar nicht so kompakt.
 
Mir erzählst du da nichts Neues, aber für andere mag es ja interessant sein ;)

Faule Frage: Mit welchen Tools benchen Leute SSDs zu Tode? Ich wüsste gerne, ab welcher Datenmenge bzw. Blockgröße der gute Samsung sich selbst den Knüppel zwischen die Beine wirft. Sequentiell kommt er jedenfalls klar, von den periodischen Einbrüchen mal abgesehen.

Der Screen entstand nach grob 15% Random-Fill mit HD Sentinel, und zwar lückenlos. D.h. HDS schreibt (exklusiv, und mit Ausnahme der ersten und letzten Sektoren, sonst Dateisystem hinüber), AS-SSD lief davor schon mit korrektem Laufwerk, HDS stoppen, Null-Aktivität im Performancemonitor abwarten bzw. Laufwerk im Explorer abpassen, AS anwerfen. Binnen 30 Sekunden zieht sonst der Controller irgendwelche GC-Mechanismen durch und die Leistung steigt wieder - nicht viel, aber man erhält zumindest wieder 4K-Werte im sequentiellen Schreibbenchmark.
Momentan versuche ich die Dokumentation des Verhaltens über Stunden hinweg, denn der Stick hat sich über Nacht von ähnlicher Performance auf Werksniveau (Leserate 240 MB/s, Schreibraten wie oben) erholt. Er hing an nem USB-Port, der über 5VSB gespeist Strom erhält. Wenn das Teil halt anständig Strom ziehen würde und man erkennen könnte, ob der grade heimlich vor sich hin rattert oder nicht...

Momentan würde ich vermuten, dass hier analog zu SSDs ne Art SLC-Cache verwendet wird, und sobald man dessen kritische Größe überschreitet, bricht alles in sich zusammen und der Stick schreibt ganze Blöcke neu, weil er nicht mehr weiß, wohin er es noch cachen soll. So enorm schnell wie das dann geht ist da ganz sicher hochwertigster NAND dahinter ;) Während dieser Schneckenphase ist der Verbrauch übrigens deutlich niedriger als bei typischem schnellen Schreiben, ganz knapp über Idle. Es ist also nicht so, dass hier alle Komponenten im Hintergrund auf volle Kanne laufen. Nun müsste man wissen, ob der Controller deutlich mehr Saft zieht als der NAND, oder umgekehrt. Einer von beiden ist der Flaschenhals, und ich tippe hier auf den NAND (während der sonst verbrauchsstarke Controller sich langweilt und schläft)
 

Anhänge

  • asssd_1d_1830.png
    asssd_1d_1830.png
    28,9 KB · Aufrufe: 411
Zurück
Oben