Test USB-Sticks mit 128 GB im Test

ilovecb, das sehe ich genauso, beides sind ganz verschiedene Anwendungen und stehen daher nicht im Wettbewerb sondern ergänzen sich eher.
 
danke, dass du meine meinung teilst.

im grunde finde ich es erstaunlich, wie lange sich der sandisk extreme am markt so weit oben hält! hab meinen vor 1,5j mit 32gb gekauft und kurz danach einen 64gb stick. laufen bis heute zuverlässig und kopieren auch kleinere dateien so schnell, dass ich es nicht als lästig empfinde beim kopieren zu warten.

usb2 ergibt aus meiner sicht nur noch für anschluss für maus, tastatur u.ä. sinn. alles, was mit größeren datenmengen zu tun hat, nur noch usb3. esata etc leben immer noch ein nischendasein. man könnte es für seine it umgebung einsetzen, aber dann darf man sich nicht beschweren, wenn der nachbar oder freund die technik nicht hat/nutzt.

finde es immer wieder lustig, wenn leute in den roten markt gehen und sich einen großen stick kaufen und nicht auf die reele übertragungsgeschw. achten. dann dauert so ein kopiervorgang schon mal gerne eine halbe stunde und mehr. die zeit wäre mit zu schade. so einen stick nutzt man doch länger und die 20 oder meinetwegen auch 50 eur ersparnis bringen doch keinen weiter.
 
ilovecb schrieb:
esata etc leben immer noch ein nischendasein. man könnte es für seine it umgebung einsetzen, aber dann darf man sich nicht beschweren, wenn der nachbar oder freund die technik nicht hat/nutzt.

Kann ich bis heute nicht verstehen! Ich nutze eSATA seit bestimmt 10 Jahren und finde es einfach super für (3,5") externe HDDs. Ich glaube der Hauptgrund das es keine "eSATA Sticks" gibt bzw. nicht viele ist der Strom. USB liefert halt gleich den Strom mit und für eSATA benötigt man eSATAp was ich auch nicht habe.

In meinem Freundeskreis hat auch nur einer eSATA der es aktiv benutzt alle anderen haben nur USB 2/3 und intern SATA.
 
m grunde finde ich es erstaunlich, wie lange sich der sandisk extreme am markt so weit oben hält!

Das liegt vermutlich daran, dass Sandisk imo die ersten seinerzeit waren, die überhaupt einen SSD-Controller verbaut hatten und der Stick von Beginn an gute - vor allem über einen längeren Zeitraum - Werte abgeliefert hat. Zu der Zeit als der rauskam, war das Gros der 3.0er-Sticks unkalkulierbare Hardware. Wennze Glück hattest, haste nen schnellen erwischt, wenn nicht... Ferner war damals - genau wie heute - das Preis-Leistungsverhältnis unerreicht.

Und offensichtlich ist der Sandisk Billig-Controller immer noch besser und stabiler als alle anderen. Und vielleicht hat Sandisk auch darauf geachtet nicht nur die "Abfall-NANDS" zu verbauen, aber die Frage könnte uns nur Sandisk beantworten.

Wenn ich 3.0er-Sticks testen würde, würde ich darauf bestehen mir aus nem Karton mit 100 Stück 3 Stück meiner Wahl rausnehmen zu können. Dann käme vermutlich einiges ans Tageslicht. :evillol:
 
Zuletzt bearbeitet von einem Moderator:
Man muss bedenken, dass die meisten SSD Controller eine Menge kosten, viel Idle-GC betreiben und daher für USB Sticks nicht so geeignet sind wie dieser altmodische SSD Controller von SanDisk. Der dürfte wenig kosten, ist kompakt, braucht offenbar auch wenig Strom, braucht vor allem auch kein externes Cache RAM und seine Schwäche bei den Randomwerten fällt bei dem Weg über USB, was ja sowieso die Latenz massiv erhöht, nicht so ins Gewicht. Der schafft ja nur so 10MB/s bei 4k Schreiben, morderne SSD teils über 100MB/s, aber das geht nur über den Cache und die erwarten eben vorher über entsprechende Befehle zu erfahren, wann danach der Strom abgedreht wird, was aber über USB meist nicht passieren wird und daher sind die empfindlich und da sie auch viele Verwaltungsdaten für eine Weile im RAM halten bevor sie die mal wieder auf NAND zurückschreiben, sind sie empfindlich auf Stromausfälle, bringen aber viel Performance.

Die SSD Controller stammen ja von den USB Controllern ab und haben die inzwischen sehr viel weiter entwickelt, sich damit aber immer mehr von deren Eigenschaften entfernt und damit auch weniger gut für den Einsatz in USB Sticks geeignet. Außerdem dem Sandforce wird meines Wissens sonst keiner in Sticks verbaut und die Bewertungen der Sticks mit dem Sandforce sind nicht so toll. Das kann an der Qualität der verbauten NANDs liegen, kann aber auch einfach daran liegen, dass der Sandforce nun wirklich viel im Idle arbeitet und jedes Abziehen für den ein Risiko darstellt. Wer seine SSD in einem USB Gehäuse betreibt, der schau mal wie sich die Zahl der Einschaltungen und die der unerwarteten Stromausfällt (POR-Wiederherstellung bei Samsung) entwickelt und wenn die gleichzeitig steigen, denn erfährt der Controller nichts von bevorstehenden Stromausfällen und ist dabei jedes mal in Gefahr. Wie hoch das Risiko konkret ist, hängt natürlich von der jeweiligen SSD ab.
 
oemmes schrieb:
Das liegt vermutlich daran, dass Sandisk imo die ersten seinerzeit waren, die überhaupt einen SSD-Controller verbaut hatten und der Stick von Beginn an gute - vor allem über einen längeren Zeitraum - Werte abgeliefert hat
Bei weitem nicht. Andere Hersteller hatten schon mind. 2 Jahre früher leistungsfähige USB-Sticks mit SATA-Flash Controller im Angebot. Nur hatten die auch entsprechende Preise. SanDisk hatten den ja zu echt humanen Preisen rausgehauen. Der war ja nicht teurer als andere brauchbare Sticks.

Mit die ersten waren wohl 2010 der Supertalent Supercrypt, mit Jmicron JMF612 und der nicht so dolle Mach Extreme FX mit nem Phison 3106. Ersterer war anderen USB-Sticks weit überlegen, aber kostete auch mind. das Doppelte.
Dann hatte Supertalent noch den RC8 mit Sandforce1. War auch weit vor dem Cruzer Extreme.

Aber es komm immer eher simple Controller zum Einsatz, die auch ohne externen DRAM laufen. Dafür ist halt nich so viel Platz.
Ich denke der leistungsfähigste Controller in USB-Sticks ist der Sandforce2 (Mushkin).
 
bensen, es geht nicht nur darum den Platz für das RAM zu sparen. Die modernen Controller ziehen ja einen guten Teil der Performance aus dem großen RAM Cache, wo sie die Verwaltungsdaten, vor allem die Mappingtablle für die LBAs auch Flashadressen ablegen. Daher kommen sie auf so gut 4k Werte, schreibend auch nur, weil die Userdaten eben auch kurz im Cache bleiben. Die anderen, auch der Sandforce haben auch RAM auf dem Die oder im Package integriert, aber eben nicht so viel, weshalb der SF-2xxx bei mehr als 240GB dann auch Performance und vor allem IOPS verliert, da ist der Teil der Mappingtablle die ins RAM passt dann wohl zu klein.

Nur müssen diese Daten, also sowohl die User- wie auch die sich bei jedem Schreibvorgang ändernde Mappingtabelle immer wieder ins NAND geschrieben werden. Macht der Controller das sofort, ist die Randomperformance mies, macht es er später, geht er das Risiko von Datenverlust ein, wenn plötzlich der Strom ausfällt, was gerade bei USB Sticks ja ein recht normaler Vorgang ist, zumal sie offenbar meist eben nicht durch entsprechende Befehle (ATA power mode Kommandos wie STBY, STBI, oder SLEEP) gewarnt werden.

Dazu kommt, dass die modernen Controller halt auch alle eine mehr oder weniger aufwendige Idle-GC haben um eben nicht mit der Zeit an Performance zu verlieren, was beim Controller des Sandisk Extreme durchaus der Fall ist, in ein Beispiel in der U100 die den auch verbaut hat. Der Sandforce ist auch so einer, der braucht sogar sehr lange dafür seine Daten intern zu reorganisieren. Oder denke an SSD mit Pseudo-SLC Modus wie die 840 Evo, die nach dem Schreiben den Inhalt des TurboWrite Caches in die normalen NANDs überträgt, was durchaus so 30s dauern kann, so lange wartet man nicht immer um den Stick oder die SSD im USB Gehäuse nach dem Schreiben abzuziehen. Wenn die Entwickler also nicht höllisch aufpassen, dann gibt es Probleme.

Beispiele für solche Probleme die alle mit plötzlichen Abschalten der Spannungsversorgung entstehen, kennen wir ja genug, SandForce Panik Lock, Intels 8MB Bug oder bei Crucial m4, die über die Power Cycle Methode wiederbelebt werden kann, weil Crucial die LBAs auch in den Pages mit ablegt (Datasafe genannt). Somit lässt sich wenigstens die korrupte Mappingtabelle reparieren oder neu erstellen, die Daten sind dann also nicht zwangsläufig alle verloren wie bei den anderen SSDs. Intes 8MB Bug gab es seid der ersten X25 und die Entwickler hatten für den Controller von Anfang an Stützkonsatoren vorgesehen, diese aber erst der 320er spendiert und dabei offenbar irgendwas falsch gemacht, denn damit kam er häufiger als vorher und das Crucial die LBAs mit den Daten zusammen ablegt ablegt, zeigt dass sie das Problem auch schon früh erkannt haben. Die Stützkondensatoren wird Crucial der m500 auch nur spendiert haben, weil man keine andere Lösung gefunden hat, wie es aber offenbar anderen Herstellern wie Samsung gelungen ist, deren SSDs weniger empfindlich auf Stromausfälle reagieren und trotzdem Spitzenleistung bieten, also den Cache effizient nutzen. Der Sandforce ist übrigens auch auf die Nutzung mit Stützkondensatoren ausgelegt, aber das Feature ist nur bei den Enterprise Versionen aktiviert, die Consumerversionen müssen alle ohne auskommen.

Die einfachen, altmodischen Controller ohne große Caches sind noch näher an den USB Stick Controllern, von denen sie ja im Grund auch abstammen und eignen sich daher einfach besser für USB Sticks, weil sie eben weniger empfindlich sind. Obendrein haben sie meist auch eine geringere Leistungsaufnahme, was in den Sticks ja auch kein Nachteil ist.
 
Das ist ja ne Frage der Firmware.
Hauptgründe sind Platz, Wärme und Kosten.
Der Sandforce2 ist für die USB-Sticks schon wieder viel zu viel. Die werden dann unter Vollast zu heiß, wie man ja bei diversen Produkten sieht.
Und Platz für DRAM hat man nun mal nicht, also muss man zwangsweise ohne auskommen. Ob der nun sinnvoll wäre oder nicht. Die Frage stellt sich erst gar nicht.

Die einfach gestrickten Controller reichen ja auch aus. Das Anwendungsgebiet ist eh meist nen deutlich simpleres, da braucht man keine 8 Channel samt ARM Cortex A9 Dualcore o.ä. verbauen.
 
Es ging mir vor allem darum zu zeigen, dass die modernen SSD Controller ihre gute Performance bei kurzen Zugriffen aus Eigenschaften ziehen, die sie für USB Sticks weniger geeignet machen und natürlich kann man das mehr oder weniger alles in der FW wieder deaktivieren, aber dann ist man bei der Performance auch wieder dort, wo die altmodischen Controller schon waren und nimmt lieber gleich diese, zumal die billiger sind.

Platz für das DRAM könnte man auch im Package des Controller finden, denn nichts anderes dürfte Toshiba bei "seinen" SSD Controllern auch Marvell Basis machen, bei denen ja dann auch kein externer RAM Chip auf der Platine steckt, denn das der Marvell ohne RAM die Performance schafft, kann ich mir ehrlich gesagt kaum vorstellen.
 
Headcool schrieb:
Beim Systemvergleich zwischen PC und Macbook hätte man beim PC im Asus-Treiber den UASP Mode aktivieren können.
Das würde den Benchmark wahrscheinlich stark beeinflussen.

Ich denke es wurde der Standard-Treiber von Microsoft verwendet.
 
Ich habe den Vorgänger des getesteten SanDisk, den Extreme mit 32GB. Frisch formatiert ist er durchaus gut, aber mit der Zeit bricht die Leistung wirklich extremst ein. Dann sind auch mit großen Dateien weniger als 7MB/s Schreibrate angesagt. Ich habe allerdings noch nicht herausgefunden, welcher Nutzungsgrad dafür erreicht sein muss. Einfaches Vollschreiben reicht dafür nicht.

Abhilfe schafft ein Neuformatieren bzw. ggf. ein Secure Erase. Blöd nur, wenn man den Stick verschlüsselt hat. Das muss man dann auch jedes Mal wieder neu einrichten. Ich zögere diesen Punkt schon möglichst weit hinaus, indem ich den Stick nur zum Teil partitioniert habe, aber irgendwann reicht eben auch das nicht mehr.

Von einem zukünftigen Test solcher Hochleistungs-Sticks erhoffe ich mir auch eine Aussage zur Dauerleistung.
 
Das Verhalte ich bei dessen Controller bekannt.
 
Sicherlich, dennoch findet es in keinem Testbericht Erwähnung.
 
Da hast du deine Antwort:

ThommyDD schrieb:
aber mit der Zeit bricht die Leistung wirklich extremst ein.

Computerbase und andere Reviewer haben die Hardware in der Regel nur kurze Zeit (1-2 Wochen). Da kann man nicht erwarten, dass ein Review alles beantworten kann. Da ist man auf Langzeit tests der User angewiesen oder man macht direkt ein langzeittest aber das benötigt halt erst mal die Zeit und ein gutes Verfahren.
 
Sorry, aber ich kann das Testfazit so auch nicht bestätigen. Nie wieder SanDisk bei mir:) Da kauf ich mir lieber zehn "billige" Sticks und werf sie weg, wenn die Transferraten unterirdische Formen annehmen. LG
 
Welchen hast Du denn und was ist da genau passiert? Außerdem sollte klar sein, dass die Sticks die heute verkauft werden, techisch nicht mehr mit den vor 1½ Jahren getestet identisch sein wurden, denn oft werden die NANDs von damals heute nicht einmal mehr gefertigt.
 
Meine Erfahrung mit den SanDisk Extreme ist: Sie haben eine Garbage Collection. Formatieren stellt die ursprüngliche Schreibleistung wieder her, ebenso hilft es, wenn man größere Datenmengen geschrieben und wieder gelöscht hat, den Stick einfach mal am Rechner stecken zu lassen und nicht gleich wieder abzuziehen. Nach einiger Zeit im Idle tut auch dann die Garbage Collection ihre Wirkung.
 
Da ist ja auch ein SSD Controller drin!
 
Zurück
Oben