Performance-Unterschiede zwischen 128GB und GB >= 256GB gerechtfertigt?

T

Tersus

Gast
Guten Morgen,

oft denke ich mir, dass für meine Systeme SSDs in der Größe von 128GB völlig ausreichen. Leider haben diese oft erheblich schlechtere S/L Werte als ihre Modelle mit mehr Speicher.

Z.B. die MX100.

Da kostet die 256GB mit 512MB Cache lediglich ~90€. IOPS 4K l/s: 85k/70k
Die 128GB Variante kommt mit nur 256MB Cache und hat somit nur IOPS 4K von 80k/40k, kostet aber ~60€.

Es lohnt sich überhaupt nicht, das kleinere Modell zu wählen.

Ist das Marketing Strategie oder tatsächlich ein Hardware Problem?
 
Man kann nie genug Speicher haben, nimm einfach die 256GB, die 30€ sind es (mir jedenfalls) wert, dann kannst du auch z.B. ein paar größere Games die du öfters zockst darauf speichern.
 
Aktuell lohnt sich P/L-mäßig nur die 256 GB Variante. Da Du die SSD ja 3-5 Jahre einsetzt ist etwas mehr Kapazität nicht verkehrt. Performanceunterschiede sind für den Heimanwender vernachlässigbar, egal ob 10000 oder 100000 IOps den Unterschied merkst Du subjektiv nicht (Eine Standard HDD hat ca. 70 IOps)
 
Größere SSDs sind i.d.R. schneller, nur wirst Du es in der Praxis nicht merken. Das sind Messergebnisse.
 
speicher ist immer von vorteil
 
Größere Modelle haben gerne mal auch die doppelte/vierfache/achtfache Anzahl an Speicherblöcken von den gleichzeitig gelesen und geschrieben werden kann. Man müsste dann bei einem kleinen Modelle auch kleinere Speicher verbauen um über eine Mehrzahl ähnliche Werte zu erreichen.

Es lohnt sich dann auch nicht eine 64GB SSD für 25,-€ anzubieten weil Controller, Cache, Case, Verpackung, Produktion und Shipping für ein 64GB-Modell nicht günstiger als für ein 1024GB-Modell sind, Flashspeicher ist ja nicht die einzige Komponente, sie wird mit zunehmender Menge nur zum dominierenden Faktor. Ist bei anderen Produkten nicht anders. Irgendwann wird´s nach unten hin einfach unwirtschaftlich.
 
Das die kleinen SSDs langsamer sind als die großen liegt hauptsächlich daran, dass sie weniger Speicherchips verbaut haben. Die Geschwindigkeit einer SSD kommt unter anderem von dem gleichzeitigen Ansprechen der Speicherchips. Wenn weniger vorhanden sind, kann eben weniger parallel gemacht werden. Für SSDs der Größe ~128GB ist es nun mal für den Hersteller preiswerter z.B. 8 x 16GB Chips zu verbauen anstatt 16 x 8GB. Deshalb sind die langsamer als größere.
 
Tersus schrieb:
Da kostet die 256GB mit 512MB Cache lediglich ~90€. IOPS 4K l/s: 85k/70k
Die 128GB Variante kommt mit nur 256MB Cache und hat somit nur IOPS 4K von 80k/40k, kostet aber ~60€.
Vergisss mal den Cache, der spielt für die Performance keine wirkliche Rolle, auch weil da bei SSDs vor allem Verwaltungsdaten drin liegen, vor allem die Mappingtabelle die LBAs auf NANDs Adressen übersetzt. Je mehr Kapazität eine SSD hat, umso größer wird diese Tabelle und umso mehr Cache RAM braucht man also. Die Größe des Cache ist also eine total irrelevante Information um die Performance zu beurteilen, aber das ist bei HDDs mit ihren paar MB Cache ja nicht anders.

Tersus schrieb:
Es lohnt sich überhaupt nicht, das kleinere Modell zu wählen.
Nein, aber vor allem aufgrund des geringen Preisunterschieds.

Tersus schrieb:
Ist das Marketing Strategie oder tatsächlich ein Hardware Problem?
Wie es Arzaiel schon erklärt hat, ist es vor allem ein technisches Problem. Bei der m550 hat Crucial es so gelöst, dass die kleinen Modell mit 128 und 256GB NANDs mit nur 64 Gigabit Diesize haben und nur die großen solche mit 128 Gigabit Diesize, wie die MX100 bei allen Modellen. Das macht die kleinen aber im Verhältnis teurer, denn neben den eigentlichen Speicherzellen ist auch noch einiges an Logik auf einem NAND Die und damit sind zwei Chips mit je 64Gigabit eben auch weit mehr doppelt so groß wie einer mit 128Gigabit. Dafür hat die m550 128GB auch eine viel bessere Performance, weil sie die Zugriffe eben auf mehr Dies verteilen kann, kostet aber auch mehr.
 
Holt schrieb:
eine viel bessere Performance

Die Performance ist total unwichtig, wenn selbst der Hersteller Samsung es 2 Jahre lang nicht merkt, dass seine 840er nur ca. 20MB/s lesend liefern. :lol:

Davon abgesehen, nehme ich meine SSDs 2 Nummern größer in der Hoffnung, dass sie dann bei max. 30% Auslastung im Quais-SLC-Modus laufen und mir so Probleme mit unfähiger Firmware usw. erspart bleiben.

Demnächst werden sich die Rentner ihre Schuhe auch 3 Nummern größer auf Zuwachs kaufen, um sie später als Sarg zu verwenden. :lol: Sonst heißt es doch immer, dass man jetzt möglichst billig kaufen soll, weil es für das ersparte Geld in 2 Jahren noch eine viel größere und billigere SSD gibt - Mösenlogik.
 
Zuletzt bearbeitet:
Dolly6 schrieb:
Die Performance ist total unwichtig, wenn selbst der Hersteller Samsung es 2 Jahre lang nicht merkt, dass seine 840er nur ca. 20MB/s lesend liefern. :lol:
Vor allem wenn es die Kunden jahrlang kaum gemerkt haben :evillol:

Dolly6 schrieb:
Davon abgesehen, nehme ich meine SSDs 2 Nummern größer in der Hoffnung, dass sie dann bei max. 30% Auslastung im Quais-SLC-Modus laufen und mir so Probleme mit unfähiger Firmware usw. erspart bleiben.
Von welcher SSD reden wir? Einen Quais-SLC Modus gibt es nur bei einigen SSD die einen Pseudo-SLC Modus über die ganze Kapazität benutzen (bisher OCZ und Toshiba), aber die kopieren die Daten dann intern auch wieder um und belegen so beide Bits der Zellen. Wenn er viel freien Speicher hat, kann der Controller natürlich immer schnell schreiben (außer den Sandforce, aber ist ein Sonderfall), aber mit Quais-SLC hat das nichts zu tun.
 
Holt schrieb:
Vor allem wenn es die Kunden jahrlang kaum gemerkt haben :evillol:

Und die Kunden erst blond fragen und dann stolz verkünden, dass es bei Amazon 2000 plus super Bewertungen für die Samsung Evo gibt. So viel zu dem Thema Bewertungen und Empfehlungen. Da war doch jemand, der immer...wenn ich mich richtig umgeschaut habe...

Quasi-SLC: Ein halbwegs intelligenter FW-Entwickler würde doch keine fremden Dateien zusammenquetschen, wenn noch genügend Platz ist. Dann werden auch keine Dateien zerstört, die monatelang bereits fehlerfrei auf der SSD waren. Falls Samsung jetzt sein TLC alle paar Wochen um schaufelt, dann könnte das noch lustig werden.

Ich schreibe es mal hier hin...
Was die Kunden (Consumer) auch jemals kaum gemerkt haben:
Unter Profis gibt es den Befehl, besonders auf ältere Daten auf internen und externen Datenträgern zu achten. Ein Backup ist wertlos, wenn es sich nach x Jahren nicht mehr fehlerfrei lesen lässt. Ich kenne kein Backupprogramm für Consumer, das nach dem (Offline-)Restore die Integrität zwischen Image und Restore vergleichen kann. Dafür haben die Profis ZFS oder ReFS, was Microsoft aber vor den Consumern zurückhält. Wenn ich böse denken würde, weil ich vermute, dass MS die SSD-Industrie schonen will. Das Heulen und Fluchen bei den Gamern möchte ich erleben, wenn die merken, was wirklich Sache ist.

Wolfsrabe schrieb:
Die Erklärung erscheint mir plausibel!

Womöglich wurde die Langsamkeit eines Systems von vielen Nutzern oft auch auf ein "zugemülltes Windows" geschoben und es wurde dabei vermutet, daß das selbst eine SSD nicht wettmachen kann. Wenn dann die SSD platt gemacht und Windows neu installiert wurde, gab es ja in dem Moment keine "alten Daten" mehr und das (scheinbare) Problem war vorerst beseitigt.

Aber gut, daß Samsung und uns jetzt bekannt ist, wo der eigentliche Hund begraben lag :)



MS wollte angeblich auch nur noch ECC-Ram haben. Dann hätte die Ram-Industrie aber ihren Schund mit Kühlern und Blingbling nicht mehr verkloppen können. Der Witz ist, kein ECC-Ram braucht beim Consumer wirklich ECC. In dem Ram wird kein Schund verbaut, geht ja nicht, würde jeder merken. Tipp: unter Umständen ECC-Ram auf Boards ohne ECC nehmen. ;)
 
Zuletzt bearbeitet:
Wenn Du auf die Gefahr schlechender Datenkorruption hinaus willst, dann musst Du komplett Enterprise HW nehmen, wenn Du die wirklich minimieren willst, da reicht selbst einfach ECC nicht, es muss schon Adavanced ECC sein und auf jeden Fall eine ordentliche Enterprise SSD mit geschützten Datenpfaden, damit dort auch nicht unbemerkt ein Bit kippen kann. Dagegen sind die Risiken eines Bitfehlers bei SSDs minimal, zumal alle ordentlichen Controller die Daten auch irgendwann sowieso umkopieren, wegen dem Wear Leveling und weil die Ladung auch beim Lesen der Daten abnehmen kann. Dank der ECC die alle HDDs und SSDs über die Daten auf dem Medium haben, sind Bitfehler gerade bei SSDs nicht so das Problem, zumindest solange diese noch innerhalb der spezifizierten P/E Zyklen sind, dann solange kommen die praktisch nicht vor, außer man hat minderwertige NANDs für die der SSD Hersteller mehr Zyklen vorlügt als der NAND Anbieter angibt.

Hier beispielhaft der Verlauf der UBER (unkorrigierbare Bitfehler) bei einer HDD und einer SSD:
UBER_HDD-SSD.png
 
Zurück
Oben