SSD mind. 10% Frei, sonst langsam

Eine SSD von Samsung arbeiten vermutlich, wie schon von mir erwähnt, ab Werk mit einem voreingestellten Over-Provisioning Bereich (spare area, um das zu OP zu kennzeichnen). Wie groß der spare Bereich ist, weiß ich nicht, auch erwähnt, dazu müsste ich vielleicht die SSD öffnen oder länger recherchieren (ich nahm 10% an). Das hat auch nicht mit der Umrechnung 0,9315 GiB/GB * "Verkaufsgröße in GB" zu tun, es ist einfach ein spare Bereich ab Werk vorhanden, den man nie sieht.

Nichts, aber auch gar nichts hält mich davon ab der Empfehlung von Samsung, dem Hersteller, zu folgen und weitere 10% OP einzurichten.
Wenn es am Geld mangelt, um mir eine anständige SSD mit genügend Platz zu kaufen, dann sollte ich es gleich bleiben lassen.

Die absolute Aussage es sei völliger Schwachsinn (weiteren) OP-Bereich einzurichten ist gelinde gesagt ein lapidares Geschwätz ohne Hintergrund, welches sogar weitere User hier unterstützen :rolleyes: .

Nachtrag:
Ich komme wenigstens mit Quellen.
Hier lese ich nichts von ABSOLUTEN Angaben oder völliger Schwachsinn, eher von kann:
... Das sogenannte Over-Provisioning, also das Schaffen einer noch größeren Reserve an freien Flash-Speicherzellen, kann unter gewissen Umständen und je nach Nutzungsweise die Geschwindigkeit der SSD beim Schreiben verbessern, auf die Geschwindigkeit beim Lesen wirkt sich die Reserve jedoch nicht aus.
https://www.heise.de/ct/hotline/SSD-Reserve-richtig-einrichten-1378504.html

Und wie schon erwähnt, es ist nichts in Stein gemeißelt, schon gar nicht in der IT ... ;)
 
Zuletzt bearbeitet:
Samsung.. das sind doch auch die, die in ihrer Software diesen komischen Turbomodus anbieten der außer Benchmarkoptimierung einem nu Ärger einhandelt, oder? ;-)

Und ich sage ja nicht das man keinen Platz auf der SSD frei lasen sollte, sondern nur das es unnötig ist diesen unpartitioniert zu lassen. Die SSD selbst kennt keine Partitionen da sie sich nicht für den tatsächlichen Inhalt der Zellen interessiert. Sie unterscheidet nur zwischen beschriebenen und freien Blöcken. Und da gibt es auch keinen festen Pool denn da die Zellen gleichmäßig benutzt (und damit abgenutzt) werden sollten wird da eh dauernd rotiert.
 
Für das Filesystem gilt: sinkt der freie Speicher auf 0 reduziert sich der Datendurchsatz um die Hälfte.

In order for the layout policies to be effective, a file system cannot be kept completely full. For each file system there is a parameter, termed the free space reserve, that gives the minimum acceptable percentage of file system blocks that should be free. If the number of free blocks falls to zero, the file system throughput tends to be cut in half, because of the inability of the file system to localize blocks in a file.

http://docs.freebsd.org/44doc/smm/05.fastfs/paper.pdf
 
Bei Linux kann ein normaler User nur 90% der Filesystems belegen, die letzten 10% gehen nur mit Root-Rechten, was auch einen guten Grund hat, denn ein zu volles Filesystem macht ggf. nicht nur für die Performance Problem.

Es ist auch bei bestimmten Anwendungen durchaus sinnvoll einer SSD mehr OP zu gönnen als der Hersteller ab Werk vorgesehen hat, wie man an den Performance Consistency in Anandtechs SSDs Reviews sehen kann, die teils ohne extra OP und mit 25% extra OP ausgeführt wurden. Gerade bei Samsung SSDs und dort selbst für die 850 Evo 4TB die ja ab Werk schon viel Free Area hat, macht dies dann einen gewaltigen Unterschied bei der Steady State Schreibperformance:





Besser zu sehen an den Werten nachdem der Steady State erreicht wurde, z.B. bei der 850 Evo 500GB:




Aber auch dies hängt von der jeweiligen SSD ab, bei der BX100 ist der Unterschied z.B. längst nicht so groß:




Außerdem ist es für Heimanwender eigentlich egal, da diese die SSDs kaum je in den Steady State bekommen werden, Enterprise Anwender bei bestimmten Anwendungen dagegen schon und daher haben die Enterprise SSDs dann auch ab Werk teils sehr viel mehr OP und erst recht je mehr DWPD spezifiziert sind, da die Schreibperformance ja auch in der Write Amplification zusammen hängt, je besser die Schreibperformance ist, umso geringer ist die Write Amplification die dabei auftritt. Intern lassen sich die NANDs ja immer gleich schnell beschrieben, nur wenn ein großer Teil der Daten die in die NANDs geschrieben werden eben nicht die Daten sind die vom Host kommen, sondern Daten aus anderen NAND Blöcken die umkopiert werden müssen um diese löschen zu können, dann fällt die Schreibperformance des Hosts mies und die WA hoch aus.

Aber Haltbarkeit haben die Consumer SSDs bei normalen Heimanwendungen mehr als genug und wenn die SSD getrimmt wird, ist es auch egal ob die zusätzliche Free Area nun als freier Platz auf der Partition oder als ein unpartitionierter Bereich vorhanden ist. Wenn TrimCheck also bestätigt das TRIM funktioniert, dann würde ich statt eines unpartitionierten Bereiches einfach nur dafür sorgen das die Partition nie zu voll wird, wobei es reicht mal aufzuräumen wenn der Balken für eine Partition im Explorer rot wird und dies gilt besonders für C:, da Windows sonst Probleme bekommen kann, wenn seine Systempartition zu voll ist, weil z.B. kein Platz für Updates mehr vorhanden ist. Auf alten Systemen wo kein TRIM geht, kann es nicht schaden so 10% der SSD von Anfang an bzw. nach einem Secure Erase dann unpartitioniert zu lassen, damit nie darauf geschrieben werden kann, denn wenn TRIM nicht funktioniert werden alle Daten solange vom Controller als gültig betrachtet, bis der LBA dem sie zugeordnet sind, überschrieben wurde. Damit kann dann die SSD aus Sicht des Controller nur immer voller werden, nie leerer wie es eben mit TRIM durch das Trimmen von Bereichen möglich ist. Dann bleibt nur ein Secure Erase um dann gleich alle Daten für ungültig zu erklären und löschen zu lassen.
 
Zurück
Oben