SSD Over-Provisioning sinnvoll?

Incanus schrieb:
[OT]Nicht die Absolution, sondern den Ablass gab es dort früher gegen Geld ;).[/OT]
Klar, die Ablassbriefe. Aber beides geht doch irgendwie Hand-in-Hand.

Rickmer schrieb:
Kurz und knackig: ... Wenn du mehr brauchst, hast du die falsche SSD gekauft.
Kannst Du ebenso kurz und knackig wiedergeben, wann ich was brauche?
 
Interessantes Thema !
Samsung Magician behauptet ja Vorteile in Geschwindigkeit und Lebensdauer.
Tests dazu sind mir aber unbekannt.
Hatte selber letztes Jahr getestet mit einer 2TB Samsung 970 EvoPlus nvme PCIe 3:
Mit OP: 6481
Ohne OP: 6550
Ohne OP waren die Datenraten minimalst besser oder lagen in der Messtoleranz.

Meine Downloads und Dokumente lasse ich eine billige 1TB Sata SSD laufen.
Das Systemlaufwerk mit 2TB Samsung 970 EvoPlus hat bei über 200 Betriebsstunden erst 2.4TB Schreibvorgänge geleistet.
Daher hab ich die OP auch wieder abgeschaltet.

Noch eine Spezialfrage in die Runde:
Kann clonezilla durch so einen OP Probleme bekommen ?
Ich sichere meine Laufwerke mit clonezilla.
Imageprüfung hatte Sektorfehler gezeigt.
Habe zwar schon gegoogelt aber nix gefunden.
 
MORPEUS schrieb:
Kannst Du ebenso kurz und knackig wiedergeben, wann ich was brauche?
Die aus dem ersten Post wird's als 'typische System-SSD' prima tun. Auch wenn die TBW vom Hersteller für eine 2TB SSD sehr gering ist (nach Blick in die Notizen bei Geizhals kommt da der Verdacht auf QLC-Speicher auf) - so viel schreibt ein Windows oder Linux nicht auf die C-Platte.

Wenn du etwas höhere Ansprüche hast, würde sich z.B. eine Samsung SSD 970 EVO Plus 2TB anbieten. Bessere read/write Performance, deutlich höhere TBW. Kostet halt auch was mehr. Fürn stinknormales Windows aber eigentlich nicht nötig.
 
MORPEUS schrieb:
Nicht direkt. Vor ca. 10 Jahren war Over-Provisioning noch ganz normal. Aufgrund meiner aktuellen Neuanschaffung wollte ich wissen ob das immer noch so ist, oder ob sich die Technik weiterentwickelt hat.
Die SSD von vor 10 Jahren laufen heute noch 1A, das war aber damals schon mehr ein reines "Angstthema", die SSD bloß nicht zu belasten.

Als ein 0815 Systemlaufwerk brauchst du dir bei einer SSD 0,nichts Gedanken machen. Einfach nutzen und gut.

Die einzigen Szenarien, die die SSDs schnell zu Tode führen sind andauerndes beschreiben tagein tagaus ohne Unterbrechung mit womöglich noch höchstmöglicher Datenrate (oder so ähnlich). Das ist aber kein normales Nutzungsszenario.
Einen Ausfall, weil irgendwas kaputt geht kann man an sich immer mal haben, am meisten sterben aber wohl die Controller statt des Flash speichers.
Die damalige "Hysterie" und daraus folgende übervorsicht resultiert auch aus den Erfahrungen mit den 0815 USB Sticks, die doch ziemlich anders funktionieren und schon ab Design als wegwerfware gebaut sind.
 
MORPEUS schrieb:
Nicht direkt. Vor ca. 10 Jahren war Over-Provisioning noch ganz normal. :D
Ist dahingeschieden über die letzten 10 Jahre, nachdem fast niemandem die SSD weggestorben ist^^
Ich hab noch SSDs von 2007 (SLC) in Betrieb in meinem Retro-Rechner.
 
  • Gefällt mir
Reaktionen: NerdmitHerz
Teckler schrieb:
Samsung Magician behauptet ja Vorteile in Geschwindigkeit und Lebensdauer.
Tests dazu sind mir aber unbekannt.
Hatte selber letztes Jahr getestet mit einer 2TB Samsung 970 EvoPlus nvme PCIe 3:
Mit OP: 6481
Ohne OP: 6550
Ohne OP waren die Datenraten minimalst besser oder lagen in der Messtoleranz.
Das bezieht sich nicht auf Maximaldatenraten sondern darauf, dass hohe Datenraten öfter erreicht werden.
Mehr Overprovisioning bedeutet, dass potentiell mehr freie Speicherzellen vorhanden sind und damit die FW seltener die Daten beim Schreiben umkopieren muss. Aber, das betrifft das Schreiben, beim Lesen hat Overprovisioning exakt 0 Auswirkung.

madmax2010 schrieb:
Unpartitioniert ist aber nie sinnvoll.. Der leere bereich einer partition ist ja trotzdem leer
Da muss man ein wenig aufpassen. Wenn man ein Dateisystem erstellt und es vorinitialisiert mit 0 (gibt manche Programme die das machen) dann hat rein gar nichts gewonnen, da dann die komplette Partition aus SSD Sicht beschrieben ist, auch wenn keine Nutzdaten drauf sind. Wenn man wirklich noch extra Overprovisioning hinzufügen will, dann am besten im Auslieferungszustand Bereiche nicht partitionieren oder zumindest darauf achten, dass der vorgesehene Bereich zumindest mal getrimmt wurde, damit die SSD weiß das die Flashzellen als gelöscht zu betrachten sind.

Rickmer schrieb:
Der Hersteller verkauft die SSD mit so viel Overprovisioning, wie er für ihren angedachten Verwendungszweck vonnöten hält. Wenn du mehr brauchst, hast du die falsche SSD gekauft.
MORPEUS schrieb:
Kannst Du ebenso kurz und knackig wiedergeben, wann ich was brauche?
Da du nicht weißt ob du extra Overprovisioning brauchst, brauchst du es auch nicht. Consumer SSDs sind für Consumer Workloads ausgelegt.
 
HisN schrieb:
Ich hab noch SSDs von 2007 (SLC) in Betrieb in meinem Retro-Rechner.
Willkommen im Club :daumen: Habe noch zwei Mtron 7500Pro mit je 32GB (14 Jahre alt), kürzlich eine Crucial C300 128GB vererbt (12 Jahre alt, Topform) und eine Samsung 830 256GB immernoch in aktiver Nutzung (10,5 Jahre alt, immer noch bei 96%). Die ganzen Tricks zur Schonung, die ich teilweise/zeitlang benutzt habe, waren mehr oder weniger unnötig.
 
  • Gefällt mir
Reaktionen: madmax2010 und HisN
Chuuei schrieb:
Da du nicht weißt ob du extra Overprovisioning brauchst, brauchst du es auch nicht.
Lieber Chuuei, (wie weiter oben schon umschrieben) nur weil ich nicht hier mein (halb-)Wissen als gottgegebene Erleuchtung verkaufe (wie es manche im Forum tun), heißt das nicht dass ich keine Ahnung habe. Wie gesagt, ich stelle mich absichtlich "unwissend" um unvoreingenommene Antworten zu erhalten.

Deine/Diese leicht überheblich Formulierung impliziert, dass Du und Rickmer euch bestens auskennt. Wenn schon nicht für mich, dann macht doch bitte für die Nachwelt eine kurz und knackige Auflistung wann man was braucht.
 
  • Gefällt mir
Reaktionen: plato333
Die Antworten hast du doch alle erhalten.

Siehe z.B. #13 wo Rickmer verschiedene Mengen von Overprovisioning auflistet inklusive deren Einsatzgebiet. Was fehlt dir um zu schlussfolgern: "meine 2 TB SSD entspricht vom OP der 1 TB aus dem Beispiel, ich nutz die nur als stinknormale Systemplatte, also brauch ich nicht das größere Overprovising der Enterprise Beispiele, ergo reicht das was ich habe vollkommen aus"?
 
In Post #13 wird werksseitig vorhandenes Over-Provisioning dargestellt. Zusammenfassend kann man sagen, dass zusätzliches Over-Provisioning durch den User, nicht bzw. nie, nötig war - außer man hat die völlig falsche SSD gekauft.
 
Korrekt. Und ob rein werkseitig oder vom User unterstützt macht keinen Unterschied beim Overprovisioning.

Selbst "damals" also es noch nicht durchgehend Trim & Co gab, war vom User bereitgestelltes OP eher aus der Befürchtung entstanden das die Lebensdauer nicht ausreicht und nicht aus wirklich praktischen Problemen. Auch wenn natürlich die Hersteller in den Anfangstagen auch noch nicht das Wissen hatten wie sie es heute haben. Aber das Thema Lebenszeitprojektion ist gut verstanden und man kann sich schon drauf verlassen was die Hersteller veranschlagen.
 
Wie funktioniert denn nun Over Provisioning ?
Einer sagt, dass die Controller dass „intern“ machen, soll wohl heißen für den User transparent und ohne zutun. Andere und auch die entsprechenden Programme der Hersteller schlagen vor eine leere Position anzulegen und die als over Provisioning zu deklarieren. Warum gibt es in fast allen Service Programmen für SSDs ( sie unterstützen auch Festplatten, aber haben eigentlich nur nutzen für SSDs) der entsprechenden Hersteller den Punkt OP?
Wenn alle modernen SSDs ist das doch intern machen, wozu denn diese Service Programme ?
also, ich vertraue da lieber dem Hersteller und mache es so wie vorgeschlagen und lasse eine leere Partition, die ich für OP definiere.
Oder hat jemand aktuelle Links zu Tests?
 
Andyw1228 schrieb:
jemand aktuelle Links zu Tests?
Es gibt nichts aktuelles, weil die ganze Überprovisionierung für 99,9% der User überflüssig ist. Du kannst auch nichts "deklarieren", für den Controller existieren nur leere und belegte Zellen. Auch "Herstellertools" machen nichts anderes, wie die aktive Partition entsprechend zu verkleinern. Da wird auch keine "leere Partition" angelegt, sondern einfach unpartitionierte Platz frei gelassen. Jedoch hat sich folgendes Vorgehen als viel sinnvoller heraus gestellt: einfach über 100% partitionieren, dann aber selbst darauf achten, dass auf der SSD ca. 10% (plus minus 3%) immer frei bleibt. Für SLC/MLC evtl. etwas weniger ausreichend, für QLC gerne auch auf 15-20% erhöhen. Falls das Betriebssystem drauf läuft gerne +5% zu allen Empfehlungen dazu addieren. Hingegen eine externe SSD, mit der Du die Daten lediglich von A nach B transportierst, kann gerne kurzzeitig auch zu 100% vollgemacht werden - das soll nur kein Dauerzustand bei einer aktiv benutzten SSD werden!
 
  • Gefällt mir
Reaktionen: madmax2010
massaker schrieb:
Jedoch hat sich folgendes Vorgehen als viel sinnvoller heraus gestellt: einfach über 100% partitionieren, dann aber selbst darauf achten, dass auf der SSD ca. 10% (plus minus 3%) immer frei bleibt. Für SLC/MLC evtl. etwas weniger ausreichend, für QLC gerne auch auf 15-20% erhöhen. Falls das Betriebssystem drauf läuft gerne +5% zu allen Empfehlungen dazu addieren.
Klingt im Endeffekt genau wie Overprovisioning.

Overprovisioning kann man machen, bringt wahrscheinlich nichts.
Das weiß ich in 4 Jahren, wenn der Kasten in Rente geht.
 
Darf ich mal einen anderen Ansatz probieren?

Ich sehe folgendes Ziel für uns alle: Ein sicheres Speichermedium.
Was wir nicht haben: Einblick in den technischen Bereich bei Samsung und Co.
Was wir haben: Erfahrungen, daraus Theorien, somit keine 100% sichere Lösung.

Daraus ergibt sich folgende Vorgehensweise:
  • SSD nie zu klein wählen
    (Wer mehr als 60% durchweg nutzt, sollte zum nächst größeren Modell greifen)
  • 3% der SSD unpartitioniert lassen
    (bei z.B. einer 1TB einfach 30GB frei lassen)
Beides zu befolgen tut in der Regel nicht wirklich weh.

Es deckt aber alle Theorien ab und erhöht die Chance auf ein langlebiges Speichermedium. Und das ist doch das, was doch alle am Ende wollen.
 
  • Gefällt mir
Reaktionen: KARL23
Keine Ahnung wie Du jetzt auf die Werte kommst. Der Konsens im Thread war doch, das Over-Provisioning unnötig war und ist.

Auch ich habe jahrelang eine 256er Samsung 850 Evo als Mädchen für alles mit im Schnitt nur zwischen 10 und 20 % freien Platz betrieben. Nach ihren 30.000 bis 40.000 Betriebsstunden verrichtet sie künftig ihren Dienst weiter in einem Laptop. Alles kein Problem. Warum sollte ich also unnötigerweise eine doppelt so große/teurere SSD kaufen und zusätzlich noch 3% unpartitioniert lassen?

Wie viele SSD hast Du bei normaler Anwendung schon totgeschrieben um auf diese Werte zu kommen?
 
MORPEUS schrieb:
ich habe jahrelang eine 256er Samsung 850 Evo als Mädchen für alles
Das ist deine und eine einzelne Erfahrung. Dies kann man nicht auf alle SSDs aller Hersteller 1:1 übertragen.
MORPEUS schrieb:
Konsens im Thread war doch, das Over-Provisioning unnötig war und ist
Ein Konsens muss nicht unbedingt richtige Lösung sein. Auch geht es nicht um einen Konsens, sondern um eine praktische und logische Lösung.

Das Ziel ist ein sicheres, stabiles Speichermedium.

Lösung A: kein Over-Provisioning
Lösung B: Over-Provisioning

Lösung A kann richtig sein. Aber was, wenn nicht?

Was kostet uns Lösung B? In meinem Vorschlag 3%, sprich bei 1TB nur 30GB, die ich nicht nutzen kann.

Sind die entgangenen 30GB mir wirklich wichtig? Nein, weil ich die SSD sowieso nie knackevoll mache.

Was ist mit Lösung B? Nachteile? Nein.
Warum sollte man Lösung A favorisieren, wenn Lösung B sicherer ist und so gut wie nichts kostet?

Und nicht vergessen: Ziel ist es, ein sicheres stabiles Speichermedium zu haben.
 
Markus.Tenne schrieb:
Das ist deine und eine einzelne Erfahrung.
Zumindest habe ich eine. Andere wie im Thread zu lesen auch. Nur Du scheinbar nicht, da Du nicht auf meine Frage geantwortet hast.

Dein Schreib- und Argumentationsstil kommt mir bekannt vor. Meine (BWL)-Studenten theoretisieren gerne auch so geschwollen umher. (Bist Du einer?) Bis sie im Berufsalltag die Realität trifft und auf den Boden der Tatsachen bringt. Nämlich dass vielem mit Logik nicht beizukommen ist.
Übrigens Dein Schulbuch-Lösungsweg hat einen elementaren Fehler:
Markus.Tenne schrieb:
Auch geht es nicht um einen Konsens, sondern um eine praktische und logische Lösung.
Du suchst eine "Lösung" für ein Problem was nicht vorhanden ist.

Um aber mal zu einem Ende zu kommen. Ein "sicheres stabiles Speichermedium" gibt es nicht. Bei bestimmungsgemäßen Gebrauch schreibst Du eine SSDs nicht zu tode. Wenn versterben 99,9% an etwas anderem. Controller-Ausfall zum Beispiel.

@Chuuei hat es eigentlich ganz gut auf den Punkt gebracht:
Chuuei schrieb:
Selbst "damals" also es noch nicht durchgehend Trim & Co gab, war vom User bereitgestelltes OP eher aus der Befürchtung entstanden das die Lebensdauer nicht ausreicht und nicht aus wirklich praktischen Problemen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: massaker
Ich hoffe der Ersteller des Threads ist mir nicht böse, wenn ich hier eine Frage anschließe. Einen eigenen Thread wollte ich jetzt nicht aufmachen, wo gerade dieser Thread zu OP auf Seite #1 ist.

Mir geht es weniger um den Sinn von OP, sondern um die Art und Weise der Handhabung.

Konkret: Ich habe dieser Tage gerade eine Samsung 860 EVO SATA mit 4TB ausrangiert und durch eine Kingston KC3000 NVMe mit 4TB ersetzt.
Bei Samsung hielt und halte ich mich immer brav an die Herstellervorgabe per Samsung Magician und richte 10% für OP ein.
Dieser Speicher ist dann aber auch echt "futsch". Das tut gerade beim 4TB Modell schon ein wenig weh, wenn dann mal eben ca. 400GB nicht mehr effektiv nutzbar sind.

Beim Ausbau meiner 860 EVO hatte ich noch ca. 180GB freien Speicherplatz. Bei der Kingston KC3000 habe ich dagegen nun mit den exakt selben Daten ca. 630GB frei.
Im Kingston Storage Manager (= Kingston's "Magician") kann man manuell kein OP einstellen. Google hat mir verraten, dass das bei der KC3000 alles vollautomatisch flutscht. Die OP-NAND Reserve ist vorhanden, aber nicht sichtbar oder einstellbar.

Daher meine Frage: Ist es tatsächlich so, dass Kingston beim NAND großzügiger ist und den (nicht sichtbaren) OP-NAND quasi dem Kunden "schenkt", damit die Kapazität nicht darunter leidet, während Samsung eher "geizig" sind und dem Kunden -wenn man sich an die Magician-Empfehlung hält- die 10% vom sichtbaren und nutzbaren NAND abziehen?
 
MORPEUS schrieb:
Du scheinbar nicht, da Du nicht auf meine Frage geantwortet hast
Eine Antwort auf deine Frage(n) war grundsätzlich nicht nötig, da ich einen anderen Ansatz bei der Frage nach: "OP oder kein OP...?" verfolgt habe.

Ich will dir aber nichts vorenthalten: Ich habe schon SSDs lange vor deiner 850er gekauft. Damals noch direkt aus Asien. Vor kurzen fiel mir in meiner Altbestandsbastelkiste noch meine uralte Mtron (32GB 1,8" ZIF, f. Subnotebook) in die Hände. Die muss aus 2007 oder 2008 gewesen sein, sprich über 15 Jahre.
MORPEUS schrieb:
theoretisieren gerne auch so geschwollen umher
Wenn du keine Argumente mehr hast, fängst du also an zu beleidigen, sowie persönlich zu werden. Das ist schlicht und einfach respektlos, vergiftet eine Diskussion und führt nur dazu, dass man dich nicht ernst nimmt.
MORPEUS schrieb:
Du suchst eine "Lösung" für ein Problem was nicht vorhanden ist.
Ich habe gehofft, dass meine einfach gehaltene Logik für dich verständlich ist. Da lag ich wohl falsch.
Aber ok, du nimmst Lösung A. Das brauchst du nicht zu begründen.
 
  • Gefällt mir
Reaktionen: TomH22
Zurück
Oben