News Samsung-SSDs: 4 TB für 850 Evo und 850 Pro ab dem Sommer

Koto schrieb:
Die frage ist. Von welchen Zeiträumen reden wir. Mehr als ein Menschenalter?
Ich denke es reicht ja wenn einen die Daten überleben. :-)

Zunächst einmal wäre es gut, wenn das Zitat zu kürzen. Solche Volltext-Zitierungen mag man hier nicht.

Und nein, die Zeiträume sind deutlich kürzer:

  • Schlecht gebrannte optische Medien können schon nach wenigen Wochen unlesbar werden. Daher sollte man hier auf Qualität der Medien achten, womit die Lagerdauer auf mehr als ein Jahrzehnt ansteigt. Wer noch länger lagern möchte, sollte (komischerweise ausgerechnet) DVD-RAM nehmen, wo die Medien über Servo-Markierungen verfügen. Es gibt auch spezielle Archivierungsmedien wie die M-Disc, die dann wirklich lange halten.
  • Die Magnetisierung bei Festplatten kann schon nach etwa einem Jahrzehnt zum Problem werden. Es werden Angaben von 10-20 Jahren gehandelt. Wie bei all solchen Fristen sollte man sie aber eben nicht ausreizen, wenn die Daten wirklich wichtig sind. Daher sollten Festplatten alle drei bis fünf Jahre umkopiert werden.
  • Ein Problem von Festplatten hatte ich bisher vergessen. Es gibt auch welche, bei denen die Motoren Flüssiglager haben. Diese sind meist ölbasiert und das kann dann bei Lagerung in wenigen Jahren verharzen. Die Platte läuft dann nicht mehr an. Das Thema kenne ich noch von einer alten Maxtor. Die hat dann (kein Witz) aus einem eingebauten Piezo-Piepser eine Melodie gespielt und die Daten wurden (auch kein Witz) gerettet, indem man einige Male beherzt auf die Mitte des Plattengehäuses gehämmert hat. Damit lief das Gerät dann an und konnte vor seinem nahenden Tod noch einmalig Daten liefern.
  • Das Problem des Ladungsträgerverlusts ist ebenfalls sehr real. Der Umstand, dass die Samsung-Firmware dann nur mit verminderter Geschwindigkeit an die Daten heran kommt, zeigt das ja. Bisher kann aber noch niemand sagen, nach wie langer Lagerung Zellen tatsächlich nicht mehr auslesbar sind.
 
Precide schrieb:
Kann alles gar nicht schnell genug gehen. Dieses Jahr will ich endlich 1TB für 100€.


Kinder die was wollen... :rolleyes:
Guck mal so in 3 Jahren noch mal nach.

4TB sind schon sehr fein, wurde auch langsam Zeit. Damit ist man den 2,5" Platten einen kleinen Schritt vorraus.
Der Schritt auf 1TB war quälend lang und dann im Jahresrhytmus 2TB und 4TB sind schon phantastisch.
 
Wie sieht das dann mit einer aktiv genutzten SSD aus?
Also ich installieren mir zu T=0 auf einer neuen SSD ein Betriebssystem. Diese Daten werden einmal beschrieben
und viele davon wahrscheinlich nicht mehr ersetzt, selbst durch Updates nicht. Nur noch gelesen.

Wenn ich diese SSD jetzt lange nutze, kann es auch hier zu Datenverlusten kommen?
Also im Szenario ich nutze die SSD ganz normal im täglichen Betrieb.
 
Schön zu sehen, dass es langsam weitergeht mit der Speicherkapazität bei SSD's. Leider sind die SATA SSD's ja mittlerweile auch schon wieder mehr oder weniger veraltet, zumindest sollte meine nächste SSD PCIe / NVMe beherrschen. Für ein leises NAS System bzw. als Ersatz alter HDD's aber sicherlich nett :)
 
Zuletzt bearbeitet:
RipperJoe schrieb:
Ich denke die wird preislich die jetzige 2 TB ablösen.
Irgendwann ja, aber wenn sie raus kommt, wird sie nicht weniger als doppelt so viel wie eine 2TB kosten.
RipperJoe schrieb:
Und die 120 GB werden so langsam verschwinden.
Das steht ja in der News, zumindest der von thessdreview, dass die 858 Evo 120GB verschwinden und dafür die 750 in 120GB und 250GB kommen wird.

boncha schrieb:
Gibt es eigentlich verlässliche Langzeittests zur Zuverlässigkeit von SSDs als Datengrab?
Dafür sind die zu teuer und NANDs in normalen SSDs nicht gemacht. Die Consumer SSDs müssen laut der JESD218 bei 30°C bis Erreichen der spezifizierten P/E Zyklen 12 Monate halten, wenn die NANDs im Betrieb 40°C warm waren. Je wärmer es ist, umso weniger leiden die NANDs beim Schreiben und Löschen der Daten.

jedec_data_retention-jpg.332553


Je 10°C (andere Quellen nennen auch nur je 5°C) halbiert sich die Data-Retention-Time. Bei neuen NANDs war mal früher von 10 Jahren DRT die Rede, ob es noch stimmt, keine Ahnung. Es gibt von Spansion auch NANDs mit SLC 1.000.000 P/E Zyklen, MLC mit 100.000 Zyklen und 20 Jahren DRT im Neuzustand, 10 Jahren nach 1000 Zyklen und einem Jahr nach 10.000 Zyklen, die sind z.B. für die Automobilindustrie, denn das müssen die Daten in Steuergeräten ja länger als üblich halten und auch das teils unter sehr harten Bedinungen.
boncha schrieb:
Ich habe gehört, SSDs sollen sich nicht wirklich zur langen Speicherung von Daten eignen.
Ist da was dran?
Ja, aber HDDs die 10 Jahre nur Schrank lagen, werden oft auch nicht mehr funktionieren. Lagzeitdatenspeicherung ist ein echtes Problem und für Heimanwender ist der beste Weg die Daten regelmäßig auf andere, aktuellere Medium umzukopieren, Mehrfachhaltung (also mindestens ein Backup) ist sowieso Pflicht und ebenso das regelmäßige Prüfen der Backups.

Nixdorf schrieb:
aber maximal 1TB und theoretisch thermische Probleme mit der 950 Pro.
Da sit man schon länger! Während Crucial der m4 nicht einmal einen Temperatursensor spendiert hatte, bekam deren Nachfolger m500 schon die thermische Throttelung verpasst. Das ist aber bei den 2.5" SATA SSDs wegen des Limits durch das Interface, es müsse ja nie so viele NAND Dies parallel angesprochen werden und der großen Oberfläche (die habe ja schon länger meist Pads auf dem Controller und teils auch den NANDs) weniger aufgefallen. Bei der 950 Pro gibt es auch keine Probleme, wenn sie einen kühlenden Luftstrom hat, so wie es bei meiner 950 Pro 512GB der Fall ist. Die wird auch bei Dauerschreibstress nicht zu warm.

Nixdorf schrieb:
Irgendwie wird es Zeit für eine "1050 Pro U.2", im 2,5" Gehäuse, aber dafür mit U.2-Anschluss und bitte Kühlpads im Gehäuse wegen der hohen Geschwidigkeiten.
Ja, das wäre die bessere Wahl für Desktops, auch wenn manche nur deswegen mSATA und M.2 SSDs wollen, weil sie sich zwei Kabel sparen und es besser aussieht, aber die müssen dann eben bei hoher Dauerlast Kompromisse bei der Performance machen, man kann eben nicht alles haben :evillol:

Nixdorf schrieb:
Wahlweise können sie auch eine "1050 Pro PICe" anbieten, die dann ähnlich der Plextor-SSD M.2 im PCIe-Steckplatz ab Werk bietet, dann gleich mit zwei M.2-Modulen und natürlich einem Kühlblech.
Dann lieber einen Adpater für PCIe Slot auf U.2 mit Montageplatz für eine 2.5" U.2 SSD. Denn man kann zwei PCIe SSDs nicht einfach in einem Slot betreiben, der muss dafür vorbereitet sein zwei Geräte betreiben und das sind die gerade bei Consumer-PC eigentlich nie, also muss man einen PLX Chip verbauen, aber die kosten einiges.

Nixdorf schrieb:
Ach ja, und in der nächsten Mainboard-Generation dürfen die Hersteller dann SATA Express ersatzlos streichen und dafür U.2-Anschlüsse auf breiter Front einführen.
Das hoffe ich mal sehr, es wäre gut wenn die SSD Hersteller gegenüber den Board Herstellern mal klar machen würde, dass sie kein SATA Epress unterstützen werden, damit der unnütze Mist möglichst schnell wieder verschwindet.

roterhund07 schrieb:
les dir das da mal durch
Das hat doch mit dem Thema nichts zu tun, das ist ein Endurance Test, da werden die Daten nicht alt.

<jACKtHErIPPER> schrieb:
Der Firmware "Fix" (eher Workaround) schreibt im Hintergrund alle Daten in bestimmten Abständen nochmal neu auf die Speicherzellen, damit sie erhalten bleiben.
Das muss man aber sowieso bei jedem NANDs und jeder SSD regelmäßig machen, schon wegen dem Read-disturb. Der Bug kann auch gewesen sein, dass es bei der alten FW einfach nicht oft genug passiert ist. Es gibt übrigens auch bei alten Sandforce SSDs mit wenig geschriebene Daten recht hohe Werte für die ins NAND geschriebenen und gelöschten Datenvolumen, woher kommt das wohl?

wayne_757 schrieb:
Eines der größten Probleme bei NAND ist anscheinend, dass bei höheren Temperaturen der NAND seine Daten verliert. Und höher sind schon ab 50 Grad.
Ja, NANDs sollten heiß sein, wenn sie beschrieben und gelöscht werden und möglichst kalt, vor allem wenn die SSD stromlos ist und daher keine Refreshes ausführen kann.

smalM schrieb:
Geht wahrscheinlich genau so zügig wie mit den RS-232-, IEEE-1284-, VGA- und PS/2-Anschlüssen...
Für diese Anschlüsse gab es jahre- bis jahrzentelang auch eine Verwendung und immer noch so manche alte HW die vor allem in Unternehmen noch in Benutzung ist.

trollseidank schrieb:
ich sehe es schon kommen.

die modding Szene klebt auf die Chips Kühlkörper drauf.
Gibt es nicht schon Wasserkühler zum Nachrüsten für die Intel 750? Die wird auch warm und erwartet einen bestimmten Luftstrom um nicht zu warm zu werden, trotz ihrer zwei großen Kühlkörper.
boncha schrieb:
Wie sieht das dann mit einer aktiv genutzten SSD aus?
Da macht der Controller dann hoffentlich regelmäßig Refreshes der Daten, damit es eben keine Probleme gibt, so sollten es gute Controller jedenfalls machen.
boncha schrieb:
Also ich installieren mir zu T=0 auf einer neuen SSD ein Betriebssystem. Diese Daten werden einmal beschrieben
und viele davon wahrscheinlich nicht mehr ersetzt, selbst durch Updates nicht. Nur noch gelesen.
Selbst wenn der Controller nicht regelmäßig Refreshes der Daten macht, so würde es alleine für das Wear Leveling nötig sein, diese von Zeit zu Zeit mal auf anderen NAND Adressen zu kopieren, also zu refreshen. Es wird ja wohl kaum gar nichts auf die SSD geschrieben, also werden irgendwo auch noch Zellen mit eine zunehmenden Anzahl P/E Zyklen sein und damit das Wearleveling also angestoßen werden.

boncha schrieb:
Wenn ich diese SSD jetzt lange nutze, kann es auch hier zu Datenverlusten kommen?
Es kann immer zu Datenverlust kommen, dagegen helfen nur Backups!
boncha schrieb:
Also im Szenario ich nutze die SSD ganz normal im täglichen Betrieb.
Dann ist es wie oben beschrieben und schon das Wear-Leveling sollte von Zeit zu Zeit für ein Refresh sorgen, ein guter Controller mit bugfreier FW dann sowieso.
 
bensen schrieb:
Schau mal in so ein SSD-Gehäuse rein. :D
Anhang anzeigen 535187
links das PCB für 128 und 256 GB. Rechts das Board für 512GB.

Anhang anzeigen 535181

Ich hab mir zu SSD anfangszeiten umbedingt eine SSD eingebildet... natürlich 256GB ohne Trim ohne Garantie, für 500 flocken war auch ne Samsung... aber die Reaktioszeiten haste sofort gemerkt und war mir doch 3 Jahre Treu... bis dann die Geschwindigkeit so unterirdisch wurde, das man davon ausgehen konnte das der Ausfall nicht mehr lange dauert...

Ich hab se dann Zerlegt und reingekuggt... da waren 8 Speicherchips drinn... auf den 8 waren dann nochmal 8 Speicherchips draufgelötet... und auf der Rückseite das geiche, die war bis zum Anschlag vollgepackt..
32 Chips für 256GB... jetzt sinds 1ner oder 2... und is ja nicht so als würds SSD`s schon jahrzehnte geben...
der Fortschritt ist richtig heftig...:D
 
Zuletzt bearbeitet:
boncha schrieb:
Wie sieht das dann mit einer aktiv genutzten SSD aus? [...] Daten werden einmal beschrieben
und viele davon wahrscheinlich nicht mehr ersetzt, selbst durch Updates nicht. Nur noch gelesen. Wenn ich diese SSD jetzt lange nutze, kann es auch hier zu Datenverlusten kommen?

Datenverluste durch sind hier relativ unwahrscheinlich. Das liegt nicht am normalen Wear Levelling, weil bei diesem erst einmal nur dafür gesorgt wird, dass bei Schreibvorgängen möglichst alle Zellen gleichmäßig genutzt werden. Zunächst werden dabei aber nur leere und per TRIM als leer markierte Zellen betrachtet. Das führt nur bei denjenigen Zellen zu einem Schutz, die bereits beschrieben wurden, aber in nicht vollständig gefüllten Blöcken liegen. Sobald ein Block vollständig gefüllt ist, würde er aus reiner Performancebetrachtung nicht einfach so erneut umkopiert.

Erst das Offline-Management der Firmware sorgt dafür, dass dies doch geschieht. Die Firmware versucht, Zeiträume ohne I/O-Anfragen dafür zu nutzen, um die Performance nicht zu beeinträchtigen. Gleichzeitig wird dieses Umkopieren aber auch nicht andauernd durchgeführt, um nicht unnötig Zellen zu zerstören, denn bei NAND-Flash kann man ja eine Zelle nicht beliebig oft beschreiben. Der richtige Mix aus Umkopiermenge und -zeitpunkt gehört zu den Betriebsgeheimnissen der Hersteller.

Bei den schon erwähnten Firmwareproblemen mit dem TLC-Flash bei Samsung wurden in zwei Punkten Fehler gemacht, wodurch nur einmal beschriebene Zellen mit fortschreitender Dauer immer schlechter auszulesen waren. Zunächst einmal hat man Fehler bei der Berechnung des "Voltage Drift" gemacht. Dieser sorgt dafür, dass sich die benötigten Spannungskurven für eine Zelle durch ihren "Verbrauch" (Wear) über die Zeit ändern. Dieser Verbrauch passiert "schnell" abhängig von den Schreibzyklen, aber auch "langsam", wenn die Zelle nicht beschrieben wird. Man hat also zunächst einmal die Algorithmen für diese Spannungskurven angepasst. Zusätzlich hat man aber auch mehr Umkopierzyklen im Management eingebaut, um die Probleme bei den nicht überschriebenen Zellen weiter zu minimieren.

In der Praxis gilt dies: Sollte die Lesegeschwindigkeit nach einiger Zeit deutlich einbrechen (kann man einmal im Jahr mit einem Oberflächenscan messen, z.B. mit HD-Tune), so kann man darauf reagieren, indem man einmal die SSD komplett um- und wieder zurück kopiert. Oder man tut das, was man eigentlich bei SSDs nicht tun sollte: Defragmentieren, mit soviel Umkopieren wie möglich, um möglichst alle Zellen neu zu schreiben.
 
Koto schrieb:
Die frage ist. Von welchen Zeiträumen reden wir. Mehr als ein Menschenalter?
Ich denke es reicht ja wenn einen die Daten überleben. :-)

Wenn man von RDX ausgeht (benutzen ja auch "nur" Hitachi-Festplatten ;) ) sind es 10 Jahre bei HDDs http://www.tandbergdata.com/de/index.cfm/products/media/rdx-media/hdd-rdx-media/ und UNTER 1 JAHR bei SSDs http://www.tandbergdata.com/de/index.cfm/products/media/rdx-media/ssd-rdx-media/ :o . Somit sollte man solche Medien eben nicht für Archivierungszwecke nutzen. Das ist bei SD-Karten und USB-Sticks aber auch so. Flash ist sichtlich nicht dafür ausgelegt.
 
DragonScience schrieb:
bis dann die Geschwindigkeit so unterirdisch wurde, das man davon ausgehen konnte das der Ausfall nicht mehr lange dauert...
Nein, die alten SSDs ohne TRIM werden mit der Zeit langsam, sterben deswegen aber nicht in Kürze. Ein Secure Erease und dann so 10% unpartitioniert lassen (also OP) hätten vermutlich gereicht und die SSD hätte die Performance gehalten, bei der Intel X25-M (also der ersten Generation) ist es das Gleiche, die werden mit der Zeit auch sehr lahm, halten aber trotzdem praktisch ewig.

DragonScience schrieb:
32 Chips für 256GB... jetzt sinds 1ner oder 2...
der Fortschitt ist richtig heftig.
Ja, da hat sich wirklich viel getan!

Nixdorf schrieb:
Zunächst einmal hat man Fehler bei der Berechnung des "Voltage Drift" gemacht. Dieser sorgt dafür, dass sich die benötigten Spannungskurven für eine Zelle durch ihren "Verbrauch" (Wear) über die Zeit ändern.
Nein, das Problem betraf nicht nur SSDs mit viele P/E Zyklen, mit dem Verbrauch hat es also nichts zu tun. Das lag eher am Verlust von Ladung und dem Read-Disturb.
Nixdorf schrieb:
Man hat also zunächst einmal die Algorithmen für diese Spannungskurven angepasst.
Da ist bei planaren TLC NANDs aber nicht mehr viel anzupassen, dafür ist die Anzahl der Elektronen zu gering. Beim 15nm NAND von Toshiba ist von nur noch 20 Elektronen pro Zelle die Rede, was dann nur ganz wenige Elektronen als Unterschied zwischen zwei Ladungszuständen ergibt. Die 19nm NANDs sollte noch bei einigen, wenigen Dutzend Elektronen gewesen sein.

Nixdorf schrieb:
In der Praxis gilt dies: Sollte die Lesegeschwindigkeit nach einiger Zeit deutlich einbrechen (kann man einmal im Jahr mit einem Oberflächenscan messen, z.B. mit HD-Tune)
NEIN! Und warum man nicht und hier habe ich auch schon erklärt warum!
Nixdorf schrieb:
Oder man tut das, was man eigentlich bei SSDs nicht tun sollte: Defragmentieren
Das man das bei einer SSD nicht sollte, ist so auch nicht ganz richtig, denn die Fragmentierung ist eine Sache des Filesystems, beeinflusst also die Art und Länge der Zugriffe und geht auch bei SSD auf die Performance, nur eben weit weniger als bei HDDs.
 
DragonScience schrieb:
Ich hab mir zu SSD anfangszeiten umbedingt eine SSD eingebildet... natürlich 256GB
Bei sowas muss ich immer ganz nostalgisch auf meine Mtron Mobi 3535 mit 32GB schielen. :)
 
Holt schrieb:
Nein, das Problem betraf nicht nur SSDs mit viele P/E Zyklen, mit dem Verbrauch hat es also nichts zu tun. Das lag eher am Verlust von Ladung und dem Read-Disturb.

Da wurde beim Zitieren der wichtige Teil weggelassen. Mit dem "langsamen" Wear, der daraufhin auch noch erwähnt wird, meine ich ja gerade den Ladungsverlust. Der wichtige Punkt ist schlicht, dass Samsung diese neben den Schreib- und Löschzyklen auf den ersten Blick geringere Abnutzung bei TLC offenbar stark unterschätzt und hat und daraufhin die Firmware falsch abgestimmt war. Das Anlegen von Spannung beim Lesen habe ich dann mal weggelassen, weil mir das eh schon alles zu lang wurde. Da hätte man dann auch noch auf Techniken wie CellCare eingehen können, wo mit optimierten Spannungen die Zahl der Zyklen erhöht wird. Es nimmt einfach kein Ende.

Holt schrieb:
Das man das bei einer SSD nicht sollte, ist so auch nicht ganz richtig, denn die Fragmentierung ist eine Sache des Filesystems, beeinflusst also die Art und Länge der Zugriffe und geht auch bei SSD auf die Performance, nur eben weit weniger als bei HDDs.

Zunächst einmal wird allgemein vom Defragmentieren von SSDs abgeraten, weil die Abnutzung durch die übermäßige Schreibbelastung höher zu bewerten ist als der zu erwartende Effekt bei der Performance. Die Aussage zielte also primär auf die "Faustregel" ab, das bei SSDs nicht zu tun. Außerdem ist bei einer SSD auch nach einer Defragmentierung nicht sichergestellt, dass Dateien gleichmäßiger gelesen werden können. Hat das überhaupt schon jemand einmal nachvollziehbar benchen können, und zwar nicht mit altgereiften TLC-Zellen, sondern direkt nach Kraut-und-Rüben-Schreiben, Löcher rein löschen, wieder voll machen, dann einen Random-Read-Test machen, dann defragmentieren und den gleichen Test nochmal?

Holt schrieb:
(zum Oberflächenscan) NEIN!

Okay, das war ein Schnellschuss. Es gab beim TLC-Problem von Samsung auch konkrete Tools aus der Community, die das messen konnten. Da habe ich beim Schreiben auf die Schnelle keins mehr gefunden, jetzt wird das nachgereicht: SSD Read Speed Tester. Damit misst man die Lesegeschwindigkeit von Dateien über das Filesystem, ist also für Fehler der Implementierung beim Low-Level-Zugriff nicht anfällig.
 
trollseidank schrieb:
sehr schön am Beispiel der 950 Pro zu sehen. Die allg. Hitzeentwicklungsproblematik in der Halbleiterbranche ist nun auch ein SSD Problem.

Auch bei der 950 EVO 850 EVO (zumindest mit 2 TB) entsteht ganz ordentlich Hitze. Ich habe neulich zwei Stück davon für einen Videoschnittplatz verbaut, in ein Alugehäuse. Da das Alugehäuse eigentlich eine ganz ordentliche passive Kühlung bietet dachte ich, dass ich den Lüfter des Gehäuses doch sicher abschalten kann.
Doch dann der erste Test: nach einigen dutzend Gigabyte voller Schreiblast auf das RAID 1 wurde das Gehäuse schon beim Anfassen sehr heiß, und der Temperatursensor der beiden 950 EVO 850 EVO kletterte ziemlich flott auf bis zu 65°C hoch!
Da die 950 EVO 850 EVO nur bis 70°C spezifiziert sind, war mir das zu heiß und ich musste den Lüfter wieder aktivieren. So lassen sich die Laufwerke dann auch bei hoher Schreiblast auf ca. 45°C halten.

Ich habe in dem selben Gehäuse zwar keine Festplatten ausprobiert, aber meine Erfahrung sagt mir, dass 5400er HDDs (2,5") im selben Gehäuse wahrscheinlich weitaus weniger Hitze erzeugen würden und sich mit der selben passiven Kühlung bestimmt ohne Lüfter betreiben lassen könnten.
Die Hitzeenwicklung der 950 EVO 850 EVO mit 2 TB liegt also locker im Bereich von 7200er Laufwerken - ich vermute sogar eher noch höher!

Die starke Hitzeentwicklung entsteht natürlich nur bei voller Schreiblast über einen größeren Zeitraum. Wer also eine 950 EVO 850 EVO in ein Notebook verbaut und das Laufwerk nicht für größere Schreibaktionen benutzt, der wird nie Probleme damit bekommen

**Edit: wie Holt unten bemerkt hat, habe ich mich hier vertippt. Natürlich sind das keine 950 EVO, sondern 850 EVO
 
Zuletzt bearbeitet von einem Moderator:
Das täuscht, vergleich' mal die Leistungsaufnahme bei Schreiblast von SSDs mit HDDs. Weniger Leistungsaufnahme=weniger Wärmeeintrag.

Das Missverständnis kommt daher, weil jeder hohe Temperatur mit hoher Verlustleistung gleichsetzt. Das ist aber falsch bzw. nicht allgemein gültig, die HDD hat z.B. ein Aluminiumgehäuse mit großer Oberfläche, welches die Wärmeenergie besser an die Luft abgeben kann. Bei der 950 Evo sind die Bauteile aber nackt und können die Wärme nicht so gut abgeben, was in höheren Kerntemperaturen resultiert.

Defragmentieren von SSDs: Ist das nicht völlig nutzlos? Ich ging davon aus, dass das Betriebssystem eine Festplatte "sieht", aber die tatsächliche Datenverteilung vom Controller abhängt und damit ein Umverteilen garnicht von außen möglich ist?
 
Opa Hermie schrieb:
Defragmentieren von SSDs: Ist das nicht völlig nutzlos?

Korrekt und auch schädlich für die SSD. GEnau dafür hat man Trim und GC da fragmentiert nichts.
 
Nixdorf schrieb:
Hat das überhaupt schon jemand einmal nachvollziehbar benchen können, und zwar nicht mit altgereiften TLC-Zellen, sondern direkt nach Kraut-und-Rüben-Schreiben, Löcher rein löschen, wieder voll machen, dann einen Random-Read-Test machen, dann defragmentieren und den gleichen Test nochmal?
Da die Fragmentierung des Filesystems ja gerade aus langen seguentiellen Zugriffen kurze zufällig macht, ist ein Test mit Random Zugriffen überhaupt nicht geeignet etwas im Zusammenhan mit der Fragmentierung auszusagen.

highks schrieb:
Auch bei der 950 EVO (zumindest mit 2 TB) entsteht ganz ordentlich Hitze.
Eine 950 Evo gibt es noch nicht, Du meist sicher die 850 Evo.
highks schrieb:
Da die 950 EVO nur bis 70°C spezifiziert sind, war mir das zu heiß und ich musste den Lüfter wieder aktivieren. So lassen sich die Laufwerke dann auch bei hoher Schreiblast auf ca. 45°C halten.
Die Leistungsaufnahme beim Schreiben von SSD ist sehr hoch, viel höher als bei 2.5" HDDs mit 5400rpm oder auch 7200rpm.

highks schrieb:
Die starke Hitzeentwicklung entsteht natürlich nur bei voller Schreiblast über einen größeren Zeitraum.
Bei Lesen können einige SSDs auch ganz schön Leistung aufnehmen und daher Wärme erzeugen.
highks schrieb:
Wer also eine 950 EVO in ein Notebook verbaut und das Laufwerk nicht für größere Schreibaktionen benutzt, der wird nie Probleme damit bekommen
Das gilt aber nicht nur für die 850 Evo, sondern eientlich für alle SSDs und generell umso mehr je schneller sie sind.

Opa Hermie schrieb:
Das täuscht, vergleich' mal die Leistungsaufnahme bei Schreiblast von SSDs mit HDDs. Weniger Leistungsaufnahme=weniger Wärmeeintrag.
SSDs brauchen beim Schreiben mehr Leistung, die schreiben zwar meist auch schneller, sind also dann früher wieder Idle, aber wenn man eben sehr viel schreibt, erwärmen sie sich auch mehr.

Opa Hermie schrieb:
Das Missverständnis kommt daher, weil jeder hohe Temperatur mit hoher Verlustleistung gleichsetzt. Das ist aber falsch bzw. nicht allgemein gültig
Eine hohe Verlustleistung bewirkt immer auch eine hohe Temperatur, wobei das aber eben eine Frage der Temperaturverteilung und Kühlung ist.

Opa Hermie schrieb:
Defragmentieren von SSDs: Ist das nicht völlig nutzlos? Ich ging davon aus, dass das Betriebssystem eine Festplatte "sieht", aber die tatsächliche Datenverteilung vom Controller abhängt und damit ein Umverteilen garnicht von außen möglich ist?
Was das Betriebssystem sieht, bestimmt aber die Zugriffe auf die SSD, die werden nie länger als die Fragmente sein, wenn eine Datei gelesen wird und da SSD erst bei längeren Zugriffe die volle Performance erreichen, macht das eben einen Unterschied, wenn auch meist nur einen kleinen, oft nur messbaren.

Cool Master schrieb:
Korrekt und auch schädlich für die SSD.
Das ist falsche! Der eine oder die zwei P/E Zyklen machen eine SSD nicht kaputt und meist werden sie auch keinen spürbaren Einfluss auf die Nutzungsdauer haben, denn P/E Zyklen haben die NANDs der SSDs ja meist mehr als genug für Jahrzehnte bis Jahrhunderte der Nutzung eines Heimanwenders. Geht eine SSD bei Defragmentieren kaputt, wäre sie sowieso bald verreckt.
Cool Master schrieb:
GEnau dafür hat man Trim und GC da fragmentiert nichts.
Das spielt keine Rolle wenn es um die Fragmentierung geht. Fragmentierung ist eine Sache des Filesystems und nur das Filesystems und tritt bei SSDs genauso wie bei HDDs auf. Der Unterschied ist, dass bei HDDs die LBAs sequentiell angeordnet sind und beim Zugriff von einem Fragment auf ein anderes eben langsame Kopfbewegungen nötig sind. Das fällt bei SSDs weg und deswegen macht sich Fragmentierung und die dadurch geänderten Zugriffe auf die Platte kaum bemerkbar, aber mit der internen Organisation der Daten, also dem worauf der Controller und z.B. die Idle-GC Einfluss hat, rein gar nichts zu tun. Es ist irreführend die interne Organisation der Daten irgendwie mit dem Fragmentierung in Zusammenhang zu bringen, da es bei Fragmentierung eben alleine um die Zugriffe von außen geht.
 
Echt top, wie die Technik sich bei SSDs weiter entwickelt! Dadurch werden die Speichergrößen, die man gut brauchen kann (um 2TB) immer preisgünstiger :D.
 
Zurück
Oben