linuxnutzer schrieb:
Irgendwo habe ich gelesen, dass SSDs, die mehr als 50% benutzt sind, deutlich langsamer werden und falls die SSD komplett vollgeschrieben wird, sie defekt ist. Was ist darah richtig?
Kaputt gehen darf sie nicht, egal wie voll sie ist und wie wo was geschrieben wird. Langsamer werden SSD i.d.R. schon, wenn sie sehr voll sind, dass ist normal, hängt aber auch von der konkreten SSD und der Nutzung ab, also ob vorher gelöscht und getrimmt wird oder ob man einfach überschreibt.
Wird nicht getrimmt geht den SSDs meist schnell die Frea Area aus und damit wird der Controller gezwingen während des Schreibvorgangs für Freie Pages zu sorgen, also noch gültige Daten kopieren und Blöcke löschen. Dann ist die Schreibrate halt geringere bis deutlich geringer.
Wurde gelöscht, getrimmt und dem Controller etwas Zeit zum Aufräumen gelassen, sollte er genug freie Pages für den nachfolgenden Schreibvorgang haben und idealerweise gibt es keine Performancenachteile.
fuyuhasugu schrieb:
Bei Festplatten hat man zwar kein physikalisches Problem der Schreibzyklen dafür jedoch ein logisches beim Dateisystem, was dazu führt, dass die zu schreibenden Daten in die wenigen über die Festplatte verstreut liegenden Sektoren geschrieben werden müssen, was eine hohe Fragmentierung zur Folge hat
Das hat nicht Fragmentierung zur Folge, das ist Fragmentierung! Die gibt es genauso auch bei SSDs, denn beide Datenträger stellen nur einen Bereich aufeinanderfolgender LBAs mit normalweise je 512 Byte pro LBA bereit. Die Verwaltung der Dateien und Ordner obliegt dem Filesystem und das funktioniert für beide Datenträger genau gleich.
Der Unterschied ist, dass die Auswirkungen auf die Performance weit geringer sind, aber es gibt sie. Denn statt weniger (vielleicht nur einem) lange Zugriffe muss für jedes Segment je ein Zugriff erfoolgen und wenn das Segment klein ist, dann wird es kurzer Zugriffe und bei kurzen Zugriffen erreichen SSDs eben bei weitem nicht die Transferraten wie bei langen Zugriffen. Im extremsten Fall wäre eine Daten in lauter Fragmente von je einem Cluster, meist 4k, aufgeteilt und dann erhält man eben Transferraten wie in den Benchmarks bei 4k und nicht wie bei sequentiell! Bevor es so weit kommt, muss aber die Fragmentierung schon wirklich extremst sein!
Fragmentierung gibt es also auch bei SSDs, sie hat auch einen gewissen Effekt auf die Performance, aber der ist bei weitem nicht mit dem zu vergleichen, was bei HDDs passiert.
linuxnutzer schrieb:
Ich habe auf meiner 3TB HD die 2.7 TiB-Partition mit XFS als Dateisystem schon mehrmal voll bekommen, keine Performance-Probleme beim Lesen. Normalerweise sind an die 20-30GB frei.
Lesen ist kein Problem und die Fragmentierung wirkt sich sowieso bei HDDs wie bei SSDs immer nur auf die betroffenen Dateien aus. Das sind meist die zuletzt geschrieben bzw. stark gewachsenen (wie bei logs) Files, die anfangs auf das leere Dateisystem geschriebene Dateien sind ja nicht fragmentiert, die liest man immer gleich schnell, egal in wie vielen Fragmentie andere Dateien aufgeteilt wurden.
Je mehr man freilässt umso geringer ist das Risiko von Performanceverlust, auch weil der Controller ja bei der Auswahl der NAND Dies beschränkt wird und so nicht mehr die für optimale Performance nötige optimale Verteilung garantieren kann. Wenn man so 10 bis 20% frei lässt, sollte es aber normal keine spürbaren Performancenachteile bringen und wenn, dann allenfalls beim Schreiben. Lesen kann man die NANDs deutlich schneller als Schreiben und daher ist eine suboptimale Verteilung über die NANDs dort so schnell nicht zu bemerken.
Bei HDDs spielt es für die Geschwindigkeit übrigens praktisch egal ob man liest oder schreibt, von paar MB Cache mal abgesehen, aber die bringen fast nur bei kurzen Schreibzugriffen etwas. Bei SSDs ist das halt anders.