[Sammelthread] Kaufberatung und Fragen zu SSD

Kampfkuchen schrieb:
Sie soll bei normaler Benutzung so 5+ Jahre mitmachen, aber das sollte ja selbst irgendeine TLC oder Kingston V300 auch machen oder was muss man im schlimmsten Fall bei den günstigen erwarten?
Was ist normale Nutzung, Windows Systemplatte? Mit TRIM oder ohne TRIM? 128GB sind für Windows im meinen Augen recht wenig, da würde ich eine größere SSD wählen, so viel mehr kosten sie ja nicht, für 50% Aufpreis bekommt man 100% mehr Kapazität und zumindest schreibend eine bessere Performance.

Ob die V300 5 Jahre duchhalten wird, kann ich bei deren Abschneiden bei ssdendurance.com nicht mit Sicherheit sagen und deren Perfomace mit realen Daten ist auch je nach NAND Bestückung sehr mies. wie devgenc hier feststellen musste:

Anhang anzeigen 357971

Kingston hat eben keine eigene NAND Fertigung und da gute NANDs auf dem Markt knapp und teuer sind, nehmen sie zwangsläufig was sie gerade billig bekommen und das gilt für eigentlich alle Budget SSDs von Anbietern ohne eigene NAND Fertigung. NANDs Fertiger sind aber nur Flash Forward (Joint Venture von Toshiba und SanDisk), Hynix, IMFT (Intel und Micron) sowieo Samsung. Crucial ist wie Lexar eine Tochter von Micron und OCZ gehört inzwischen Toshiba.

Kampfkuchen schrieb:
Natürlich sollte sie keine bekannten Probleme haben oder so wenige Erfahrungen existieren, dass man das nicht sagen kann.
Halte Dich an die Empfehlungen im ersten Ports des Threads, die sind bekannt und problemlos, zumindest sind keine großen Probleme bisher bekannt bzw. wurden entsprechende SSDs gestrichen. Man könnte noch die SanDisk Ultra Plus 128GB aufnehmen, die ist auch gut, wurde aber durch die Ultra II mit TLC ersetzt, über die man wenig sagen kann und die ich auch nicht empfehlen würde, da selbst SanDisk seine ersten TLC NANDs gerade mal mit 500 P/E Zyklen spezifiziert.

Kampfkuchen schrieb:
Geschwindigkeit beim Programme starten und so merkt man ja eh keinen unterschied bei den ganzen also ist doch nur sequentielle Lese- (fast immer hoch) und Schreibgeschwindigkeit im Alltag zu merken, oder?
Wie Du am Beispiel der V300 sieht, sind die Angeben teils auch geschummelt. Die V300 hat einen Sandforce Controller und die Sandforce Controller komprimieren die Daten und die beworbenen Transferrate werden mit ATTO mit extrem komprimierbaren Daten (nur Nullen) gemessen. Reale Daten sind weit weniger komprimierbar und damit die Werte teils sehr viel schlechter. Bei allen SSD mit einem Sandforce oder Phison Controller musst Du damit rechnen die Werte im Alltag teils deutlich zu verfehlen.

Andere haben einen Pseudo-SLC Schreibcache und kommen daher nur für mehr oder weniger viele GB am Stück auf die beworbene Schreibrate, was z.B. für alle aktuellen TLC SSDs, die SSDs von Toshiba, OCZ und die neuen Crucial MX200 gilt, zumindest bei kleineren Kapazitäten.

Kampfkuchen schrieb:
Welche wäre von diesen da Preis / Leistungsmäßig am besten für mich?
Die Liste ist aber sehr lang :D
Kampfkuchen schrieb:
Oder gibt es einen Grund unbedingt auf eine MX100 oder M500 usw. zu gehen da diese ja bei 128GB schon teurer sind und zumindest vom Datenblatt sequntiell teils langsamer?
Die seq. Schreibrate ist bei einem Systemlaufwerk wenig relevant. Wenn Du eine gute Schreibrate und ein gutes P/L Verhältnis willst, nimm die m550.

Kampfkuchen schrieb:
Anders gesagt: Millisekunden schneller beim Anwendungsstart sind egal, wenn dann muss eine bessere SSD Verbesserungen bei spürbaren Szenarien bringen.
Die Unterschiede zwischen den empfehlenswerten SSDs es ersten Posts (bzw. einer Ultra Plus) und einer High-End SATA SSD wie der 850 Pro sind im Alltag eigentlich allesamt nicht zu spüren, wenn man sie nur als Systemlaufwerk nutzt. Spürbar schneller wären wenn, dann PCIe angebundene SSD wie eine Samsung XP941, eine Intel DC P3000er, aber die kosten richtig Geld und brauchen einen passenden Rechner.
 
Holt schrieb:
Welche der heutigen wie gut sind ist schwer zu sagen, aber generell würde ich der SSD genug OP spendieren wenn sie ohne TRIM laufen muss, also im Neuzustand oder nach einem Secure Erease einen Teil unpartitioniert lassen. Wie viel das bringt hängt von der jeweiligen SSD ab.

Jap, das mit dem OP hab ich von dir schon mal diesbezüglich hier im Forum gelesen.
Aber ist es nicht so, dass werksseitig sowieso bei jeder SSD unabhängig vom Betriebssystem mal mehr mal weniger OP angewendet wird?
 
@Holt:
Erstmal Danke für die ausführliche Antwort!!

Arch Linux - alles außer große Daten wie Fotos und Filme - Platte. Dafür brauch ich erstmal 100 GB plus vllt 20+ GB mehr in mittlerer Zukunft. Ich nehme dann doch lieber eine 256 GB SSD hab ich mir jetzt überlegt :D
Bei wieviel Auslastung wird denn so eine aktuelle SSD überhaupt spürbar langsamer? 85%? 95%?

Anwendungsgebiet ist alles mögliche. Programmieren, mal ein Video / Audio schneiden oder bisschen Blender. Fragt einfach, ob ich etwas mache was die Empfehlung verändern würde :)

Trim kann man anmachen in Linux und wird dann auch angemacht, wenn nix dagegen sprechen sollte.

Okay dann meide ich mal lieber die ohne eigene NAND Fertigung, weil die jederzeit auch total schlechten NAND einsetzen könnten, der vllt mit 5 Jahre schon Probleme kriegt bzw. man es nicht weiß, richtig?

Das ist mir klar, dass die gut sind in den Empfehlungen, ich wollte nur fragen, ob es nicht noch ein bisschen mehr gibt, die empfehlenswert sind, weil man dann ja teilweise günstiger / mit mehr Leistung weg kommen könnte.

Zu der Schummelei der Datenraten:
Aber dann ist immernoch die sequentielle Schreibrate komprimiert und unkomprimiert das einzige, was man überhaupt merken kann bei der Benutzung zwischen unterschiedlichen SSDs, oder?
Und Anwendungsbeispiele / -gebiete, wo man Unterschiede zwischen SSDs nicht nur messen kann wären dann Sachen wie entpacken? Was gibts da noch?

Schreibcache für ein paar GB ist denke ich super, mehr am Stück wird da eher selten geschrieben. Man verliert dann nur theoretisch diese Daten bei einem Stromausfall, aber nicht mehr als bei einer Platte mit gleicher wirklicher Schreibrate, oder was gibt es dabei noch zu beachten?

:D Die Liste sollte nur die güstigeren als MX100 oder höchstens M550 zeigen, nicht noch weiter ;) Das wäre dann die aktuelle Liste, halt nur bis zu einer M550 oder ähnlichem höschstens, danach scheint ja die Preis / Leistung in den Keller zu gehen.
EDIT:
Also gibt es eine 256GB SSD, die in in spürbaren Gebieten schneller ist als die MX100, auch zuverlässig und dabei nicht viel teurer ist im Prinzip die Frage.
/EDIT

Zu Schreibrate bei Systemlaufwerk irrelevant: Es soll ja alles außer ein Datengrab sein. Ich dachte als Systemlaufwerk sind die eh alle fast gleich von der Geschwindigkeit und dann ist die Schreibrate eins der wenigen Sachen, die man im Alltag überhaupt merkt wenn sie anders sind, oder auf was solle ich noch achten (als auch Systemlaufwerk)? Sequentielle Leserate?

Bei diesen High-End SSDs merkt man dann wieder überall einen Performance Gewinn? Das lohnt sich aber trotzdem erstmal nicht für mich, da die meisten SSD limitierten Sachen erstmal schnell genug sind denk ich.
 
Zuletzt bearbeitet: (Frage hinzugefügt, siehe EDIT)
Core #1 schrieb:
Aber ist es nicht so, dass werksseitig sowieso bei jeder SSD unabhängig vom Betriebssystem mal mehr mal weniger OP angewendet wird?
Ja jede SSD hat ab Werk ein OP, denn eine 256GB SSD hat z.B. immer 256GiB NAND verbaut, alos etwa 7% mehr, die Betriebssysteme machen kein OP. Das Problem ist bei Windows, dass es zwar in Binärpräfixen rechnet, aber die falchen Abkürzungen anzeigt.

Also mal als Beispiel ein typische 256GB SSD:
256GiB NAND = 256*1012^3Byte NAND = 274877906944 Bytes (wobei es pro Page und pro Block noch weitere Extrabytes gibt)
256GB Nutzkapazität = 256 * 1000^3 = 256000000000 Bytes die man mindestens nutzen kann (praktisch gibt es immer ein klein wenig mehr), nur Windows zeigt diese wider in Gibibyte (GiB) an und dann sind es eben 256*1000^3/1024^3 = 238,4GiB, aber immer noch die gleichen 256000000000, da geht keines verloren wie so oft behauptet wird, es steht nur die falsche Einhait dahinter.

Bei denen mit 240GB ist geauso viel NAND verbaut, aber man hat weniger Nutzkapazität, die haben also mehr OP, nur weiß man nie wie viel davon jeweils für Verwaltungsdaten und zusätzliche Fehlerkorrekturen wie RAISE (SF) oder RAIN (Micron) abgeht.
Kampfkuchen schrieb:
Bei wieviel Auslastung wird denn so eine aktuelle SSD überhaupt spürbar langsamer? 85%? 95%?
Das hängt sehr von der aktuellen SSD ab und naturlich spielt dann auch der Faktor Zeit eine Rolle, den kann man in Reviews nicht nachstellen, weshalb es da kaum Erfahrungen gibt. Wenn nicht getrimmt wird, würde ich wenigstens so 10% unpartioniert lassen.

Kampfkuchen schrieb:
Anwendungsgebiet ist alles mögliche. Programmieren, mal ein Video / Audio schneiden oder bisschen Blender. Fragt einfach, ob ich etwas mache was die Empfehlung verändern würde :)
Wenn es hochauflösendes Rohmaterial ist, also wirklich viel geschrieben wird, sollte man keine mit Pseudo-SLC Cache nehmen, besser zwei SSD um von der einen auf die anderen schneiden zu können wenn es wirklich schnell gehen soll, aber bei kodiertem Material bremst i.d.R. die CPU/GPU so sehr, da sollte jede SSDs mit umgehen können.

Kampfkuchen schrieb:
Trim kann man anmachen in Linux und wird dann auch angemacht, wenn nix dagegen sprechen sollte.
Kannst und solltest Du, kann auch einfach einen cron anlegen der zuweilen fstrim aufruft.

Kampfkuchen schrieb:
Okay dann meide ich mal lieber die ohne eigene NAND Fertigung, weil die jederzeit auch total schlechten NAND einsetzen könnten, der vllt mit 5 Jahre schon Probleme kriegt bzw. man es nicht weiß, richtig?
Das Risiko besteht und es ist auch nicht unwahrscheinlich, die Marktlage ist eben wie sie ist und wer gute NAND Qualitäten einkauft, kann gegen die Angebote der NAND Hersteller, vor allem denen von Crucial, nicht bestehen und damit noch Geld verdienen.

Kampfkuchen schrieb:
ob es nicht noch ein bisschen mehr gibt, die empfehlenswert sind, weil man dann ja teilweise günstiger / mit mehr Leistung weg kommen könnte.
Nein, die unentdeckte Perle gibt es nicht, die koche alle nur mit Wasser.

Kampfkuchen schrieb:
Aber dann ist immernoch die sequentielle Schreibrate komprimiert und unkomprimiert das einzige, was man überhaupt merken kann bei der Benutzung zwischen unterschiedlichen SSDs, oder?
Das habe ich nun nicht ganz verstanden, aber vielleicht so viel: Es gibt im Alltag praktisch keine so extrem komprimierbaren Daten wie viele Benchmarks sie verwenden, da solche Daten keinerlei Informationen enthalten. Programme und dlls sind gewöhnlich etwa zu 50% komprimierbare, Archive (zip, rar, etc.) und Mediendateien (außer Raw-Formaten) sind praktisch überhaupt nicht mehr komprimierbar, immer bezogen auf verlustfeie Kompression, was anderes darf ein SSD Controller ja sowieso nie machen.
Kampfkuchen schrieb:
Und Anwendungsbeispiele / -gebiete, wo man Unterschiede zwischen SSDs nicht nur messen kann wären dann Sachen wie entpacken? Was gibts da noch?
Nur wenn die Archive gar nicht komprimiert sind, aber wie oft kommt das bei Dir vor? Bei wirklich komprimierten Archiven dürfte immer die CPU begrenzen und die Unterschiede zwischen den SSDs daher kaum zu merken sein.

Kampfkuchen schrieb:
Schreibcache für ein paar GB ist denke ich super, mehr am Stück wird da eher selten geschrieben. Man verliert dann nur theoretisch diese Daten bei einem Stromausfall, aber nicht mehr als bei einer Platte mit gleicher wirklicher Schreibrate, oder was gibt es dabei noch zu beachten?
Für die normale Anwendung als Systemlaufwerk ist das auch wirklich hilfreich, aber wenn man eben Dinge damit macht wo ständig viele GB am Stück geschrieben werden, dann nicht. Verlieren tut man die Daten auch nicht, die stehen ja auch im NAND, nur eben immer nur ein Bit pro Zelle. Unerwartete Stromausfälle sind für SSDs aber genereall sowieso Gift, die Crucial m500, m550, MX100 und MX200 haben aber wenigsten Stützkondensatoren die einen Bricken der SSD in den Fall verhindern sollen, Daten aus dem Schreibcache im RAM der SSD können dabei aber immer noch verloren gehen, da müsste man wohl eine Intel 730 (stammt von der DC S3500 ab) oder eben gleich eine richtig gute Enterprise SSD mit Stützkondensatoren nehmen, die haben Kondensatoren mit so hoher Kapazität, dass sie daraus auch den Schreibcache noch schreiben können.
Kampfkuchen schrieb:
Also gibt es eine 256GB SSD, die in in spürbaren Gebieten schneller ist als die MX100, auch zuverlässig und dabei nicht viel teurer ist im Prinzip die Frage.
Kampfkuchen schrieb:
Das wäre die m550 256GB gewesen, aber die ist schon bei keinem Händler mehr ab Lager gelistet.

Kampfkuchen schrieb:
auf was solle ich noch achten (als auch Systemlaufwerk)? Sequentielle Leserate?
Entwder hällst Du Dich an die Beratungsempfehlungen und kaufst danach oder Du kaufst aufgrund der Daten im Preisvergleich, dass sie Deine Sache, aber in der Leserate nehmen sich die empfohlenen alle nicht, auch da eine mal meher mal weniger angibt und die eine im Benchmarks vielleicht ein paar MB/s mehr schafft.
 
Danke nochmal für die Erklärungen :)

Ist es nicht das gleiche wenn der Speicherplatz frei ist statt unpartitioniert?
Und wenn getrimmt wird, wie sieht es dann mit langsamer werden bei fast voll aus?

Bringt es mir einen Nachteil wenn sofort statt immer mal wieder alles getrimmt wird?

Nee, das ist ja nicht im professionellen Rahmen, da sollte es auch so genügen, das wäre aber dann ein Gebiet, wo man eine andere SSD (mit höherer Schreibrate) wirklich merken würde? Wenn man wirklich rendert ist aber doch auch CPU limitiert oder was meinst du?

Hauptfragen:
Meine Frage mit dem unkomprimiert und komprimiert war so gemeint:
1. Das einzige was die Leistung der SSDs im Alltag mehr als 10tel Sekunden unterscheidet ist also die sequentielle Schreibrate, richtig?
2. (unkomprimiert und komprimiert muss man natürlich beachten, könnte aber bei beiden je nach Anwendung spürbare Unterschiede bringen?)
3. Und dann ist die Frage, welche Anwendungsgebiete denn von einer besseren SSD spürbar profitieren, also in welchen Anwendungsgebieten merkt man einen Unterschied zwischen einer billigeren und einer bisschen teureren SSD?
/Hauptfragen

Archive wären irgendwelche packages installieren / compilen / packen meistens, das müsste CPU limitiert sein oder?

Das heißt er nutzt einen SLC Cache und schreibt den dann zb nach dem Stromausfall in den anderen Flash? Das heißt bei mittelkurzen Schreibzugriffen schafft er eher sogar noch mehr persistent zu speichern?
Da gibt es aber momentan eh nur die nicht empehlenswerte 840? Und die M550 ist auch unkomprimiert schreibend genauso schnell und günstiger, oder?

Also die Firmware der SSD kann schon mal bricken bei vielen SSDs wenn der Strom ausfällt, nicht nur die Daten, die grade geschrieben wurden? :O

Okay, BX100 gibts halt noch keine großen Erfahrungsberichte und sie ist nicht so gleich wie die MX100, dass man sagen könnte es gibt genauso wenig Probleme, richtig?
Also kommt dann überhaupt nur MX100 oder M550 in Frage für 256GB, wenn man nicht Preis / Leistungsmäßig in den Keller will, oder hab ich was übersehen?

Ich glaube bei dem letzten haben wir uns nicht ganz verstanden ;)
Mir ist klar, dass fürs starten von Programmen die Schreibrate unwichtig ist. Aber da als "Systemlaufwerk" eh alle ungefähr gleich sind, dachte ich die sequentielle Schreibrate ist der einzige Punkt der eine andere SSD rechtfertigt und bei einem reinen Systemlaufwerk gibt es auf nichts zu achten? (Deswegen hatte ich gefragt ob es doch auf etwas beim Systemlaufwerk zu achten gibt, z.B. sequentielle Leserate.)
Siehe oben den Absatz wie die Frage mit komprimiert / unkomprimiert gemeint war / für was eigentlich eine teurere SSD Sinn macht.
 
Kampfkuchen schrieb:
Ist es nicht das gleiche wenn der Speicherplatz frei ist statt unpartitioniert?
Und wenn getrimmt wird, wie sieht es dann mit langsamer werden bei fast voll aus?
Ja, wenn die SSD wirklich getrimmt wird, braucht man das OP nicht, dann reicht es wenn man zuweilen etwa löcht wenn die SSD zu voll wird. Aber wenn TRIM nicht funktioniert bringt das Löschen nichts, der Controller der SSD erfährt ja nichts davon, dass bestimmte Daten nun ungültig geworden sind, genau dafür ist ja der TRIM Befehl. Dann einfach etwas auf der Partition frei lassen funktioniert oft nicht einmal weil Windows die LBAs gelöschter Dateien nicht sofort überschreibt sondern die Dateien mit der Zeit über die ganze Kapazität verteilt (nur der für MFT reservierte Bereich wird möglichst frei gelassen, aber halt vom MFT immer weiter belegt) und wenn dann mal irgendein Programm verrückt spielt und die ganze Kapazität beschreibt, dann hat man den Salat. Lässt man einen Teil unpartitioniert, so kann der eben auch nicht versehentlich beschrieben werden, das ist also sicherer.

Kampfkuchen schrieb:
Bringt es mir einen Nachteil wenn sofort statt immer mal wieder alles getrimmt wird?
Das bringt Performancenachteile, weil die TRIM Befehle ja auch übertragen und abgearbeitet werden müssen.

Kampfkuchen schrieb:
Wenn man wirklich rendert ist aber doch auch CPU limitiert oder was meinst du?
Davon würde ich mal stark ausgehen, Du kannst ja mal die Auslastung der CPU und die Datenraten der Platte dabei ansehen und weißt Du ja welchen Datenrate dabei entsteht und wenn die CPU am Limit hängt, würde die mit einer SSD auch nicht höher sein können, wenn die CPU zu 2/3 ausgelastet ist und die HDD limiert und z.B. 100MB/s liefert/schreibt, dann wären mit einer SSDs maximal 50% mehr drin und sie muss nur 150MB/s schaffen, dann würde die CPU wieder limitieren, ist doch recht einfacher Dreisatz.
Kampfkuchen schrieb:
1. Das einzige was die Leistung der SSDs im Alltag mehr als 10tel Sekunden unterscheidet ist also die sequentielle Schreibrate, richtig?
Das kann man so sagen.
Kampfkuchen schrieb:
2. (unkomprimiert und komprimiert muss man natürlich beachten, könnte aber bei beiden je nach Anwendung spürbare Unterschiede bringen?)
Die Komprimierbarkeit der Daten spielt nur bei SSDs mit Sandforce Controllern eine Rolle, bei denen mit Phison nur ob die extrem komprimierbar sind, die halbwegs komprimierbaren Daten bringen gegenüber den gar nicht komprimierbaren keine Vorteil, bei Phison ist das wohl keine echte Datenkompression sondern ein einfach Deduplizierung und damit reine Verarsche für gute Herstellerangaben. Die Cruical haben andere Controller, da spielt die Komprimierbarkeit der Daten dann keine Rolle.
Kampfkuchen schrieb:
3. Und dann ist die Frage, welche Anwendungsgebiete denn von einer besseren SSD spürbar profitieren, also in welchen Anwendungsgebieten merkt man einen Unterschied zwischen einer billigeren und einer bisschen teureren SSD?
Teurere SSDs haben i.d.R. eine bessere Performance Consitiancy, aber die spielt bei Heimanwendern keine Rolle, die ist für Enterprise Anwendungen wichtig, wo pausenlos und stundenlange auf die SSD vor allem geschrieben wird.
Kampfkuchen schrieb:
Archive wären irgendwelche packages installieren / compilen / packen meistens, das müsste CPU limitiert sein oder?
Das alles kann eine gute günstige SSD wie die empfohlenen etwa genauso gut wie eine teure Premium SSD, sofern Du das nicht mit einer schnellen High-End CPU pausenlos und stundenlang machst.

Kampfkuchen schrieb:
Das heißt er nutzt einen SLC Cache und schreibt den dann zb nach dem Stromausfall in den anderen Flash?
Ja, die SSD haben eigentlich alle heute einen RAM Cache (auch der SF als SRAM auf dem Chip oder im Package) und einige haben nutzen eben feste Pseudo-SLC Bereiche (die TLC SSDs) oder beschreiben alle freien Zellen zuerst im Pseudo-SLC Modus, also nur mit einem Bit.
Kampfkuchen schrieb:
Das heißt bei mittelkurzen Schreibzugriffen schafft er eher sogar noch mehr persistent zu speichern?
Was kurz oder lang ist, hängt von der Größe dieser Schreibcaches ab, wenn der voll ist, brechen die Schreibraten halt mehr oder weniger ein, das hängt von der SSD ab. Eine 850 Evo mit 500GB oder 1TB kann auch ohne den Cache so schnell schreiben wie mit, da gibt es dann keinen Einbruch der Schreibraten.
Kampfkuchen schrieb:
Da gibt es aber momentan eh nur die nicht empehlenswerte 840?
Die 840 ohne Zusatz (Evo oder Pro) ist total veraltet und die hat das gleiche Problem mit der Performance beim Lesen alter Daten wie die Evo, weshalb ich diese beide nicht empfehle solange das nicht behoben ist.
Kampfkuchen schrieb:
Und die M550 ist auch unkomprimiert schreibend genauso schnell und günstiger, oder?
Ja, wie gesagt interessiert die Komprimierbarkeit nur bei SSD mit Sandforce oder Phison Controllern.
Kampfkuchen schrieb:
Also die Firmware der SSD kann schon mal bricken bei vielen SSDs wenn der Strom ausfällt, nicht nur die Daten, die grade geschrieben wurden?
Ja, aber die SSDs sind da unterschiedlich abfällig und die mit Stützkondensatoren generell extrem robust, dafür spendiert man ihnen die Konsendatoren ja auch. Andere haben aber selbst ohne Kondensatoren praktisch keine Probleme damit, da haben die Entwickler offenbar andere Lösungen gefunden.

Kampfkuchen schrieb:
Okay, BX100 gibts halt noch keine großen Erfahrungsberichte und sie ist nicht so gleich wie die MX100, dass man sagen könnte es gibt genauso wenig Probleme, richtig?
Die Performance scheint nach den Reviews gut zu sein, der Preis ist es inzwischen auch, aber es liegen wenig Erfahrungen vor, zumal auch der SMI Controller noch recht neu ist. Einen Grund direkt von der abzuraten sehe ich nicht, aber für eine sichere Empfehlung fehlt halt die Erfahrung damit und keiner kann sagen ob da nicht demnächst da ein dickes Problem hoch kommt.
Kampfkuchen schrieb:
Also kommt dann überhaupt nur MX100 oder M550 in Frage für 256GB, wenn man nicht Preis / Leistungsmäßig in den Keller will, oder hab ich was übersehen?
Wobei beide defacto wohl von der BX100 und MX200 abgelöst werden, auch wenn sie laut Crucial weiter produziert werden sollen, so ist die m550 256GB im Moment bei keinem Händler als lagernd angegeben und auch wieder deutlich teurer als die MX100, die war aber sogar mal günstiger obwohl sie eigentlich das höher positionierte Produkt ist.
 
Holt schrieb:
Ja jede SSD hat ab Werk ein OP, denn eine 256GB SSD hat z.B. immer 256GiB NAND verbaut, alos etwa 7% mehr, die Betriebssysteme machen kein OP. Das Problem ist bei Windows, dass es zwar in Binärpräfixen rechnet, aber die falchen Abkürzungen anzeigt. [...]. Bei denen mit 240GB ist geauso viel NAND verbaut, aber man hat weniger Nutzkapazität, die haben also mehr OP, nur weiß man nie wie viel davon jeweils für Verwaltungsdaten und zusätzliche Fehlerkorrekturen wie RAISE (SF) oder RAIN (Micron) abgeht.

In der Playstation kann man ja leider nicht die Platte partitionieren, also selbst auch kein OP vornehmen!
Sollte da trotzdem nichts "passieren" über einen längeren Zeitraum, wenn ich bei einer in die PS3 verbauten 512 GiB SSD stets 10 bis 20 % frei lasse (oder lieber gar 50%?)?
 
Zuletzt bearbeitet:
Bei Betreib ohne TRIM bricht vor allem die Schreibrperformnace ein, was bei der PS wohl so kritisch ist und wenn Du vermeidest die SSD zu voll werden zu lassen, dann hast immer noch einen großen Vorteil gegenüber einer HDD. Außerdem könntest Du z.B. eine 500GB HDD durch eine 512GB SSD ersetzen und die dann 1:1 mit Linux und dd klonen, dann hast Du auch 12GB OP, weil nur wieder die alten 500GB Partition vorhanden sein wird.
 
Hab mir heute die MX100 512 GB bestellt und werde sie dann die nächsten Tage in einem Notebook verbauen. Hoffe das Ding hält, was es verspricht. Bin mit Micron sehr zufrieden und habe die M4 128 GB seit vielen Monaten im Dauerbetrieb in einem anderen Rechner. Mal sehen, was das neue Modell kann....(und hoffentlich funktioniert der Clone Prozess mit True Image, hab keine Lust und keine Zeit für Neuinstallationen).....
 
jodd schrieb:
Boards mit NV Chipsatz dürften wohl keine Rolle mehr spielen.
Die Boards sind zwar aus dem Handel verschwunden, sind aber immer noch Basis von vielen Rechnern mit Phenom II X4 welcher aktuell sogar noch fürs kommende GTA V ausreichen soll. Solche Rechner lassen sich mit SSDs aufrüsten. Anders als es am Anfang dieses Themas dargestellt wird lässt sich auch AHCI samt Trim nutzen.
 
Wilhelm14, bei einigen, aber längst nicht bei allen Boards. Bei denen die im Pseudo-AHCI Modus laufen und wo man den Microsoft AHCI Treiber nicht installieren kann, geht kein TRIM, denn der NVidia Treiber unterstützt das nicht. Weder die Aussage es gehe generell nicht noch die Aussage es würde generell gehen sind korrekt, bei der Mehrheit der NVidia Boards geht es jedenfalls nicht.
 
Ja, weder noch. Aber dahingehend könnte man die Aussage anpassen.
"Nvidia - geht nicht" ist falsch. "Nvidia - kommt drauf an" wäre richtig. Bei Intel ist es ja nicht anders, dort kommt es auch drauf an. Beim ICH7 gibt es teils kein AHCI, beim ICH8 teils nur mit Tricks. Viele hier im Thema rüsten die SSD nach. Wäre doch schade, wenn jemand gar nicht auf AHCI und Trim achtet, obwohl es gehen könnte.
 
Holt schrieb:
Ja, wenn die SSD wirklich getrimmt wird, braucht man das OP nicht, dann reicht es wenn man zuweilen etwa löcht wenn die SSD zu voll wird.
Du meinst weil sonst nichts mehr frei ist oder ist auch mit TRIM die Performance bei 99% Belegung schlechter als bei 80%?

Holt schrieb:
Aber wenn TRIM nicht funktioniert bringt das Löschen nichts, der Controller der SSD erfährt ja nichts davon, dass bestimmte Daten nun ungültig geworden sind, genau dafür ist ja der TRIM Befehl. Dann einfach etwas auf der Partition frei lassen funktioniert oft nicht einmal weil Windows die LBAs gelöschter Dateien nicht sofort überschreibt sondern die Dateien mit der Zeit über die ganze Kapazität verteilt (nur der für MFT reservierte Bereich wird möglichst frei gelassen, aber halt vom MFT immer weiter belegt) und wenn dann mal irgendein Programm verrückt spielt und die ganze Kapazität beschreibt, dann hat man den Salat. Lässt man einen Teil unpartitioniert, so kann der eben auch nicht versehentlich beschrieben werden, das ist also sicherer.
Ah, das ergibt Sinn, danke für die Erklärung! Ist das unter Linux anders?

Holt schrieb:
Das bringt Performancenachteile, weil die TRIM Befehle ja auch übertragen und abgearbeitet werden müssen.
Und er ist nicht so schlau die TRIM Befehle zurück zu stellen, wenn ein anderer Befehl rein kommt?

Holt schrieb:
Das kann man so sagen.[Sequentielle Schreibrate einziger Unterschied]
Guuuut, das ist also der Punkt nachdem man schauen sollte.

Holt schrieb:
Die Komprimierbarkeit der Daten...
Ok, in der Realität bringen aber auch SSDs mit hoher komprimierbarer sequentieller Schreibrate manchmal Vorteile, oder?

Holt schrieb:
Teurere SSDs haben i.d.R. eine bessere Performance Consitiancy, aber die spielt bei Heimanwendern keine Rolle, die ist für Enterprise Anwendungen wichtig, wo pausenlos und stundenlange auf die SSD vor allem geschrieben wird.
Durch effizientere GC oder Trim Bearbeitung etc?

Holt schrieb:
Das alles kann eine gute günstige SSD wie die empfohlenen etwa genauso gut wie eine teure Premium SSD, sofern Du das nicht mit einer schnellen High-End CPU pausenlos und stundenlang machst.
CPU wird eine 4690K OCed, also gut, aber nicht nonplusultra.
High-End ist bei dir z.B. die 850 Pro oder erst eine Samsung XP941 oder Intel DC P3000er? Würden selbst diese keine spürbaren Unterschiede bei meinen Anwendungen bringen (außer die sequentielle Schreibrate)?



Ich meinte, wenn eine SSD keinen Strom mehr bekommt und gerade der SLC Cache dreiviertel voll geschrieben wurde, dann kann dieser nach dem Stromausfall in den normalen TLC geschrieben werden? In dem Moment wären dann ja sogar mehr Daten noch geschrieben worden (sagen wir mit 500Mib/s) als bei einer SSD ohne Turbo Cache und gleicher Schreibrate wie die Turbo Cache SSD nachdem der Cache voll ist (z.B. 250Mib/s)?

Holt schrieb:
Die 840 ohne Zusatz (Evo oder Pro) ist total veraltet und die hat das gleiche Problem mit der Performance beim Lesen alter Daten wie die Evo, weshalb ich diese beide nicht empfehle solange das nicht behoben ist.
Okay, und sonst hat keine andere Turbo Write? Und die 850 bringt auch keine Vorteile und ist teurer? (ist ja die einzige die noch im Start Post empfohlen ist)

Holt schrieb:
Ja, wie gesagt interessiert die Komprimierbarkeit nur bei SSD mit Sandforce oder Phison Controllern.
Nein, ich meine, die M550 ist sequentiell schreibend doch eh schon so schnell wie andere nur mit Turbo Write oder andere nur bei komprimierten Daten, also ist da die M550 in jedem Fall besser, richtig? (und günstiger)

Holt schrieb:
Ja, aber die SSDs sind da unterschiedlich abfällig und die mit Stützkondensatoren generell extrem robust, dafür spendiert man ihnen die Konsendatoren ja auch. Andere haben aber selbst ohne Kondensatoren praktisch keine Probleme damit, da haben die Entwickler offenbar andere Lösungen gefunden.
Nur aus Interesse, weiß man das welche da noch robust sind?

Holt schrieb:
[Kommentar zur BX100 und keine Erfahrung]
Ok, alles klar.
 
Zuletzt bearbeitet:
Kampfkuchen schrieb:
Du meinst weil sonst nichts mehr frei ist oder ist auch mit TRIM die Performance bei 99% Belegung schlechter als bei 80%?
Das hängt von der jeweiligen SSD und dem OP ab Werk ab, aber im Prinzip ja und dann kommen noch die Effekte der Fragmentierung des Filesystems hinzu, die bei 99% Füllung auch zuschlagen und die längen der Zugriffe verkürzen wird. Das hat zwar bei SSDs weit weniger Einfluss als bei HDDs, aber auch SSD sind bei langen Zugriffen schneller als bei kurzen.

Kampfkuchen schrieb:
Ah, das ergibt Sinn, danke für die Erklärung! Ist das unter Linux anders?
Das hängt sicher von Filesystem ab, aber die einzelnen Linux Filesystem und wie diese Speicherplatz belegen, kenne ich auch nicht.
Kampfkuchen schrieb:
Und er ist nicht so schlau die TRIM Befehle zurück zu stellen, wenn ein anderer Befehl rein kommt?
Das mit dem Zurückstellen ist nicht so einfach. Eine Datei hat LBA x belegt, wird gelöscht, LBA x wird aber gleich wieder von einer anderen Datein beschrieben (gerade wenn die Partition sehr voll ist nicht ungewöhnlich) und darf (und braucht) dann natürlich nicht nachträglich noch getrimmt werden, sonst wäre die neue Datei korrupt.

Wenn man TRIM Befehle zurückstellt, muss man also auch die betroffenen LBAs prüfen ob diese nicht zwischenzeitlich überschrieben wurden.
Kampfkuchen schrieb:
Ok, in der Realität bringen aber auch SSDs mit hoher komprimierbarer sequentieller Schreibrate manchmal Vorteile, oder?
Wirkliche Datenkompression hat nur der Sandforce, aber andere sind ohne schneller als der mit, bei realen Daten.
Kampfkuchen schrieb:
Durch effizientere GC oder Trim Bearbeitung etc?
Durch andere NANDs, einen schnelleren Controller, mehr Cache, bessere Algorithmen, etc. was auch immer.

Kampfkuchen schrieb:
High-End ist bei dir z.B. die 850 Pro oder erst eine Samsung XP941 oder Intel DC P3000er? Würden selbst diese keine spürbaren Unterschiede bei meinen Anwendungen bringen (außer die sequentielle Schreibrate)?
Eine 850 Pro ist High-End, unter den SATA SSD die schnellste, sie schlägt teils die M6e, aber die XP941 und vor allem die Intel DC P3000er sind natürlich noch ganze andere Geschütze und haben auch andere Anforderungen an das System. Die sind auch nur für Enthusiasten unter dem Heimanwendern zu empfehlen.

Kampfkuchen schrieb:
Ich meinte, wenn eine SSD keinen Strom mehr bekommt und gerade der SLC Cache dreiviertel voll geschrieben wurde, dann kann dieser nach dem Stromausfall in den normalen TLC geschrieben werden?
Natürlich, der Pseudo-SLC Bereich ist ja auch NAND und damit nicht flüchtiger Speicher.
Kampfkuchen schrieb:
(sagen wir mit 500Mib/s) als bei einer SSD ohne Turbo Cache und gleicher Schreibrate wie die Turbo Cache SSD nachdem der Cache voll ist (z.B. 250Mib/s)?
Das hat mit der Überlegung nichts zu tun und zumindest die 840 Evo kopiert die Daten erst im Idle vom Pseudo SLC Bereich in den normalen NAND Bereich. Außerdem gibt es keine Einheit Mib/s, es gibt MB/s (Megabyte/s), MiB/s (Mebibyte/s) und Mb/s (Megabit/s). Wie Du siehst ist die korrekte Groß- Kleinschreibung wichtig, ein kleines b steht für Bit, ein großes B für Byte.

Kampfkuchen schrieb:
Okay, und sonst hat keine andere Turbo Write?
Kann es sein, dass Du gar nichts verstanden hast? Die 840 (ohne Zustanz) hat keinen TurboWrite Pseudo-SLC Schreibcache, alle anderen aktuellen Consumer-SSD mit TLC aber schon, auch wenn Plextor den anderes nennt.

Kampfkuchen schrieb:
Nein, ich meine, die M550 ist sequentiell schreibend doch eh schon so schnell wie andere nur mit Turbo Write oder andere nur bei komprimierten Daten, also ist da die M550 in jedem Fall besser, richtig? (und günstiger)
Ja, weshalb ich die Dir ja auch schon eine ganze Weile empfehle und wenn Du die schon gekauft hättest, dann könnte ich mir diese lange Antwort hier sparen.
Kampfkuchen schrieb:
Nur aus Interesse, weiß man das welche da noch robust sind?
Die Samsungs sind offenbar auch robust, da Ausfälle bei denen extrem selten sind.
 
Mein Windows7 hat auf C:/ nur noch 10% frei. Ich merke keinen Unterschied, was die Geschwindigkeit angeht. Unfassbar, wie gefrässig heutige Programme und Windows7 sind. Beim Kaufzeitpunkt der M4 hätte ich nie gedacht, dass sie sich so schnell füllen wird. Wie gesagt, Platteninhalt nur Programme und Windows. Sonst nüscht. :p
 
Es fällt bei einer großen HDD nicht so auf, wie viel Platz Windows so mit der Zeit einnimmt, weshalb ich ja schon vor Jahren wenigstens zu einer 128GB SSD geraten haben und heutzutage wenigstens zu einer mit 240-256GB. Außer man hat Lust ständig hinter Windows her zu räumen um ihm die Bytes wieder abzuringen.
 
Hallo CBler,

ich habe mir eine MX100 mit 512GB gekauft. Da ich ohnehin fast alle Daten auf mein NAS schmeiße, sind auf meinem Computer neben Windows nur noch ein paar Programme und Spiele installiert. Also eigentlich würde eine 512GB SSD im Rechner reichen. Ich hatte allerdings gedacht, dass ich die 1TB HDD trotzdem im Rechner lasse und dort einfach z.B. den Internet-Cache oder pagefile.sys auslagere. Also überall wo häufig viele Daten geschrieben werden, um die SSD zu schonen.

Meint ihr dass das sinnvoll ist? Und wenn ja, was sollte ich alles auf die Festplatte auslagern. Momentan fallen mir der Downloads Ordner, pagefile.sys und der Internet Cache ein. Wüsstet ihr noch etwas anderes?
 
Lonely Shepherd schrieb:
hatte allerdings gedacht, dass ich die 1TB HDD trotzdem im Rechner lasse und dort einfach z.B. den Internet-Cache oder pagefile.sys auslagere. Also überall wo häufig viele Daten geschrieben werden, um die SSD zu schonen.
Das ist total unnötiger Mist, wie fast alles in den Anleitungen. Du hast mehr als genug Platz auf der SSD und kaputtgeschrieben bekommst Du die auch nicht, spar Dir die HDD. Das verlangsamt nur den ganzen Rechner.
 
Zurück
Oben