SSD(-Lösung) gesucht: 60/64GB, <100€, Windows XP

hänsn1523

Cadet 4th Year
Registriert
Apr. 2008
Beiträge
121
Hallo,

wie im Titel bereits erwähnt: suche eine SSD 60/64GB, unter 100€, welche unter XP an einem SATA2-Port (Intel ICH10R) möglichst lange ihren Dienst verrichten soll.

Ich habe mich zu dem Thema nun dumm und dämmlich recherchiert , kann aber immer noch keine „befriedigende“ Lösung finden:
1)Da XP standardmäßig kein TRIM unterstützt, sollte man eine SSD wählen, bei der der Hersteller ein TRIM-Tool für XP bietet --> gibts nur bei OCZ(?) – Welches Modell?
2)Andererseits habe ich gelesen, dass dieses Tool auch nur bedingt funktioniert/hilft und es doch besser wäre, auf eine SSD von Samsung (die 470 Serie?) zu setzen, da diese eine gute Garbage Collection besitzt(?)
3) In Testberichten (auch von hier) bekommt aber besonders die Crucial M4 immer wieder Empfehlungen, auch was Zuverlässigkeit angeht. Und mit der Firmware 009 soll anscheinend auch hier die Garbage Collection sehr verbessert worden sein. Allerdings hat diese SSD einen Marvell-Controller (?), der generell wieder schnell an Performance verliert unter XP (?)
???

Mir ginge es vor allem um die Zuverlässigkeit der SSD, dafür würde ich beispielsweise auch die „geringe“ Schreibrate von 95MB/s der M4 in Kauf nehmen. Wenn aber diese 95MB/s „rasch“ noch weiter sinken würden, wäre natürlich besch****.
(Sollte man dann gleich eine SSD kaufen, die anfangs noch 250MB/s schafft, sodass nach 2 Jahren wenigstens noch 100MB/s drinn sind? xD)
Fragen über Fragen…..

HELP!

PS: Bitte keine Posts in Richtung "sch** xp/ benutz doch win7".
-->Mir ist klar, dass ich mir mit Win7 das ganze sparen könnte; ich hab auch schon eine SSD unter Win7 laufen - aber in diesem Fall gehts nicht anders (Software-/Hardware- bzw. Treiberbedingt).
 
Ich hab unter XP die Intel X25-M G2 80GB genutzt. Die Intel SSD-Toolbox kann so eine Art TRIM-Befehl ausführen. Im übrigen sieht die Software im Gegensatz zu der von OCZ auch wirklich fertig aus.
 
Schreibst du permanent rießige Dateien hin und her? Wozu dann die Samsung, die schreiben nur schnell. aber schreiben tust du nicht so oft wie lesen, und da nicht die ganze Zeit 100GB in rießen Dateien in GB-Größe.

--> m4, zuverlässig, bestes Preis/Leistungsverhältnis.
Allerdings kann ich nciht mit Sicherheit sagen, was es mit den TRIM Tools für Win XP auf sich hat.

Falls noch nciht bekannt, sehr empfehlenswerter Artikel:
http://www.pc-experience.de/wbb2/thread.php?threadid=30040

Googel findet gleich:
http://forum.crucial.com/t5/Solid-S...al-M4-64gb-Windows-XP-Installation/td-p/60531


Wie gesagt, habe mit SSDs in Verbindung mit XP keine praktische Erfahrung und kann auch nur googeln.
Ansonsten empfehle ich die m4 zu 100%
 
Ich würde dir auch zur Crucial M4 raten... gerade mit dem update auf firmware 009 hat sich die garbage control nochmal DEUTLICh verbessert...

hab selber die 128er in meinem Macbook pro und bereu den kauf nicht eine sekunde :d
 
Was meinst Du damit der Marvel Controller verliert unter XP generell Leistung?

Davon habe ich noch nichts gehört.

Er benötigt für opt. Performance einen nativen SATA 6GB Anschluss und das wars...
 
hänsn1523 schrieb:
Allerdings hat diese SSD einen Marvell-Controller (?), der generell wieder schnell an Performance verliert unter XP (?)
Wo hast Du das denn her?
Du solltest bei der m4 wie bei alle SSDs auf das richtige Allignment der Partitionen achten, weil XP das von sich aus falsch anlegt und Du hast kein TRIM, aber wie Du schon selbst festgestellt hast, ist die GC mit der 009er FW deutlich effizienter geworden. Im Zweifel kannst Du ihr noch helfen und ein paar GB unpartitioniert lassen.
hänsn1523 schrieb:
Mir ginge es vor allem um die Zuverlässigkeit der SSD, dafür würde ich beispielsweise auch die „geringe“ Schreibrate von 95MB/s der M4 in Kauf nehmen. Wenn aber diese 95MB/s „rasch“ noch weiter sinken würden, wäre natürlich besch****.
Die Schreibrate wird Dir ohne TRIM bei der m4 erst dann abfallen, wenn Du eine größere Datenmenge am Stück geschrieben hast, als der Controller vorher an freiem Speicherplatz bekannt war. Dann erfährt er erst durch das Überschreiben der Adressen, welche Daten jetzt ungültig sind, hat aber keine Zeit für die GC und muss das Aufräumen (und Kopieren noch gültiger Daten) beim Schreiben selbst mit erledigen.
hänsn1523 schrieb:
(Sollte man dann gleich eine SSD kaufen, die anfangs noch 250MB/s schafft, sodass nach 2 Jahren wenigstens noch 100MB/s drinn sind? xD)
Welche SSD mit 60/64GB schafft denn mit realen Daten bitteschön 250MB/s? Mit solchen Werten weden nur SF-SSDs beworben und von denen schafft keine, egal ob SF-1222 oder SF-2281 (mit MLC, SLC liegt nicht im Preisrahmen) auch nur die 95MB/s der m4 wenn die Daten nicht komprimierbar sind.
 
Die Samsung 470 ist SATA-2, aber hat im Inneren eine 1,8"-Platine. Damit kann man später ggf. auch Netbooks/Notebooks wiederbeleben. Ich habe damit z.B. eine 2,5"-IDE-HDD ersetzt, da der gewonnene Platz für einen SATA-IDE-Adapter ausreicht. Auch sonst eine sehr gute und unproblematische SSD.

Die intel X-25 schreibt relativ langsam, schafft für die Klasse aber viele IOPS, was gut ist bei vielen kleinen I/Os. Recht zuverlässig und hat eben auch 16gb mehr als 64gb. Das Trim-Tool löscht meines Wissens aber aus unerfindlichen Gründen Wiederherstellungspunkte.

Die Crucial ist mit SATA3 am schnellsten und zukunftssichersten.

Garbage Collection haben sie allesamt. Dass TRIM unter XP fehlt, ist nicht wirklich schlimm, es sei denn Du schreibst die SSD immer wieder randvoll, gefolgt von kontinuierlichem Überschreiben und Überschreiben und Überschreiben.
 
Zuletzt bearbeitet:
@Demolition-Man: Hört sich gut an - werd nochmal explizit zur 470 recherchieren.
@Nacho_Man: Ersetzen diese Tools wirklich einen "guten" win7-TRIM-Treiber.
Ich habe nämlich gelesen, dass eigtl. bei jedem Löschvorgang TRIM benötigt wird. Wie kann dann 1x am Tag TRIM-Tool-Benutzen ausreichen... oder denk ich da falsch?
@Shio: VM hab ich noch nicht probiert - hab so gut wie gar keine Ahnung davon, aber bringt das Arbeiten mit einer VM nicht enorme Performance-Einbußen?
@craxity: gleiche Frage wie an Demolition-Man und die konkret genannte SSD ist halt schon weit über meinem Preislimit
@smartbomb: Anwendungsbereich: Audio-Aufnahmen und Grafikbearbeitung (klar als Datenlager dient eine 2TB-Platte, aber temporär werden schon oft große Daten geschrieben/gelöscht). Die 95MB/s der M4 würden mir schon reichen, aber wenn davon halt noch was wegbröckelt...
@Corristo123 + founti: also kann man die M4 schon auf eine Stufe mit der Samsung 470 stellen?
@ founti: gut, die 128er Version hat von Haus aus aber schonmal eine Schreibrate von 175MB/s
@AudiRS6+ + Holt: Das mit dem Marvell-Controller hab ich in anderen Threads&Tests gelesen...also dass hier die Leistung ohne TRIM schneller einbrechen soll, wie bei z.b. Sandforce2xxx-Controllern. (kann aber auch sein, dass damit schon wieder eine alte Marvell-Version gemeint war)
@Holt: Dass mit dem Alignment ist mir klar, wäre ja keine Hürde... auch dass mit den xx% freilassen habe ich gelesen (bei OCZ ist ja das Hardwareseitig schon eingerichtet...irgendwie^^)
bzgl. Schreibraten-Einbruch: d.h. wenn ich immer ca 15GB freihalte und am Tag (übertrieben) höchstens 3mal 2GB-Dateien erzeuge, dürfte ich keine Probleme bekommen? - Ist das dann auf alle SSDs übertragbar?
und bzgl. der hohen Datenraten: habe zum Schluss, ehrlich gesagt, nicht mehr auf Real-Tests geachtet. (nur eben z.b. die theoretischen 170MB/s Rate bei der Samsung 470 gesehen) --> Wollte damit nur generell fragen, ob man so überhaupt taktieren könnte...(also schnelle SSD kaufen, damit nach 1 Jahr wenigstens noch eine gute Rate da ist)
Zusatzfrage+Verständnisfrage: Wenn ich also (übertrieben) eine 2GB-Datei erzeuge, diese Datei lösche und gleich darauf wieder eine 2GB-Datei erzeuge - ist das dann schon eine "schlechte" Aktion, oder ist der Controller (bei allen SSDs) so intelligent und benutzt dann für die zweite Datei andere Zellen als für die erste?

sry für den "@-Stil" aber mit Zitaten wärs glaub ich noch unübersichtlicher geworden^^

PS: bin jetzt pennen und melde mich morgen nach der Arbeit wieder. danke soweit schonmal an alle!
 
Zuletzt bearbeitet:
hänsn1523 schrieb:
Zusatzfrage+Verständnisfrage: Wenn ich also (übertrieben) eine 2GB-Datei erzeuge, diese Datei lösche und gleich darauf wieder eine 2GB-Datei erzeuge - ist das dann schon eine "schlechte" Aktion, oder ist der Controller (bei allen SSDs) so intelligent und benutzt dann für die zweite Datei andere Zellen als für die erste?
Die SSD kann intern nur in großen Blöcken (128kb oder 256kb o.ä.) auf die einzelnen Chips schreiben. Vom NTFS bekommt es aber Stückchen von 4kb bis max. 64kb geschickt. Entweder die SSD hat einen großen Eingangscache, wo sie soviele Daten sammelt oder die muß halt immer raus schreiben.
Ist ein 128k-Block belegt, muß sie den lesen, ändern, und komplett zurückschreiben, was natürlich langsam ist. Also werden z.B. 4kb in einen großen leeren Block geschrieben und 124kb leer gelassen. Die nächsten 8kb gehen entsprechend wieder in einen anderen leeren Block. Das muß sich die SSD merken. Da eh alles irgendwo verteilt wird, kann die SSD nebenher auch immer die Leerblöcke auswählen, die bisher am seltensten beschrieben wurden und defekte Blöcke durch Reserveblöcke ersetzen. Die "Reserve" werden dabei mit untergewurschtelt, steht aber "offiziell" nicht zur Verfügung, sind aber so ca. 20% der Nennkapazität zusätzlich. Die Reserve wird also gleichermaßen mit abgenutzt.
Wenn das Garbage-Collection loslegt (nichts los oder keine freien Blöcke mehr vorhanden), weiß die HDD, dass da viele Blöcke fast leer sind und fängt an diese vielen Datenfragmente zu lesen und zu komplett befüllten Blöcke umzuschichten. Die "angefangenen" Blöcke werden somit in großer Zahl wieder frei.

Beim TRIM bekommt die SSD ZUSÄTZLICH die Information, dass z.B. die 4kb Nutzdaten in dem 128kb Block hinfällig sind. Der Block muß also nicht umgeschichtet werden und wird sofort als frei markiert. Das spart Zeit und abnutzende Schreibvorgänge beim nun obsoleten Umkopieren.
hänsn1523 schrieb:
sry für den "@-Stil" aber mit Zitaten wärs glaub ich noch unübersichtlicher geworden^^
Warum wurde ich nicht erwähnt ?:heul:

PS: Auch wenn mich jetzt alle schlagen, ich habe die Erfahrung gemacht, dass Defragmentieren bei der "OCZ Core Series" und "intel X25" durchaus etwas bringt. Vermutlich sortieren die SSDs die Daten entsprechend der Sektoradressen in diese Blöcke ein. Habe ich eine 1gb-Datei, dann reicht es, wenn ich 8x128kb-Blöcke lese und übertrage. Sind da überall Lücken und ist das nicht Round-Robin über die Chips verteilt muß man überall warten und Latenzen einbeziehen und womöglich mehr große Blöcke lesen und filtern.
Es geht natürlich trotzdem alles viel schneller als bei einer HDD.
 
Zuletzt bearbeitet:
hänsn1523 schrieb:
Ich habe nämlich gelesen, dass eigtl. bei jedem Löschvorgang TRIM benötigt wird. Wie kann dann 1x am Tag TRIM-Tool-Benutzen ausreichen... oder denk ich da falsch?
Das hängt vom Tool ab, es bringen nur solche Tools etwas, die wirklich TRIM verschicken die auch bei der SSD ankommen. Ob der XP Treiber überhaupt TRIM befehle versteht oder Tools wie Intel SSD Toolbax diese über andere ATA Kommandos "tunnnelen", kann ich Dir aber nicht sagen.

Natürlich ist es optimal, wenn der Controller via TRIM sofort beim Löschen erfährt, welche Daten jetzt ungültig sind. Erfährt es das nur einmal pro Tag oder pro Woche, so hat er diese ungültigen Daten vielleicht schon mal intern kopieren müssen und die SSD ist für ihn im Schnitt voller, weil er weniger freien Platz zur Verfügung hat.
hänsn1523 schrieb:
@Shio: VM hab ich noch nicht probiert - hab so gut wie gar keine Ahnung davon, aber bringt das Arbeiten mit einer VM nicht enorme Performance-Einbußen?
Hängt von der Software ab, aber mit dem VMware Player kannst Du es ja mal kostenlos probieren und solnage nur eine VM gleichzeitig läuft funktionier der sehr gut. Wenn das Problem allerdings Hardwaretreiber sind, die unter Win7 nicht funktionieren, dann wird Dir das kaum weiterhelfen.
hänsn1523 schrieb:
Anwendungsbereich: Audio-Aufnahmen und Grafikbearbeitung (klar als Datenlager dient eine 2TB-Platte, aber temporär werden schon oft große Daten geschrieben/gelöscht). Die 95MB/s der M4 würden mir schon reichen, aber wenn davon halt noch was wegbröckelt...
Wie groß sind die großen Dateien? Wieviel wird auf einmal gelöscht bzw. zwischen den Löschvorgängen geschrieben? Soviel sollte unpartitioniert bleiben, wenn kein TRIM möglich ist.
hänsn1523 schrieb:
also kann man die M4 schon auf eine Stufe mit der Samsung 470 stellen?
Die m4 steht eigentlich in jeder Hinsicht eine Stufe höher als die Samsung 470, leider auch preislich. Nur bei der Zuverlässigkeit dürfte Gleichstand herrschen.
hänsn1523 schrieb:
die 128er Version hat von Haus aus aber schonmal eine Schreibrate von 175MB/s
Mit der aktuellen 009er FW erreicht die Crucial m4 128GB etwa 200MB/s schreiben, um die ging es doch hoffentlich hier.
hänsn1523 schrieb:
@AudiRS6+ + Holt: Das mit dem Marvell-Controller hab ich in anderen Threads&Tests gelesen...also dass hier die Leistung ohne TRIM schneller einbrechen soll, wie bei z.b. Sandforce2xxx-Controllern. (kann aber auch sein, dass damit schon wieder eine alte Marvell-Version gemeint war)
Das ist keine Eigenschaft des Marvell Controllers sondern war eine Sache der alten FW von Crucial. Ist mit der 009er aber nicht mehr so.
hänsn1523 schrieb:
@Holt: Dass mit dem Alignment ist mir klar, wäre ja keine Hürde... auch dass mit den xx% freilassen habe ich gelesen (bei OCZ ist ja das Hardwareseitig schon eingerichtet...irgendwie^^)
Hardwareseitig wohl nicht, das dürfte eine Frage der FW sein. Aber das haben alle SSDs, denn es sind bei denen mit 60/64GB immer 64GiB (also 64*1024^3 Bytes) NAND installiert, der User kann aber nur auf 60 oder 64 GB (also 60/64 *1000^3 Bytes) zugreifen. Das sind 4,7GB bzw. 8,7GB Flash, auf die der User nicht zugreifen kann. Nun stehen diese dem Kontroller aber nicht alleine für Userdaten und damit für die GC zur Verfügung, er muss da auch eine Verwaltungsdaten unterbringen. Das sind beim Sandforce mehr, schon wegen der aufwendigeren Fehlerkorrektur, dies er den Herstellern erlaubt auch minderwertigere NANDs zu verbauen. Sandforce RAISE Fehlerkorrektur braucht z.B. ein ganzes Die, also nicht wneiger als 4GiB (oder 8, ja nach NAND) nur für sich. Damit bleibt also unter Umständen sogar weniger für Userdaten als bei Samsung oder Marvell.

Prakttisch dürfte aber die Datenkompression dem Sandforce helfen oder immer etwas mehr Flash frei zu haben als andere SSDs, sofern die Daten auch einigermassen komprimierbar sind und nicht z.B. die NTFS Datenkompression benutzt und die SSD stark gefüllt wird.
hänsn1523 schrieb:
bzgl. Schreibraten-Einbruch: d.h. wenn ich immer ca 15GB freihalte und am Tag (übertrieben) höchstens 3mal 2GB-Dateien erzeuge, dürfte ich keine Probleme bekommen? - Ist das dann auf alle SSDs übertragbar?
Richtig, aber es kommt auf die Art des freihaltens an. Frei sind für den Controller ohne TRIM nur logische Adressen, die niemals beschrieben wurden! Damit das Filesystem eine Adresse niemals beschreiben kann, sollte man diese gleich von Anfang an (oder nach einem Secure Erease) unpartitioniert lassen. Bei SSDs mit einem effizienten GC wie der Samsung 470 und Crucial m4 (009er FW) sollte das funktionieren, für andere kann ich das jetzt pauschal nicht sagen.

Beim Sandforce hat man ja immer einen Einbruch der Schreibrate nach dem erstmaligen Beschreiben der NANDs (der bezieht immer NANDs in den Betrieb ein). Das ist der Übergang vom Neu- in den Normalzustand und bei allen Sandforce SSDs normal, bei anderen SSD dagegen nicht vorhanden. Hardwareluxx hat das in diesem Test von SF-2281 SSDs untersucht und kam auf etwa 25% Einbruch bei 120GB mit synchronem/Toggle-NAND und 40% mit asynchronem NAND.
durawrite.png

hänsn1523 schrieb:
Wollte damit nur generell fragen, ob man so überhaupt taktieren könnte...(also schnelle SSD kaufen, damit nach 1 Jahr wenigstens noch eine gute Rate da ist)
Auchso, Du meinst: Wenn ich von 250MB/s start und 50% verliere habe ich am Ende mehr als wenn ich 50% von 100MB/s verliere. Die 170MB/s der Samsungs (470 & 830) sind übrigens das Limit für 64GB SSDs (sofern die Daten halt nicht extrem komprimierbar sind).
So einfach ist es leider nicht, da dies eben sehr von der jeweiligen SSD abhängt, aber mit der richtigen SSD, etwas unpartitionierem Platz fürs GC osollten sich deutlich spürbare Einbrüche im Alltag vermeiden lassen, zumindest solange nicht undgewöhnlich große Datenmenge geschrieben werden.
hänsn1523 schrieb:
Zusatzfrage+Verständnisfrage: Wenn ich also (übertrieben) eine 2GB-Datei erzeuge, diese Datei lösche und gleich darauf wieder eine 2GB-Datei erzeuge - ist das dann schon eine "schlechte" Aktion, oder ist der Controller (bei allen SSDs) so intelligent und benutzt dann für die zweite Datei andere Zellen als für die erste?
Aus zwei Gründen ja:
1. Lies bitte mal meine Erklärung von der Funktionsweise eines SSD Controllers, TRIM und GC.
2. Windows überschreibt den Platz von gelöschten Dateien nicht sofort, sondern legt neue erstmal auf anderen logischen Adressen an. Wenn Du das also oft und schnell genug wiederholst, dann kann Deine ganze Platte vollgeschrieben sein, nur der für den MFT reservierte Bereich wird davon ausgenommen. Deswegen sollte man ja auch einen Bereich unpartitioniert lassen, wo keine Partition ist, kann nichts geschrieben werden (sofern man keine Verschüsselung der ganze Platte vornimmt).
 
Das Trimtool von Intel sollte man einmal die Woche ausführen.
In einem alten Laptop hatte ich die SSD auch mit WinXP in Betrieb.
Klappte wunderbar, bis der Laptop verreckte :D
 
O&O Defrag 14 hat ein TRIM-Tool, das man per Dienst oder auch manuell ausführen kann. Beim Dienst glaube ich ist die kleinste Einstellung alle 6 Stunden.

Ob es wirklich funktioniert, kann man bei TRIM ja leider nicht so einfach sagen, ich habe das eine Weile auf dem alten Notebook mit XP genutzt, und es schien alles richtig zu laufen, die SSD ist auch nie stärker eingebrochen.
 
@Kowa: Das einzige was man also machen kann, wäre der SSD immer mal wieder Zeit zu lassen um Garbage Collection durchzuführen?...Aber irgendwelche Windows-Prozesse greifen ja immer auf die SSD zu - Absolute "Schreibruhe" wirds ja nie geben...oder muss man das wieder relativ sehen (wenig Schreibbefehle=Idle)?
Aja – hab dich nicht ignoriert^^ - war nur anscheinend schon am Verfassen meiner Antwort, wie du gepostet hast^^
@Holt: Gut, aber wo finde ich sozusagen einen „Guide“, welche TRIM-Tools ihren Dienst wirklich verrichten^^
bzgl. VM: einmal wären es die Treiber, und zum anderen hab ich auch kaum Ahnung davon, …bis das jetzt dann alles zufriedenstellend laufen würde…das Kapitel spar ich mir lieber ;)
bzgl. SSD: Zusammenfassend: bei M4 oder 470 einfach richtig alignen und 10GB (soviel erzeuge/lösche ich maximalst) unpartitioniert lassen (damit wäre ich auf der sichere Seite). Und ähnlich wie die Frage an Kowa: Wie löse ich Garbage Collection aus (bzw. schaffe die nötige Idle-Zeit)?
@Nacho_Man: Das Zeitintervall fürs Ausführen des TRIM-Tools dürfte abhängig von der Beanspruchung der SSD sein, denk ich mal..
@etheReal: Den Drecks-Sch****, was die Software bzw. der Hersteller versprach, hab ich auch geglaubt. Vor allem, nachdem ich immer mal wieder die Ereignis-Liste gecheckt hab und mich überzeugen konnte, dass der Dienst regelmäßig (wenn der PC an ist) seine Aufgabe erledigt. (Bild 1). Nach einem halben Jahr, habe ich aber mal den detaillierten Bericht angesehen und durfte dann lesen, dass die Optimierung kein einziges Mal wirklich durchgeführt wurde -.- (siehe Bild 2).

Eine ähnliche Befürchtung hab ich auch bei den Hersteller-TRIM-Tools (vor allem bei OCZ).
Würde mir schon eine Intel-SSD kaufen und dann ein "Skript" basteln, dass das TRIM-Tool alle 30min läuft - wenns nur sowas wie eine Garantie gäbe, dass das auch 100%ig funktioniert^^

Ich denke, ich werde dann gleich zu einer SSD greifen, die besser für XP gerüstet ist (M4 oder 470).
Im Moment tendiere ich noch zur 470, da diese theoretisch eine höhere Schreibrate liefert. (Einen Real-Test-Vergleich beider SSDs habe ich nicht gefunden)
 

Anhänge

  • 001.JPG
    001.JPG
    18,1 KB · Aufrufe: 129
  • 002.JPG
    002.JPG
    16,6 KB · Aufrufe: 127
hänsn1523 schrieb:
Gut, aber wo finde ich sozusagen einen „Guide“, welche TRIM-Tools ihren Dienst wirklich verrichten^^
Gute Frage, ich habe schon angefangen ein wirkliches TRIM Testtool zu schreiben, aber es wird noch ein paar Tage dauern, bis das halbwegs fertig ist.
hänsn1523 schrieb:
Zusammenfassend: bei M4 oder 470 einfach richtig alignen und 10GB (soviel erzeuge/lösche ich maximalst) unpartitioniert lassen (damit wäre ich auf der sichere Seite). Und ähnlich wie die Frage an Kowa: Wie löse ich Garbage Collection aus (bzw. schaffe die nötige Idle-Zeit)?
Wenn Du im Rythmus eines halben Stunde liest und löscht, dann könnte das eng werden. In dem Fall müsstest Du wohl eine 128GB SSD nehmen und da soviel Platz unpartitioniert lassen, wie über diese ganzen Schreibvorgänge so zusammenkommt um sicher zu gehen, denn erst danach wird die SSD auch wirklich mal lange genug idle sein. Wie lange die einzelnen SSDs wirklich mal idle sein müssen und ob kurze Systemzugriffe dabei stören, kann ich Dir aber nicht sagen.
hänsn1523 schrieb:
Würde mir schon eine Intel-SSD kaufen und dann ein "Skript" basteln, dass das TRIM-Tool alle 30min läuft - wenns nur sowas wie eine Garantie gäbe, dass das auch 100%ig funktioniert^^
Intels Tool soll schon funktionieren, da habe ich bisher nichts gegenteiliges gehört. Es macht(e?) auf AMD Systemen mit dem AMD-AHCI Treiber Streß, weil es den als RAID erkannte. Kann inzwischen aber behoben sein, dass weiß ich nicht.
hänsn1523 schrieb:
Ich denke, ich werde dann gleich zu einer SSD greifen, die besser für XP gerüstet ist (M4 oder 470).
Im Moment tendiere ich noch zur 470, da diese theoretisch eine höhere Schreibrate liefert. (Einen Real-Test-Vergleich beider SSDs habe ich nicht gefunden)
Am besten für XP gerüstet waren eigentlich die alten Intel G2 Postville, denen hat nicht mal ein falsche Alligment soviel ausgemacht und dazu die Toolbox, aber neu bekommst Du die nicht mehr.
 
hänsn1523 schrieb:
@Kowa: Das einzige was man also machen kann, wäre der SSD immer mal wieder Zeit zu lassen um Garbage Collection durchzuführen?...Aber irgendwelche Windows-Prozesse greifen ja immer auf die SSD zu - Absolute "Schreibruhe" wirds ja nie geben...oder muss man das wieder relativ sehen (wenig Schreibbefehle=Idle)?
Kann ich ehrlich gesagt nicht sicher beantworten, aber jemand hat das mal mit einer Crucial C300 getestet:
http://www.anandtech.com/show/3812/the-ssd-diaries-crucials-realssd-c300/8
die SSD 20 Minuten Random beschrieben und dann 3h gewartet, hatte aber wenig Erfolg mit dem "Idle-GC" wie er es nennt. Womöglich aber ein Fehler in der Methodik. Wenn er ein Filesystem hat und Dateien schreibt, dann beschreibt das Filesystem womöglich den gesamten Platz und spätere Zugriffe müssen trotzdem immer erst lesen, weil die SSD ohne TRIM nichts mitbekommt, ob was frei ist. Die Diagramme sind aber schön :)

Als TRIM-Tool gibt es auch den "AS FreeSpaceCleaner" (das ist der mit dem AS-SSD-Benchmark), wo einfach nur leere Bereiche mit Hex00 überschrieben werden. Das macht auch Secrure-Erase. Der Unterschied ist, dass AS-Cleaner statt 00 auch FF schreiben kann, was manche SSD dann als leer interpretieren.

Ob 00 oder FF kann man womöglich ausprobieren, wenn die SSD es als "leer" interpretiert, müßte es meinem Verständnis nach schneller gehen.
 
Kowa, Du hast den Test nicht verstanden und der gute Anand hat damals auch nicht wirlich verstanden, was da abgeht. Obendrein war das Idle-GC der C300 in der damaligen 002er FW auch nicht allzu agressiv. In der untersten Kurve sieht man aber schon einen Unterschied zu der direkt darüber: Der Fall der Schreibrate (die steile Flanke links) erfolgt erst später und die Kurve ist im ganze höher. Bei einem agressiven GC wäre die Schreibrate erst nach 20% der Kapazität, also so bei 25 bsi 30GB abgefallen und die Kurve dann aber tiefer verlaufen und kontinulierlich angestiegen. Man sieht das an der Crucial m4 mit der aktuellen 009er FW:

m4-0009-torture_575px.png


Hier hat der Controller trotz der Folter die von ihm als frei erkannten Pages zusammengefasst und kann daher über die frei Kapazität (hier nur die ab Werk vorgesehene) mit voller Geschwindigkeit schreiben, aber eben halt nur die ersten paar GB. Dann hat er keine freien Flashpages mehr und muss sie sich schaffen. Dazu kopiert er aus den Blöcken die Daten alle Pages die er als gültig ansieht (weil deren LBAs eben noch nicht überschrieben wurden) und löscht den Block. Da eben mit der Zeit immer mehr LBAs überschrieben werden und damit immer weniger Daten noch als gültig angesehen und daher kopiert werden, steigt die Schreibrate langsam an.

Die Samsung 830 geht da übrigens anders vor:

ssd830-aftertorture-60minssm.jpg


Bei der fällt die Schreibrate gleich ab, die GC hat also den freien Speicherplatz der ja schon ab Werk bei jeder SSD da ist, nicht so grundlegend aufgeräumt. Dafür organisiert sie sich während der Phase des langsamen Schreibens und erreicht daher am Ende wieder die volle Schreibleistung. Bei der dürfte es wohl nicht so viel bringen, wenn man einen Teil unpartitioniert lässt. Da dürfte die Schreibrate vermutlich dann zwar weniger tief abfallen, aber sie wird wohl kaum über die ganze freie Kapazität hinweg hoch bleiben.
 
Zuletzt bearbeitet:
Zurück
Oben