News Halbierung der SSD-Preise in diesem Jahr?

Je mehr ich über SSDs lese, desto verunsicherter werde ich.

- Vista ist nicht so richtig für das Schreib-/Leseverhalten von SSDs ausgelegt (komplett anders als HDDs),
- erst Windows 7 hat erste Unterstützung dafür (und ich hab mir erst vor wenigen Monaten Vista zugelegt!),
- undeutliche Aussagen von Microsoft, das Dateisystem (NTFS - oder ein ganz neues) für das Lese-/Schreibverhalten von SSDs erst noch zu entwickeln bzw zu optimieren - gilt das nur für Win7 oder auch für Vista?

Im Allgemeinen scheint die ganze SDD-Geschichte mit allem drum und dran noch wie in Kinderschuhen zu stecken. Ist ja auch normal.

Ich glaube, ich werde so lange auf den Umstieg auf SSDs warten, bis bei mir sowieso ein neuer Rechner dran ist (in ein bis zwei Jahren). Am besten mit SATA-III, denn in bestimmten Kombinationen ist bei SSDs wohl bereits die Grenze von SATA-II erreicht worden, und wer weiß, wie schnell die SSDs in ein bis zwei Jahren werden!
 
Zuletzt bearbeitet:
Vista funktioniert genauso gut mit SSDs wie Windows 7. Bei Windows 7 werden nur bestimmte Optimierungen bzw. Einstellungen automatisch vorgenommen, wenn eine SSD erkannt wird; bei Vista muss man das noch manuell machen.

Einen sehr schönen Überlick bezüglich der Optimierungseinstellungen wie der Abschaltung von Pre- und Superfetch findet man mit Google oder im OCZ Forum.
 
@Moros:
Ach, das ist der einzige Unterschied zwischen Vista und Win7, was SSDs betrifft? Na das ist ja beruhigend, ich dachte nämlich, daß die Unterstützung tiefer im System sitzt, z.B. im Kernel oder so...! Die Optimierungen im OSZ-Forum hab ich mir auch schon mal angeschaut, klingt sehr einleuchtend alles.

Naja, mal sehn, die 64 GB SLC-SSD von Intel find ich ja "lecker", mal sehen, wie die Entwicklung in diesem Jahr noch voran schreitet. Die Preise sollen ja aufgrund der neuen 34 nm Bauweise auch noch fallen :)


Allerdings, wenn ich mir den Artikel durchlesen, den Eggcake verlinkt hat, und dort die ganzen unter Win7 automatisch beim Erkennen einer SSD durchgeführten Einstellungen sehe, frage ich mich, ob MS für Vista nicht einfach einen Patch nachschieben kann, der dieselbe Automation unter Vista durchführen kann. Das Deaktivieren von Superfetch und der automatischen Defragmentation, und das Abschalten des Festplattenschreibcaches usw., manuell durchzuführen, ist zwar nicht ganz so schlimm, aber bestimmt auch nicht jedermanns Sache! Und Alignment nachträglich mit einem Patch zu automatisieren, ginge auch nur dann, wenn man eine SSD an ein bereits installiertes System anschließt, eine Partition erstellt (wobei dann automatisch das Alignment durchgeführt wird) und dann nie wieder die Partitionen löscht.... ach, alles nicht so einfach.
Vorausgesetzt, MS interessiert sich überhaupt für eine SSD-Optimierung unter Vista! So, wie sie selbst Vista auf einmal Heruntermachen, um die Leute auf Win7 zu trimmen, wag ich das ja wieder zu bezweifeln :D
 
Zuletzt bearbeitet:
Was in W7 kommt bzw. schon drin ist, ist automatisches TRIM, sofern dies die SSD unterstützt. Viel kann man dazu noch nicht sagen, da dies noch keine SSD tut. Mit dem nächsten FW-Update sollen die Indilinx SSDs dies jedoch können, dann wird man sehen wie gut das funkt. Dein Satz mit "auf W7 "trimmen"" passt da perfekt :D

Aber ansonsten hat W7 im Prinzip nix was Vista nicht auch schon hat/kann was SSDs betrifft. Zudem funkt das mit dem automatischen Deaktivieren gewisser Dienste noch nicht wirklich.
Über einiges kann man zudem auch streiten. Defrag aus ist klar. Jedoch Superfetch zu deaktivieren ist jetzt genauso nötig oder nicht nötig wie dies mit einer HDD der Fall ist. Ich hab's gemacht, Unterschiede spüre ich keine. Superfetch wird einfach nichtmehr wirklich benötigt, das ist alles...man kanns auch anlassen.
Dasselbe für den Indexdienst. Ich lass den an, weil ich nach wie vor möglichst schnell in gewissen Ordnern suchen will. Das sollte der User selbst entscheiden können.

Also wie gesagt: die Änderungen sind keineswegs wirklich erforderlich. Unterschiede spüre ich keine. Einzig den Defrag sollte man wohl deaktivieren (wobei auch hier die Meinungen auseinandergehen ;) ).
Was im Artikel aber klar hervorgeht ist die Frage nach der Auslagerungsdatei. Viele fragten in letzter Zeit ob man die auf der SSD lassen oder auf ne HDD verfrachten soll. Ich denke die Antwort ist klar: auf der SSD lassen.
 
"Nötig oder unnötig" - damit hast du wohl Recht. Einzig die Defragmentierung ist - wenn ich die Technik der SSD richtig verstehe - unsinnig oder sogar "schlecht" für die SSD, weil die Platzierung der Blöcke ja sowieso vom Controller vorgenommen werden... richtig?

Ich frag mich nur, was es mit dem Dateisystem auf sich hat, was SanDisk da angekündigt hat (ExtremeFS). Ich denke schon, daß man bei einer solch großen technischen Veränderung, die zwischen HDD und SSD nunmal existiert, auf ein neues Dateisystem setzen bzw. die Vorhandenen darauf optimieren sollte. Seh ich das richtig...?
 
@Defrag:
Ja, das stimmt so. Der SSD organisiert die Daten ja selbst. Da wird nicht Sektor für Sektor eine Datei geschrieben wie bei einer HDD. Fragmentierung ist ja nur "böse", weil der Lesearm der HDD dauernd rumsausen muss. In einem gewissen Masse sollen die Dateien ja auch fragmentiert sein, damit die SSD ihre Channels ausnutzen kann.
Einige sprechen davon, dass Defrag ihr System beschleunigt hat - jedoch kann ich da nicht wirklich dran glauben. Probiert hab ich's selbst nie.

@Dateisystem
Früher oder später wird höchstwahrscheinlich ein neues kommen, im Stile von ExtremeFS. Dazu ist es wohl aber noch zu früh (zumindest für eine ausgeweitete Verbreitung). Wäre jedoch durchaus interessant wenn man mal eins irgendwie antesten könnte.
 
Naja ob ein eigenes Dateisystem für eine SSD wirklich was bringt? Es wird ja sowieso jedes kommando vom Controller der SSD übersetzt...

Sinn machen würde es dann wenn der PC die Controllerlogik der SSD übernehmen würde, das würde dann nebenbei auch die pPeise senken, weil es ja auch Konkurrenz seitens der OpenSource-Szene gäbe...
 
Im Prinzip würde man sich dann den kompletten Controller ersparen...bzw. die Komplexität erheblich reduzieren, wenn sogar die gesamte Garbage Colelction über das Filesystem läuft.

Edit: Wobei (ich sage es immerwieder :D ) die Preise der SSDs heutzutage zum grössten Teil durch die hohen Flashpreise bedingt sind, nicht durch die Kosten des Controllers.
 
"Garbage Collection"? xD

Naja, ich bin mir ziemlich sicher dass der Preisunterschied zw. einer Intel und einer ST im wesentlichen nur aufgrund der Software zusammenkommt(*) - soviel besser werden die verbauten Speicherchips nicht sein bei Intel

Deswegen wärs nicht schlecht wenn man da etwas mehr Wettbewerb schaffen würde - nur ist es atm halt kaum möglich die Software (s)einer SSD zu beeinflussen weil alles fix verbaut und "geschützt" ist


(*) Ja ich weiß die Intel hat 2 Speicherkanäle mehr
 
Ach ja, an die "Übersetzung" des Controllers hab ich ja gar nicht gedacht... aber dann verstehe ich nicht, wie SanDisk dann dazu kommt, von einer 10fachen Geschwindigkeit zu sprechen, wenn man ihr Dateisystem verwendet...?

Wenn man auf den SSD-Controller NICHT verzichten möchte, könnte man ja das Dateisystem (bsp. NTFS) vielleicht so "ummodeln", daß es sich eben nicht um Sektoren usw. kümmert, sondern den ganzen Datenstrom quasi "blind" zum Controller schickt, der ja sowieso allein entscheidet, wohin welcher Datenblock hinkommt. So hätte das Dateisystem eine (oder mehrere) Aufgaben weniger. Keine Ahnung ob man dadurch Geschwindigkeit gewinnt...

Das ist nur so eine Theorie, ich geb zu, ich hab nicht wirklich Ahnung von der Komplexität eines Dateisystems... :p
 
SSDs gabs auch schon vorher, z. B. von Sun oder kleineren Anbietern, insbesondere gibt es auch spezielle Hersteller für Server-SSDs usw., unter anderem Mtron. Intel ist wie so oft nur der bekannteste Name, niemand sollte sich hier weißmachen, dass die Intel-SSDs in ihrer Klasse die besten sind.

endlich mal jemand der weiß wovon er redet. STEC, Mtron, Memoright und Micron das sind die hersteller für das enterprise segment.
 
Doch in ihrer Klasse sind sie am besten. Nämlich in der "Consumer-Klasse".
 
Wolfsrabe schrieb:
"Nötig oder unnötig" - damit hast du wohl Recht. Einzig die Defragmentierung ist - wenn ich die Technik der SSD richtig verstehe - unsinnig oder sogar "schlecht" für die SSD, weil die Platzierung der Blöcke ja sowieso vom Controller vorgenommen werden... richtig?
Im Prinzip richtig, aber wenn ein Dateisystem so programmiert ist, dass es im Betrieb auf Magnetplatten möglichst nicht zu der dort schädlichen Fragmentierung kommt, dann ist dieses Verhalten meiner Meinung nach grundsätzlich wünschenswert, da Speicher - egal welcher - immer grundsätzlich gleichartige Eigenschaften hat und wenig Fragmentierung ein Zeichen für ein gutes Dateisystem ist. Vor allem bei schlechten Controllern (und in fünf Jahren werden die jetzigen auch eher schlecht dastehen), die nicht so "souverän" sind, kann man Unterschiede vermuten. Ein "Scheiß auf Fragmentierung" ist also nicht drin.
Recht hast du bei dem, was man Online-Defragmentierung nennt, diese ist bei SSDs unnötig und kann für alle Partitionen auf einer SSD abgeschaltet werden.

Wolfsrabe schrieb:
Ich denke schon, daß man bei einer solch großen technischen Veränderung, die zwischen HDD und SSD nunmal existiert, auf ein neues Dateisystem setzen bzw. die Vorhandenen darauf optimieren sollte. Seh ich das richtig...?
Eine Optimierung bzw. SSD-Modi wird es sicher geben. Für Flash-Speicher gibt es aber auch eigene Dateisysteme für verschiedene Aufgaben (z. B. Kleinstgeräte), auf sowas für Windows solltest du aber nicht warten :)

Wolfsrabe schrieb:
Wenn man auf den SSD-Controller NICHT verzichten möchte, könnte man ja das Dateisystem (bsp. NTFS) vielleicht so "ummodeln", daß es sich eben nicht um Sektoren usw. kümmert, sondern den ganzen Datenstrom quasi "blind" zum Controller schickt, der ja sowieso allein entscheidet, wohin welcher Datenblock hinkommt. So hätte das Dateisystem eine (oder mehrere) Aufgaben weniger. Keine Ahnung ob man dadurch Geschwindigkeit gewinnt...
Das Problem ist, dass das Dateisystem auch die Verzeichnisstruktur auf dem Laufwerk speichert. Irgendwie muss man ja seine Daten und Metadaten wiederfinden. Wenn man das so machen würde wie du das vorschlägst, müsste man wahrscheinlich neben den Dateisystemen auch im Bereich I/O-Subsysteme der Betriebssysteme, IDE/SATA und Controller etwas ändern. Und so aufwändig ist das Umschichten im Controller wohl nicht, dass sich das lohnt. Außerdem ist es in Extremfällen ein Problem, wenn man keinen direkten Zugriff auf die Hardware hat. Übrigens gibt es etwas ganz ähnliches schon: http://en.wikipedia.org/wiki/Object_storage_device

Eggcake schrieb:
Doch in ihrer Klasse sind sie am besten. Nämlich in der "Consumer-Klasse".
...was sich auch im Preis wiederspiegelt. Und so viel schlechter ist der Indilinx anscheinend nicht.
 
Microsoft und Samsung versuchen ja angeblich für Vista (und damit wohl auch für Win7) das Zugriffsverhalten des Betriebssystems auf SSDs zu optimieren. Die SSD-Controller-Hersteller wissen genau, wie ihr Gerät arbeitet, und MS weiß ebenso genau, wie sich ihr Betriebssystem verhält bzw ihr Dateisystem arbeitet. Es sollte doch also eigentlich bald mal zu einem Ergebnis kommen oder?

So wie Vista bisher auf der Systemplatte "herumtrampelt" - also mehrfach Lese- und Schreibzugriffe tätigt durch Timestamp, Prefetch und was weiß ich nicht noch alles, ist das für die MLC-SSDs nicht sonderlich gut.

Kann mir jemand sagen, ob die Auslagerungsdatei, wenn sie auf eine SSD gelegt wird, auch vom SSD-Controller hin- und hergeschoben wird (Stichwort "Wear-Levelling") ?
 
Zurück
Oben