News Intel veröffentlicht neue Firmware für SSDs

Hi,
Steve says schrieb:
Am 80 Prozent Bug hat sich aber nichts geändert oder?
Ist dazu schon was bekannt ?
Otti schrieb:
Würd mich jetzt interessieren ob Intel auch für die E Serie etwas rausbringt.
Gleiche Frage: Ist dazu schon was bekannt ?
dylan1982 schrieb:
bei SSDs keine Fragmentierung vorkommt bzw. diese zu vernachlässigen sei und man daher nie defragmentieren müsste. (..) Fragmentierung nun bei SSDs "spürt", also ob diese zu vernachlässigen ist oder nicht?
SSDs teilen die Dateien noch viel mehr in einzelne Fragmente auf, als normale Festplatten, um eine gleichmäßige Abnutzung (und damit Verlängerung der Lebenszeit) aller Speicherzellen zu erreichen, denn diese sind nicht beliebig viel mal wieder beschreibbar, und sollten eben gleichmäßig beschrieben werden.
Eigentlich ist die starke Fragmentierung zu vernachlässigen, da die SSD im Gegensatz zur HDD eine extrem kurze Zugriffszeit hat. Bei einer HDD dauert es im vgl. zu einer SSD Ewigkeiten, bis der Lesekopf der HDD alle Fragmente gefunden hat. Da die SSD aber keine beweglichen Teile mehr hat, und die Zugriffszeit extrem kurz ist, ist die Fragmentierung eben beim Lesen (fast) zu vernachlässigen.
Allerdings hat die Fragmentierung beim Schreiben bei den Intel-SSDs wohl Probleme gemacht. Deshalb das Firmware-Update.

@impressive:
Komm einmal wieder runter. Intel hat mit seinen SSDs aktuelle Top-Produkte auf dem Markt, die nicht zu unrecht als die besten zur Zeit gelten.
Und im Gegensatz zu manch anderen SSDs von einigen Herstellern, die bereits nach wenigen Monaten ausfallen und nicht zu retten sind, sind die Intel-SSDs schon ziemlich ausgereift.
Und wenigstens kümmert sich Intel um die Verbesserung seiner Produkte, und versucht, die bestehenden Probleme zu beheben.

Mfg, Michi.
 
Zuletzt bearbeitet:
Schade das jetzt herauskommt das nicht alles Gold ist was glänzt. Die SSD Technik ist wohl doch noch nicht so ausgereift wenn selbst Intel schwierigkeiten mit ihren Produkten haben.
 
Das Problem kommt meines Wissens folgendermaßen zustande.

Die Blockgröße bei den Intel SSDs beträgt 4 Kilobyte. Nun stellen wir uns vor, eine Datei mit 9 Kilobyte wird geschrieben. Die SSD reserviert nun drei Blöcke, zwei werden mit jeweils 4 Kilobyte belegt, einer mit einem Kilobyte.

Durch das Wear-Levelling werden die Daten an unterschiedliche Stellen der SSD geschrieben. Darauf hat Windows oder auch das Dateisystem (physisch) keinen Einfluss, da sich ein Algorithmus der SSD in der Firmware darum kümmert. Defragmentieren hilft also nix, weil Windows keinen Einfluss darauf hat, wo genau die Daten auf der Platte liegen - dies entscheidet letztendlich die SSD selbst.

Wenn nun viele kleine Dateien geschrieben werden (z.B. Filesharingdownloads, Windows-Auslagerungsdatei), wird eine sehr hohe Fragmentierung der SSD erreicht, da einzelne Dateifragmente durch den Wear-Levelling-Algorithmus nach bestem Wissen zur gleichmäßigen Abnutzung verteilt werden.

Der Controller der Intel-M-SSD besitzt zehn Channels zum Zugriff auf den MLC-Speicher. Auf diese Kanäle wird beim Lese- und beim Schreibzugriff parallel zugegriffen, um den Datendurchsatz zu erhöhen. Das Problem ergibt sich nun daraus, dass der Controller beim Zugriff auf eine stark fragmentierte Datei nicht mehr nachkommt, da auf zuviele Blöcke gleichzeitig zugegriffen wird, es sind aber nur 10 Channel verfügbar - die Performance sinkt.

Die Beschreibung in den Release-Notes sind eher spärlich:

http://downloadmirror.intel.com/17485/eng/Release Notes.doc

This firmware revision has several continuous improvement optimizations intended to provide the best possible user experience with the Intel SSD

Auf anderen Webseiten wird beschrieben, Intel hätte den Write-Algorithmus überarbeitet sowie die Blockverwaltung optimiert. Eine (etwas konkretere als die Release-Notes) Stellungnahme seitens Intel wäre nett.
 
freut mich zu hören das sich intel den problemen ihrer ssd´s witmet(obwohl sie immer noch die/eine von den besten haben). leider ist das bei meiner patriot nicht so... oder weiß zufällig jemand, ob sich da schon eine neue firmware irgendwo rumtreibt? als ich das letzte mal gesucht hab, hab ich leider nichts finden können. meine ssd nervt halt schon tierisch teilweise.
mfg bibler
 
Ist es denn nicht möglich, dass Intel nen Algorithmus zum Defragmentieren in die Firmware implementiert, damit die SSD sich sozusagen intern selbst defragmentiert?

Damit könnte man die Ursache dieses Leistungseinbruchs beseitigen.
Oder würde häufiges defragmentieren die Lebensdauer zu sehr verringern?
 
Wieso lässt man eigentlich nicht dem Filesystem/OS die Entscheidung über die Aufteilung?
HFS+(oder auch ext2/3/4) kann sich nicht wirklich fragmentieren und dadurch wäre das Ganze kein Problem. ;)
NTFS & FAT User werden durch dieses Verfahren eher schlechtere Performance erzielen und eine noch größere Fragmentierung feststellen - da sollte die Festplatte entscheiden. :D
 
Ich hab das mit dem Fragmentieren immer noch nicht ganz kapiert... Wieso soll eine Fragmentation der Daten bei SSDs eine Rolle spielen? Ich hab immer gedacht, es wäre egal wie stark eine SSD fragmentiert ist, weil keine beweglichen Teile vorhanden sind, die die Daten von allen möglichen Enden der SSD aufsammeln müssen?
 
impressive schrieb:
"Die neue Firmware soll dieses Problem nicht beheben..."

erst ein unfertiges produkt auf den markt werfen und dann mit einen fw-update
nicht mal den fehler beheben, sondern nur mildern... falls das überhaupt stimmt.

was soll man dazu noch sagen...

Die Intel SSDs sind wohl ausgereiftesten die man momentan bekommt!
Nicht umsonst setzen bereits mehrere Hersteller auf die SSDs von Intel.

@Thema Find ich gut das Intel da so schnell ein Update gebracht hat. :D
 
@ 28, weil angenommen alle blöcke sind beschrieben, und der controller will nun was neues auf die ssd schreiben.
bevor er was neu schreiben kann, muss er erstmal die alte information der zelle löschen, welches eben mal länger dauern kann. beim lesen wirst du kaum/keine performanceeinbußen haben.
 
@impressive:

Irgendwie mit dem falschen Fuß aufgestanden? Deine aggressive Schreibweise könntest du bitte unterlassen...Das "wenn du böse zu mir bist, dann bin ich das auch zu dir"-Gehabe zeugt auf jeden Fall nicht von hohem Feinfühligkeit.

@topic:

Erfreulich, dass man sich auch bei SSD um solche Probleme kümmert und diese nicht einfach so belässt wie sie sind. Hoffentlich bringen die anderen Hersteller auch mal eine Firmware raus, die dann Geschwindigkeiten in der Region der Intel's liefert (Ironie).
 
@OS X

dann würden die SSDs aber viel schneller das zeitliche segnen. Fragmentierung ist hier ja grundsätzlich gewollt, um die Lebenszeit zu erhöhen, da eine einzelne Zelle nur eine bestimmte Anzahl von Schreibvorgängen tätigen kann.
Fragmentierung wie sie bei mechanischen Datenträgern minimiert werden soll, hat auf SSDs grundsätzlich keine Nachteile, außer wenn die Controller durch die vielen Simultanzugriffe auf einzelne zusammengehörige Fragmente überlastet werden.
In zukunft muss man allerdings hoffen, dass die verschiedenen Dateisysteme, keine selbstständige Defragmentierung mehr durchführen wenn SSDs verwendet werden, da dies mehr Schreibzugriffe = Veringerung der Lebenszeit bedeutet, ohne Verbesserungen zu bewirken, da die internen Vorgänge auf der SSD ohnehin für das System unsichtbar und somit unverwaltbar bleiben.
 
Neocroth schrieb:
Die Blockgröße bei den Intel SSDs beträgt 4 Kilobyte. Nun stellen wir uns vor, eine Datei mit 9 Kilobyte wird geschrieben. Die SSD reserviert nun drei Blöcke, zwei werden mit jeweils 4 Kilobyte belegt, einer mit einem Kilobyte.

Durch das Wear-Levelling werden die Daten an unterschiedliche Stellen der SSD geschrieben. Darauf hat Windows oder auch das Dateisystem (physisch) keinen Einfluss, da sich ein Algorithmus der SSD in der Firmware darum kümmert. Defragmentieren hilft also nix, weil Windows keinen Einfluss darauf hat, wo genau die Daten auf der Platte liegen - dies entscheidet letztendlich die SSD selbst.

Wenn nun viele kleine Dateien geschrieben werden (z.B. Filesharingdownloads, Windows-Auslagerungsdatei), wird eine sehr hohe Fragmentierung der SSD erreicht, da einzelne Dateifragmente durch den Wear-Levelling-Algorithmus nach bestem Wissen zur gleichmäßigen Abnutzung verteilt werden.

Warum macht man dann eigentlich nicht zb 2 verschiedene Speicher? Einen der zb 512B Blöcke hat und einen der zb 64KB Blöcke hat!?!?
 
Wow, cool! Finde ich echt spitze von Intel! Gleich mal den PCPer-Bericht lesen und demnächst drauf flashen :-)

Edit: Review gelesen, und ich bin begeistert (Y)
 
Zuletzt bearbeitet:
Also nur mal so am Rande, die Intel SSDs schalten nach einer längeren Zeitraum , wie langer der auch immer sein mag und dem öfteren Schreiben von 20 oder warens 40Gbyte täglich automatisch nen Gang runter, damit die angegebene Lebenszeit ereicht wird. Muss mal den Eintrag bei Intel suchen

3.5.4 Minimum Useful Life
A typical client usage of 20 GB writes per day is assumed. Should the host system
attempt to exceed 20 GB writes per day by a large margin for an extended period, the
drive will enable the endurance management feature to adjust write performance. By
efficiently managing performance, this feature enables the device to have, at a
minimum, a five year useful life. Under normal operation conditions, the drive will not
invoke this feature.
http://download.intel.com/design/flash/nand/mainstream/mainstream-sata-ssd-datasheet.pdf
 
Zuletzt bearbeitet:
Bei meiner SSD Kombi stelle ich noch keine durch Fragmentierung verursachte Bremse fest. Sind schnell wie am ersten Tag.
 
@Soldier Boy

ich bin in dem Bereich kein Profi, drum kann ich nicht garantieren, dass alles stimmt, was jetzt folgt ;)

weil man mit unterschiedlichen Blockgrößen das Problem nur verschiebt.

Angenommen man hätte lauter kleine Blöcke - dann geht die Performance in die Knie, weil auf unzählige Blöcke gleichzeitig zugegriffen wird und der Controller das nicht mitmacht - Zugriffszeit ist im Keller.

Angenommen man hätte lauter große Blöcke - dann hätte man einen Großteil des Speicherplatzes nicht genutzt, da die abgelegten Fragmente um einiges kleiner sind als die Blöcke.

Eine Mischung wirft neue Probleme auf - bestimmte Dateien passen beispielsweise immer noch nicht ganz in 2^x große Blöcke. Wenn mein Gedankengang richtig ist, trifft dies auf alle Größen zu, die einer Primzahl entsprechen. Zudem hätte man das Problem der Adressierung und die Verwaltung und unterschiedliche Wearlevels usw.
 
Danke für dieses Zitat aus dem Link Pitt_G., echt interessant. Würde mich mal interessieren, auf wieviel GB/Tag ich so total komme, wenn man alles mögliche dazuzählt inkl. Linux swap-usage, /var/tmp auf der SSD, etc. Und dann einen normalen Arbeitstag lang.
 
Also die 20GB pro Tag Grenze finde ich schon recht merkwürdig. Bei XP mag das mit 20GB/Tag ja kein Problem sein, aber wie siehts da bei Vista aus. Und mit welchem Performanceeinbruch darf ich dann rechnen. Wie lange ist der Zeitraum, wieviel drüber muss es sein.
Das hat halt so ein Gschmäckle, dass mann für Benchmarks getunt hat.
 
Ich habe eben wie beschrieben den Raidcontroller deaktiviert und auf Sata-Compatible-Mode umgeschaltet. Danach von der CD gebootet und allen 3 SSD's das Update verpasst. Reboot-gleich erneut ins Bios, Raid wieder eingeschaltet und Vista64 bootete ganz normal. Nach dem Login hat Vista dann noch einen Gerätetreiber für die HDD's installiert und ich musste wieder neustarten.

Rein subjektiv habe ich das Gefühl, dass es eine ganz Ecke schneller geworden ist, sowohl booten als auch die Zeit nach dem Login, bis das System steht.

Bin sehr zufrieden.

LG
Aresta
 
Zurück
Oben