G9Zocker schrieb:
Dafür das der Sandforcecontroller hier sehr schlecht geredet wird, benutzen ihn verdammt viele Hersteller, meint ihr nicht auch.
Das erinnert mich an den Spruch: Esst mehr Mist, Milliarden Fliegen können nicht irren
Es hat aber ein paar gute Gründe, warum so viele "Hersteller" von SSDs welche mit den Sandforce Controller anbieten:
1. Der ist als Komplettpaket mit FW zu haben (und nur so), man braucht also keine Entwicklungsarbeit zu leisten.
2. Der Controller ist darauf ausgelegt mit einer Menge verschiedener NAND Typen zu arbeiten und bietet eine sehr starke Fehlerkorrektur, was dann behilflich ist, wenn man NANDs minderer Qualität verbaut. Diese sind zwar eigentlich nicht für den Einsatz in SSDs geeignet und haben nur eine geringe Haltbarkeit, aber billig und man kann beim SF die FW so konfigurieren, dass die Schreibgeschwindigkeit massiv einbricht, sollten die vorgegebenen P/E Zyklen schon vor Ende der Garantiezeit aufgebraucht sein.
3. Durch die Datenkompression kann man in jeden Fall mit sehr hohen Transferraten werben, egal wie die Performance mit realen Daten dann aussieht. Obendrein kann man noch mit sehr hohen IOPS werben, wenn an die Zugriffe auf einen kleinen Adressbereich von z.B. 8GB beschränkt (was bei realen Systemlaufwerken Unsinn ist, die sind ja gewöhnlich nur zu beginn so leer und danch viel voller, was Windows zwingt die Schreibzugriffe über einen großen Adressbereich zu verteilen). Diese beiden Angaben sieht man ja auch in der News und bei der
HyperX 120 GB Read Burst: 95.000 IOPS Sustained: 20.000 IOPS!
Wegen der Sache mit den IOPS und den ganzen Fußnoten, die leider fehlen, fürchte ich fast die Gerüchte könnten wahr sein. Da Intel ja sowohl einen eigenen SSD Controller hat also auch den Marvell einsetzt (und folglich eine eigene FW dafür besitzt), kann ich Intels Beweggründe allerdings nicht nachvollziehen, sollte es tatsächlich so kommen.