News SandForce stellt neue Controller mit 500 MB/s vor

Da geht es Intel weiter an den Kragen. Den deren Refresh der Postville G2 wird dann wohl baden gehen, wenn man sich deren lächerliche Seq. Raten und wohl vermutlich auch 4k. anschaut die ja noch nicht einmal Sata 6GB/s beherschen und nur wen Intel gewillt ist per Firmwareupdate dies freigibt. Wie vorher schon vermutet Sandforce2XXX Generation und bald auch Marvell C400 mit 25nm werden wohl den Markt der Consumer SSD´s unter sich aufteilen, wenn Intel und co. nicht bald mal vernünftige SSD´s nachlegen. Mir ist es aber recht so. Oder es kommen nochmal ganz andere SSD Lösungen auf den Markt.
 
Zuletzt bearbeitet:
Eigentlich wollte ich mir von OCZ die Vertex2 im 3,5zoll Format mit 180GB zulegen, jetzt werde ich aber mal abwarten, ob man nicht was schelleres bzw. günstigeres kriegt.
Ich finde es komisch, das die OCZ Vertex2 3,5zoll die gleiche Bauhöhe hat wie eine normale Platte, dabei könnte man die doch ganz gut etwas flacher bauen im die Kühlung zu fördern? Bei 2,5 Zoll Platten gibt es das ja auch, 9mm und 12,5mm.
 
Gefällt mir die G3 Generation von Intel aber deutlich besser, dort sind bis zu 50000 Iops im Mainstream markt zu erwarten, bei Sandforce 30000 Iops. Die 2000er (2500er und 2600er Modelle sind sowie so überteuert wie auch die Intel im Servermarkt.

Dazu muss man sagen das die Angaben von Intel meist noch weniger sind als in der Realität bei Sandforce ist es leider umgekehrt.

Bei der G3 ist es halt nicht so dolle das die Leistungsaufnahme steigt wobei mich es als PC nutzer weniger interessiert.

Die Seq. Raten sind wie ich finde erstmal nebensächlich.

@cb-maniac SSD muss man nicht kühlen.
 
Zuletzt bearbeitet:
Wäre aber nicht schlecht wenn sie vorher noch die Probleme mit den aktuellen Lfw. (BSODs mit TRIM im idle modus..) ausmerzen würden, bevor die neuen auf den Markt kommen :mad:

- lt. Corsair wird ja mit Sandforce ja schon lange dran gearbeit - wir warten und warten - und die kriegens nicht auf die Reihe...
 
Ich muss es schaffen.....nicht zu kaufen.....arghs, das wird schwer.

Aber 1-2Q 2011 wird zu interessant als jetzt noch den Weihnachtsgeschäftsaufpreis zu zahlen.
 
Ein bischen Off-Topic, aber jedesmal wenn ich das Sandforce Logo sehe, muss ich an die Source Engine denken...
653px-Source_engine_logo.svg.png

sandforce-logo.jpg
 
Schöne News, bin mal gespannt was die Controller auf einer neuen 25nm-32nm Flashchips SSD so kosten wird.
 
Mal ehrlich gesagt: Ob 20.000, 30.000, 50.000 oder gar 60.000IOPS, das bekommt doch kein Heimanweder jemals ausgelastet!! Dazu bräuchte man schon eine sehr potente CPU (6Kerner) mit einer sehr IO Lastigen Anweunge wie einer DB mit sehr viele gleichzeitigen Zugriffen auf kleine Daten. Wer hat das zuhause? Da bekommen die CPUs ja gerade mal im Benchmark eine Commandqueue von 64 hin und wenn die Daten dann auch noch verarbeitet und womöglich übers Netzwerk weitergeschickt werden sollen....
Also ehrlich, soviel braucht man nicht, irgendwann ist die SSD so schnell, daß man den Unterschied zur noch schnelleren nur noch beim Preis merkt. Eine sauber implmentierte SSD ohne Probleme und Leistungseinbrüche mit ein paar IOPS weniger ist mir da lieber als eine, deren bewerbene Spitzenleistung nur neu und mit hochgradig komprimierbaren Daten zu erzielen ist.
Es ist aber gut, daß die Spitze voranschreitet, andere werden folgen müssen oder bleiben schnell auf der Strecke. SATA3 sollte spätestens mit Einsatz der neuen, schnelleren NANDs auch Standart werden und gut ausgenutzt sein. Das Intels Controller so viel Strom verbraucht, finde ich übrigens ein hoffnungsvolles Zeichen, der könnte wirklich schnell werden. Schnelle Datenübertragung und -verarbeitung braucht halt einfach mehr Energie. Deswegen wird sich der SSD Markt auch bald spalten, ich einen sparsamen mobilen, einen Mainstream Desktop und den hochpreisigen Enterprise Bereich.
Der Mobilbereich wird kommen, weil man an einem Engeriespar Dualcore (Quadcores sind in Notebooks ja selten und wenn dann noch weiter runtergetaktet) die Spitztenleistung schon gleich garnicht abfordern kann und deshalb auch nicht seine Batterie damit belasten will. Der Desktopbereich wird für all die sein, welche nach Höchstleitung streben und wo die Hersteller auch darum kämpfen können, alleine des Images wegen. Im Enterprise Bereich spielen dann Zuverlässigkeit und lange Lebensdauer bei stabiler Performance die wichtigste Rolle, wie man es ja auch an den Daten sieht: Weniger IOPS, viel mehr Schreibzyklen, viel mehr Spare Area. Wird sich für Heimanwender auch nicht lohnen, denn die bekommen ja jetzt schon nicht die Löschzyklen voll, ehe sie die SSD rausschmeissen weil sie total veraltet ist.
 
Eggcake schrieb:
Naja, das wird schon seinen Grund haben warum sies so macht.
Es wird noch viele XPler und Server 2003ler geben. Wies mit MacOS und Linux aussieht weiss ich jetzt auch nicht.

paul1508 schrieb:
Ja irgendwer wird aber mal die erste nativa 4k Platte bringen müssen, sonst wird das nie was... außerdem dürfte der Prozentsatz der Server/Clients die XP/2003 und SSD kombinieren gering sein. Vielleicht unterstützt 2003 sogar 4k, wer weiß?

Das Grundlegende Problem heisst nicht Windows, Linux oder Mac OS sondern BIOS.

U.a. Windows 7 kann von einer GPT-Partitionierten >2-TByte-Platte mit 4K-Sektoren booten, aber NUR mit einem UEFI-Mainboard, auf keinem mit einem konventionellen BIOS.

Die nächstgrößte Spaßbremse heisst dann Intel, deren Host Controller Treiber leider immer noch Null Plan hat mit solchen Laufwerken etwas anzufangen - im Gegensatz zu AMDs Controller in der SB850 samt Treiber ... oder dem MSAHCI-Treiber mit Intel Host Controller *hust* ... jaja, MS is scho doof :-p Intel hat GPT indes spezifiziert und packt keinen funktionierenden Treiber raus *hust* *hust* ...

Desweiteren würde es helfen, wenn endlich alle Mainboards mit standardmäßig aktiviertem AHCI-Modus für den SATA-Controller ausgeliefert würden - dann wäre der Kundensupport wesentlich leichter, da die Platten dann wenigstens als Datenplatten (unter Windows 7, Vista, Server 2008, Server 2003 SP1, Windows Home Server, XP x64, Linux und Mac OS) funktionieren - von Treiber-Bugs wie bei Intel mal abgesehen ...
 
Zuletzt bearbeitet:
Wirklich gespannt bin ich aber mal, was die anderen bringen werden und vor allem: Wann!
JMircon hat in meinen Augen noch keine brauchbaren SSD Controller geliefert, die waren am Anfang mit dem unsäglichen 602er mal Marktführer. Ob die das nochmal richig versuchen werden?
Samsung hat gerade mit dem 470er eine neue Generation gebracht, die Leistungskrone aber wohl gar nicht erst anvisiert, was bei einem so grossen Flashhersteller eigentlich erstaunt.
Indilinx kommt ja auch wohl bald mit was neuem heraus, vor Sandforce waren die auch der stärkste Verfolger von Intel und stehen nun in der zweiten Reihe.
Marvell ist ja auch erst seid einem halben Jahr auf dem Markt, hat sich in meinen Augen gleich an die Spitze gesetzt (ja, ich finde die besser als Sandforce) und zündet bald die nächste Stufe.
Dann gibt es noch weitere Firmen, die bisher auf diesem Markt nicht in Erscheinung getreten sind, deren Controller aber auch auf fast jedem Mainboad stecken, etwa VIA und NEC. Ob die sich auch noch was von dem Kuchen abscheiden wollen?
Ergänzung ()

Ecronika schrieb:
Das Grundlegende Problem heisst nicht Windows, Linux oder Mac OS sondern BIOS.
Stimmt, aber alle Bestrebungen diese Relikt aus den Anfangstagen des PCs endlich mal gegen was bessere zu tauschen sind bisher fehlgeschlagen.
Ecronika schrieb:
U.a. Windows 7 kann von einer GPT-Partitionierten >2-TByte-Platte mit 4K-Sektoren booten, aber NUR mit einem UEFI-Mainboard, auf keinem mit einem konventionellen BIOS.
Mal ehrlich: Willst Du von einer >2TB Platte/Partition booten? Ich nicht. Vielleicht wenn Windows 2030 mal so groß geworden ist, daß ich sonst nicht mehr das OS und die Anwendung drauf bekomme, aber ansonsten halt ich das Bestriebssystem schon auf einer passen Extrapartition, besser Extra Platte und die sollte möglichst eine SSD sein.
Alleine ein chkdsk oder das Defragmentieren einer solchen Riesenpartition dauert doch schon ewig und dann hat NTFS ja auch noch so tolle Dateien, die man nicht mal defragmentieren kann und die sich doch immer schön über die ganze Partition verteilen.

Windows hat zwar die unschöne Angewohnheit Userdaten überall im Dateibaum verteilen zu wollen, aber man kann ja zum Glück auch woandershin speichern oder gleich die ganzen Users auslagern, aber dann haben die wieder so performancerelevante Dinge wie dem Cache des Browsers und das $TMP nicht auf der schnellen SystemSSD.
Ecronika schrieb:
Die nächstgrößte Spaßbremse heisst dann Intel, deren Host Controller Treiber leider immer noch Null Plan hat mit solchen Laufwerken etwas anzufangen (im Gegensatz zu AMDs Controller in der SB850 samt Treiber ... oder dem MSAHCI-Treiber mit Intel Host Controller ... jaja, MS is scho doof :-p) ...
Aber Intel ist doch performanter, bringt 10MB/s mehr in der Spitze :evillol:
Wenn AMD seinen RAID Treibern endlich mal TRIM beibringt, dann sind sie mit der 850er Intel in allen Belangen weit voraus.
Mein Notebook zuhause hat einen i7 720M, 2 HDDs (eine SSD kommt da demnächt rein) und bleibt praktisch stehen, wenn man nur auf der zweiten (Daten) HDD intensiv IO Macht, z.B. zur externen eSATA Platte. Dann kann selbst der Browser nicht mehr zwischen den Pages umschalten, obwohl seine Daten alle auf der Systemplatte sind, die eigentlich nichts weiter zu tun hat. Da ist doch irgend was faul und ein so enger Falschenhals bei den Mobilchips, sonst kann man sich das doch nicht erklären. Merken die meißt aber wohl nicht, wer hat schon ein Notebook mit zwei Platten? Wohl nur sehr wenige. Außerem hat das Teil nur zwei USB Root Hubs, die 850er hat 6 oder 8, muß noch mal nachsehen.
 
Ob die sich auch noch was von dem Kuchen abscheiden wollen?

Kannst Du drauf wetten!
Bei den CPU's tut sich nichts, Grafik kostet ein Vermögen und ist eine Stromschleuder und nichts beschleunigt einen PC im Alltag mehr als eine SSD und noch kaum einer hat sowas - kann man sich an einer Hand abzählen, warum alle auf den Zug aufspringen - hier kann Kohle verdient werden!
 
Holt schrieb:
Mal ehrlich: Willst Du von einer >2TB Platte/Partition booten?

Im Detail steckt das Problem - selbst wenn deine Systempartition kleiner ist kannst du GUID-Partitionierte Platten nicht über 2TB/Partition bzw. 2TB als Startposition für die letzte Partition nutzen bei 512B-Sektoren (Es gehen max. 2³² Sektoren zu adressieren mit 32-Bit ...) - du kommst also mit aller Macht auf max. 4 TB (Letzte Position Start 2TB/Größe 2TB) und die haben wir sicher nächstes Jahr bei HHDs erreicht - und dann? 4K-Sektoren müssen dann (nativ) kommen - dann schaffen wir 16 TB - letztendlich hilft aber nur GPT und um davon booten zu können benötigen wie UEFI. Egal wie groß oder klein deine erste Partition ist ... die Krücke BIOS muss aussterben!

Von Partitionierungs-/Formatierungs-Software im Umlauf die selbst mit 512B-simulierenden 4K-Platten Mist baut will ich mal garnicht anfangen ...
 
Zuletzt bearbeitet:
Ich bin auch der Meinung, dass wir momentan vor allem in Sachen IOPS eine Grenze erreicht haben. Der messbare Unterschied zwischen einer Intel mit 30'000 IOPS und einer Vertex (1) mit etwa 11000 IOPS spürt KEINER und ist auch praktisch nicht messbar bei herkömmlichen Anwendungen eines Heimanwenders. Es wird längst an anderer Stelle limitiert.
Ich will hier gar nicht in's Detail gehen, aber Fakt ist, dass IOPS momentan kaum noch interessieren - zumindest nicht so, wie sie derzeit angepriesen werden. Über Sequenzielle Transferraten kann man streiten. Es ist sicherlich toll, wenn man sie hat, aber nicht matchentscheidend (vor allem schreiben).

Auf was kommt es also an? Mir zumindest um:
a) Preis
b) Stabilität (in Sachen Performance)
c) Zuverlässigkeit (Ausfallraten/Bugs)

Der Rest ist, imho, derzeit relativ irrelevant. Man mag mich gerne eines besseren belehren, aber wenn man ehrlich ist, hat man bereits mit einer 2 Jahre alten Indilinx oder einer 2.5 Jahre alten G1 das Limit mehr oder weniger erreicht, was Alltagsperformance angeht.
Das einzige, was man noch machen kann, ist einen dicken Cache (--> Controller) dazwischenzulagern um dem System eine noch geringere Reaktionszeit zu verschaffen.


Will damit nicht sagen, dass die Entwicklung stehen bleiben soll, aber das Ganze verkommt mehr und mehr zu einem Schwanzlängenvergleich ohne wirklichen Nutzen für den Konsumenten.
 
Zuletzt bearbeitet:
@Eggcake: danke für die Info, muss sagen der Name gefällt mir irgendwie wie. Hoffe nur das es sie auch so schnell wie möglich gibt jetzt^^
 
nsm schrieb:
55bits auf 512bytes fehlerkorrekturfaehigkeiten, oder doch eher 55bits pro 512bits ecc? auf der sandforce webseite zur 2000er reihe ist nur von 55/512 bits die rede, nicht aber bytes/bytes oder bits/bytes.


was ist denn nun hier richtig? nur wenige bits fuer das halbe kilobit ist ein erheblicher unterschied.
mfg.

Habe nochmal bei SandForce nachgefragt und die Tabelle aktualisiert.
 
Ich hoffe es hat sich sich die C300 derart gut verkauft hat, dass Cruical ordentlich Kapazitäten aufgebaut hat.
Dann könnte tatsächlich mal Schwung in den Preis bei "brauchbaren" SSDs kommen.

Ansonsten ist die SF-2000 Ankündigung für mich eine weitere verdammt schlechte Nachricht zum Thema SSD.

Seit Jahr und Tag überholen sich die High End SSDs/Controller. Und die Enthusiasten OEMs kommen mit dem Layouten kaum hinterher; was natürlich zu Stückzahlplanungen im mikroskopischen Bereich führt...
 
Ecronika schrieb:
Im Detail steckt das Problem - selbst wenn deine Systempartition kleiner ist kannst du GUID-Partitionierte Platten nicht über 2TB/Partition bzw. 2TB als Startposition für die letzte Partition nutzen bei 512B-Sektoren
Das stimmt natürlich, erstmal wird niemand seine Startpartition so weit nach hinten legen wollen und zum anderen ist bei derzeit 3TB max für HDDs 2T als Beginn der letzten genauso akzeptabel wie ein Limit von 2T pro Partiotion.
Ecronika schrieb:
(Es gehen max. 2³² Sektoren zu adressieren mit 32-Bit ...) - du kommst also mit aller Macht auf max. 4 TB (Letzte Position Start 2TB/Größe 2TB)
Sofern alle immer schön unsigned int verwendet haben ;-)
Ecronika schrieb:
und die haben wir sicher nächstes Jahr bei HHDs erreicht - und dann? 4K-Sektoren müssen dann (nativ) kommen - dann schaffen wir 16 TB - letztendlich hilft aber nur GPT und um davon booten zu können benötigen wie UEFI. Egal wie groß oder klein deine erste Partition ist ... die Krücke BIOS muss aussterben!
Volle Zustimmung, die Industrie sieht das nur leider nicht so und macht derzeit keine sichtbaren Anstrengungen in diese Richtung, leider. 4k (logische) Sektoren hätten schon mit XP kommen können, denn seid NTFS sind auch 4k Sektoren im Filesystem normal und es bringt daher nur Nachteile, diese in 512Byte Sektoren auf der HDD ablegen zu müssen.
Ecronika schrieb:
Von Partitionierungs-/Formatierungs-Software im Umlauf die selbst mit 512B-simulierenden 4K-Platten Mist baut will ich mal garnicht anfangen ...
Da hast Du leider recht, das wird ein gewaltiges Problem für viele unwissenden Anwender geben, die alten Tools die fest auf die 512Byte setzen auf den 4k/Sektoren HDDs ihre Daten reihenweise himmeln werden.

Eggcake schrieb:
Ich bin auch der Meinung, dass wir momentan vor allem in Sachen IOPS eine Grenze erreicht haben. Der messbare Unterschied zwischen einer Intel mit 30'000 IOPS und einer Vertex (1) mit etwa 11000 IOPS spürt KEINER und ist auch praktisch nicht messbar bei herkömmlichen Anwendungen eines Heimanwenders. Es wird längst an anderer Stelle limitiert.
....
Über Sequenzielle Transferraten kann man streiten. Es ist sicherlich toll, wenn man sie hat, aber nicht matchentscheidend (vor allem schreiben).
Eben, sinnvoller wäre es, die Leistung bei kleinen Datenmengen und kleiner Queue anzuheben. Dies ist aber sehr anspruchsvoll. Leider prüfen Tools wie ASS und Crystal nur bei 64 und 32er Queues (32 ist als Limit übrigens im SATA Standart spezifiziert, 5 bis 10 ist als Limit für User im Alltag gerade so zu erreichen) und nicht auch bei 4, 8 und 16er Comamndqueues. Wenn nur ein Thread 4k Daten random liest/schreibt, dann sieht man ja wiewenig selbst die besten SSDs im Moment dabei erreichen. Verbesserungen hier wären aber für den Heimanwender noch meißten zu spüren.

Eggcake schrieb:
Das einzige, was man noch machen kann, ist einen dicken Cache (--> Controller) dazwischenzulagern um dem System eine noch geringere Reaktionszeit zu verschaffen.
Das wird sehr davon abhängen, wie so ein Cache integriert ist. Irgendwo war mal ein schöber Test von SSDs an einem RAID Controller mit Chaceh und dessen Zugriffszeiten waren sogar schlechter, weil der Controller ja immer erst prüfen muß, ob die Daten im Chache stehen und danach erst bei der SSD anfragt. Dies macht für HDDs ja sinn, da die Prüfung im Vergleich zur Zugriffszeit von mehreren ms der HDD sehr schnell ist. Mit SSDs mit ihren Zugriffszeiten von Bruchteilen von ms dauert die Prüfung aber so lange, daß der Cache am Ende sogar bremste. In der Praxis mag das anders sein, denn die Trefferquote dürfte da höher liegen als beim Benchmark und dann könnte der Cache wirklich nutzen, aber ob das den Aufwand lohnt (preislich) und die Trefferquote so hoch ist, das die Verzögerung aller No-Hits dadurch aufgewogen wird.....

gorgos schrieb:
SandyBridge + Sand(y)Force dürfte eine potente Kombo werden.

Wieso? SandyBridge ist eine Architektur von CPUs und es wird auch sehr langsame CPUs mit dieser Architektur geben, bis hinunter zu den Celeron Nachfolgern. Außerdem muß man erstmal sehen, wie gut die Chipsätze von Intel sein werden und vor allem deren SATA Controller sowie die Bandbreiten, wenn mehrere Kanäle voll genutzt werden.
 
Zurück
Oben