News Kommt Intels SSD 520 Series im November?

Wenn du sagst, dass bereits eine SSD ausgefallen ist, dann würde ich statistisch darauf schließen, dass du um die 200 davon seit 1 Jahr im Einsatz hast.

Die war schon bei der Auslieferung defekt! Das heisst ich konnte sie gar nicht erst in Betrieb nehmen!
Wenn ich das mit kaputten HDD´s Vergleiche die mir in den letzten Jahren geliefert wurden, ist das ein Witz!

Was die Anzahl meiner SSDs betrifft, so habe ich im Moment rund 30 Stück im Betrieb, tlw. schon deutlich länger als ein Jahr! Das Wort "Raidcontroller" hätte dir eigentlich schon verraten müssen das es mehr als 3 sind ;)
In dem Fall hängen gar 8 SSDs mit SF2XXX Controller dran und keine macht Probleme, das ganze im täglichen Praxiseinsatz! Also nicht rumgedaddel, sondern Daten schaufeln und das nicht zu knapp!
In meinem Fall sind das Audioprojekte die allein zig Gigabyte an Samples laden. Diese werden dann auch noch auf die Platten geschrieben usw.

Natürlich benutze ich Backups, aber wenn ich sehe wieviele HDDs mir in meinem Server schon abgeraucht sind, trotz klimatisiertem Raum, dann freue ich mich schon darauf auch die bald gegen große SSDs auszutauschen!

Ich weiss nicht was du hier bezwecken willst, wenn dich SSDs so stören dann kaufe dir keine und gut?!
Aber auf mich wirkt das wie reines geflame!
Ja SSDs fallen offenbar aus, aber das tun HDDs auch! Dazu sind letztere deutlich empfindlicher was Hitze, Staub, Erschütterungen usw. angeht!
Eigentlich kann man das auf jede Hardware ausweiten! Nur wenn ich Angst habe auf die Strasse zu gehen, bleibe ich im Haus!
 
bensen schrieb:
Wäre mir neu, dass Toshiba synchronen NAND-Flash fertigt.
Gute Frage: Gehören die Toggle-NANDs auch zu den synchronen NANDs?
Das Toshiba die in 30nm fertigt ist aber falsch, die aktuellen Produkte sind 32nm (30nm class oder 3Xnm). Ferner von 24nm als nächsten Schritt und 19nm danach.

Thaxll'ssillyia schrieb:
Und wen interessiert die Schreibrate? Fast alle nutzen eine SSD fürs OS, und da sind Zugriffszeit, die Leserate und die Geschwindigkeit bei kleinen Brocken entscheidend. Ob da nun dauerhaft mit 500 MB/s oder 20 MB/s große Brocken geschrieben werden, ist doch scheiß egal.
Mit steigenden Kapazitäten werden auch andere Daten dort geschrieben und ob 20 oder 500MB/s Schreibrate ist dann nicht mehr egal, zumal die seq. Schreibrate ja auch das Limit für die Randomschreibraten darstellt.
Thaxll'ssillyia schrieb:
Aber Hauptsache mal wieder gebashed...
Was ist denn daran bashen, wenn man die Eigentschaften eines Produktes erklärt? Nur weil die Hersteller teils lieber verschweigen und die Leistungsangaben aus unrealistischen Ergebnissen von Benchmark verwenden, der Daten sich weit mehr komprimieren lassen, als dies bei realen Daten der Fall ist?

Mein braucht die Sandforce SSDs eigentlich durch die Bank nicht zu bashen, es reicht schon sie nicht zu pushen und die Leuten etwas aufzuklären, dann erkennen die meißten selbst wie groß der Unterschied zwischen Anspruch und Wirklichkeit gerade bei den Sandforce SSDs ist.

andr_gin schrieb:
Es war nur die erste Generation beim Schreiben so kritisch, da alle auf den verbuggten Marvell Controller gesetzt haben, der ohne nennenswerten Cache bei MLC Speicher sich einfach bei jedem Schreibzugriff an den Daten verschluckt hat und von 4 Schreibzugriffen einer 1 Sekunde gedauert hat. Dasselbe sieht man heute noch bei den meisten billigen USB Sticks.
Das war kein Marvell Controller, das war der JMicron 602 und JMicron ist eine Firma aus Taiwan, die weder etwas mit Marvell noch mit Micron oder Crucial zu tun hat. Schmeisse die Dinge bitte nicht durcheinander und google vielleicht erst noch einmal die Fakten, bevor Du hier aufgrund von Gedächnislücken und Verwechselungen so einen Müll verbreitest.

andr_gin schrieb:
Heute haben sich die ganzen RAM Hersteller auf SSD spezialisiert und die Qualität ist auch dementsprechend
Die Prozesse zur Herstellung von DRAM und Flash sind sehr ähnlich, von daher ist es kein Wunder, dass die meißten DRAM Hersteller auch Flash herstellen. Den Löwenanteil von je 41,6% in beiden Märkten hat Samsung. Toshiba ist mit 28,7% die Nummer zwei auf dem NAND Markt, Micron mit 16% die Nummer 3 und Hynix mit 13,5% der letzte der vier großen Hersteller, siehe hier. Powerchip ist mit 0.2% Anteil nicht der Rede wert.

Die Aufteilung des DRAM Marktes findest Du hier:
2011-08-31_DRAM_Ranking.jpg

Wenn Du die Liste mit der von 2006 vergleichst, dann fehlen nur zwei Anbieter: Etron und Qimonda. Keiner von denen bietet SSDs an.

Was Du meinst sind die ganzen Zusammenlöter, die Chips von irgendwoher kaufen und diese zu "eigenen" Produkten verarbeiten, wie eben OCZ, Corsair, Kingston etc., kurz alle die SSDs mit dem Sandforce Controller im Angebot haben. Das deren Qualität nicht immer toll ist, wundert mich nicht wirklich.

Die Ausfallraten bei SSDs von wirklichen Flash Herstellern, also Samsung, Toshiba, Micron (Crucial ist der Markenname für den Endkundenmarkt) und Intel (noch, die steigen ja immer mehr bei IMFT aus, vielleicht ja deshalb dann doch ein SF in der 520er?) sind sehr gering! Da braucht man sich keine so grossen Sorgen wie bei HDDs machen.
andr_gin schrieb:
nur mit dem Unterschied, dass beim RAM mittlerweile jeder schon weiß, dass jeder Schrott ist (zumindest im Desktop/Notebook Bereich) und deshalb diesen als ersten tauscht.
Auch hier das gleiche Problem: Die Leute kaufen RAM von einer Ramschbude die selbst keine Chips fertigt, selbst schuld wenn man nicht einmal weiß, wer wirklich ein Hersteller ist und wer nur Labels druckt.

andr_gin schrieb:
Wenn wie bei der OCZ Vertex 2 nach unter einem Jahr schon fast jede zweite Bewertung ein Totalausfall ist, dann möchte ich einmal behaupten, dass OCZ hier bei der Angabe der MTBF von 2 Mio Stunden (200 Jahren Dauerbetrieb) einfach erfundene Werte im Datenblatt veröffentlicht hat, was ich eigentlich schon unter die Rubrik irreführende Werbung einordnen würde. Es ist egal, wie man es rechnet (1 SSD 200 Jahre laufen lassen, 200 SSDs ein Jahr laufen lassen oder 2 Mio. SSDs 1 Stunde laufen lassen), das wird nie annähernd stimmen.
Es ist egal wie Du das rechnest, weil Du einfach überhaupt keine Ahnung hast, was die MTBF aussagt, sorry!

Vor allem technische Geräte haben zuerst eine sehr hohe Ausfallrate, die dann auch sehr bald stark abfällt um dann eine Weile recht konstant zu bleiben. Gegen Ende der Lebensdauer steigt die Ausfallrate dann wieder zunehmend an und von dieser Badwannenfunktion wird nur der mittlere Teil mit der geringsten Ausfallrate für die Berechnung der MTBF herangezogen. Dann nutzt die Angaben alleine nichts, ohne die Testbedingungen zu kennen, also z.B. die Temperatur, Luftfeuchtigkeit, etc., denn die Angaben beziehen sich nur auf diese Bedingungen. Enthalten die etwa eine Temperatur von genau 25°C, so kann man das in seinem Rechner schon mal kaum sicherstellen und damit ist eine höhrere Ausfallrate durchaus wahrscheinlich. Außerdem prüft keine neutraler Aufseher, wie ein Hersteller die MTBF ermittelt, auch weil die eben bei neuen Geräte viel mehr errechnet als getestet wird, wann kämen die dann sonst endlich mal damit auf den Markt? Wollte man 2 Millionen Stunden experiementell belegen, dann müsste man schon mindestens 20.000 SSD dafür durch die Einlaufphase (einige Monate?) bringen und dann mindestens 1000 Stunden arbeiten lassen, was nachmal 42 Tage sind. Dann dürften nur 10 Ausfallen vorkommen. Davor muß man die 20.000 noch erst in Serie produzieren, braucht einen klimatisierten Raum und ein Testsystem für 20.000 SSDs, die sollen ja auch was tun und nicht nur eingeschaltet sein und Fehler muss man ja auch bemerken können. Glaubt hier einer wirklich, OCZ betreibt so einen Aufwand?

andr_gin schrieb:
Ich würde hier das Testprotokoll (falls vorhanden) gerne einmal sehen.
S.o. das gibt es nicht!
andr_gin schrieb:
Ob Garantie oder nicht, ist vollkommen irrelevent. Der Wert der Hardware selbst bei einem Ausfall ist verschwindend gering im Vergleich zu dem Aufwand/Schaden eines Ausfalls.
Deswegen setzen echte Profis den ganzen Sandforce und OCZ Bastelkram ja auch nicht ein. FusionIO macht nur echte Server SSDs und damit mehr Umsatz als OCZ! OCZ kommt nur auf die angeblichen 78% Anteil an Server-Produkten unter den SSDs, weil man schlicht alle SSDs mit Sandfoce Controller dort hineinrechnet. Wieviele OCZ Sandforce SSDs wohl wirklich in Produktionsservern landen und wieviele wohl bei Heimusern enden? Soviel nur zum Thema "Zahlen von OCZ".

andr_gin schrieb:
Selbst wenn alles gesichert ist und ich nur neu aufsetzen und alle Programme installieren muss, sind das in der Firma schon 1 Tag für mich und 1 Tag für den Mitarbeiter, der nichts arbeiten kann, also um die 1.000 Euro Schaden.
Wenn die Firma so einen Schrott einsetzt, selbst schuld. Die sollen sich halt man informieren und einen ordentlichen Lieferanten suchen.
andr_gin schrieb:
Ich gehe sogar so weit, dass ich defekte Festplatten generell nur entsorge und gar nicht reklamiere, weil ich dann dasselbe Modell wieder bekomme und die Wahrscheinlichkeit, dass diese wieder defekt ist erhöht ist.
Das ist bei SSDs wegen der Schnelllebigkeit des Marktes nicht der Fall. Wer eine SSD umgetauscht bekommt, der erhält i.d.R. ein entsprechendes neues Modell, wenn das alte nicht mehr gebaut wird.
 
Sw@rteX schrieb:
auch hier wieder keine begründung :rolleyes:

Lence_Laroo schrieb:
Was soll denn nur immer dieses Sandforcegebashe? es kommt ja wohl eher auf den verbauten NAND an, was der SF-Controller leistungstechnisch daraus machen kann.

OK, die Begründung: Technisch kann ich es mir einfach machen und auf Holt verweisen. Aber darum ging es mir gar nicht. Wenn Mercedes plötzlich anfangen würde BMW-Motoren in seine PKW zu verbauen - wie würde das aussehen? Richtig wie eine Bankrotterklärung.

Nein es ist einfach eine wirtschaftspolitische Entscheidung. Selbst wenn wir (hypothetisch) die Aussage stehen lassen würden "SSDs mit SF-Contoller sind momentan die besten und schnellsten", wie würde es aussehen wenn Intel plötzlich seinem stärksten Konkurrenten (OCZ) nachahmt? Mann kann sich nicht vorher für Marvell entscheiden, diesen in Konkurrenz zur ganzen SF-Riege laufen lassen, später jedoch diese Entscheidung revidieren und ebenfalls zu SF wechseln.

Das wäre sicherlich eine katastrophale Entscheidung, denn dann müßte man mit den selben Problemen wie OCZ rumkämpfen, hätte aber gegenüber OCZ einen erheblichen Nachteil weil man im Gegensatz zu OCZ in der Entwicklung bei Null anfangen müßte.

Das würde von der meist konservativen und auf Stabilität und Langlebigkeit gerichtete Klientel mit Sicherheit nicht gut aufgenommen werden.
 
Zuletzt bearbeitet:
In der Gerüchteküche ist von einem Intel eigenen Controller die Rede!
War u.a. auch auf PCGH zu lesen, aber man wird wohl abwarten müssen ;)

Die 40000 iops würden ja sonst fast auf eine Agility 3 im Intel Kleid hinweisen..
 
Holt schrieb:
Gute Frage: Gehören die Toggle-NANDs auch zu den synchronen NANDs?
Nein, der Toggle-DDR-NAND arbeitet asynchron.
Deswegen amüsiert es mich immer wenn viele schreiben der Sandforce wäre nur mit synchronen NAND schnell und im nächsten Satz wird dann behauptet am schnellsten wären die dann mit Tioshibas Toggle-NAND.
Statt zwischen synchron und asynchron sollte man lieber zwischen SDR- und DDR-NAND unterschieden.
 
Wenn die auch async. arbeiten, dann wäre diese Unterscheidung besser, nur kann damit niemand etwas anfangen weil es so ja auch nicht im Preisvergleich steht.
 
andr_gin schrieb:
Klar ist vielleicht nicht so viel oben, wenn die SSD nur 120GB groß ist, aber für ein tägliches Image ist es trotzdem noch zu viel.
Bei meiner Lösung dauert das tägliche Image per Windows-7-Sicherung ca. 15 Minuten. SSD im Notebook, davon rund 40 GB belegt, HDD mit 7200 U/min extern per USB 3.0.
Und man kann nebenher problemlos weiterarbeiten.

Wenn man zwei SSDs per SATA 6Gb intern hat und man von einer auf die andere SSD sein Image macht, müsste die Post abgehen. Aber die Kosten und Platzverschwendung dafür. ^^
 
Zuletzt bearbeitet:
@Holt
Naja, mit synchronen und asynchronen NAND konnte auch niemand was anfangen bevor es in Reviews und Foren thematisiert wurde. Nur hat man sich da ausschließlich auf ONFI-NAND eingeschossen und die JEDEC Fraktion komplett außen vor gelassen.
Bei geizhals steht sowieso immer viel Müll, danach kann man nicht gehen. ;)
 
crackett schrieb:
Intel hat mit dem 8MB-Bug der 320 erst deutlich gezeigt, wie buggy ein Intel-Controller sein kann.

Wenn es danach geht dürfte heute niemand mehr Prozessoren von Intel kaufen - macht aber keiner, weil jeder weiß, dass neue Produkten auch mal Fehler haben können.

Wenn es interessiert: Pentium 4 startet mit vielen Bugs
 
ata2core, CPU Fehler lassen sich aber i.d.R. umgehen, z.B. durch Patches im BIOS. Bei dem Intel 8MB Bug kann man es dagegen nicht verhindern, dass dieser auftritt und alle Daten vernichtet, wenn es auch sehr selten passiert.
 
Zurück
Oben