News Intel SSD 660p: Die erste QLC-SSD für Privatkunden ist da

Der S. 1156 ist erst einige Monate nach der Veröffentlichung der PCIe 3.0 Spezifikation erscheinen.
Ergänzung ()

Wattwanderer schrieb:
Im Server habe ich gesehen, dass SMART Wear Leveling Count pro Monat einige Prozentpunkte wegknabberte. Das war halt falsche SSD für den Einsatzzweck. Das heisst nicht, dass sie grundsätzlich untauglich sind sondern nur für diesen Anwendungsfall.
Genau so ist es, nur können viele dies offenbar nicht unterscheiden oder erwarten einfach von jeder SSD (und natürlich von der billigsten erst recht) für alle Anwendungen geeignet zu sein. Warum eigentlich? In anderen Bereichen ist dies doch auch nicht der Fall, ich kann nicht den billigsten Kleinlaster nehmen und da die 20t Nutzlast wie bei einem 40Tonner draufpacken, aber der Kleinlaster hat trotzdem seine Berechtigung, oder soll der Paketbote etwa einen 40Tonner für die Auslieferung in der Stadt nehmen? Wäre nicht sehr praktisch und schon gar nicht wirtschaftlich, so wie es eben nicht wirtschaftlich wäre mit dem Kleinen Laster die Pakete über Hunderte Kilometer die Autobahn von Verteilzentrum zu Verteilzentrum zu fahren. Für die unterschiedlichen Nutzungen gibt es eben auch dort die passenden Fahrzeuge die sich in Preis und Spezifikationen unterscheiden, so wie es eben auch für unterschiedliche Nutzungen unterschiedliche SSDs gibt und es gilt die für die jeweilige Nutzung passende SSD zu verwenden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
Nur um nochmal aufzuzeigen wo uns die aktuelle Speicherzellen-Entwicklung von SSDs bei der Haltbarkeit tendenziell hinführt:

QLC: Intel 660p 512GB TBW 100TB
TLC
: Intel 760p 512GB TBW 288TB
MLC
: Samsung 970 PRO 512GB TBW 600TB

Und im Vergleich dazu eine zugegebenermaßen sehr teure SLC (Micron M500IT) mit nur mageren 128GB kommt trotzdem auf eine TBW von 1.600TB!

Ich möchte gar nicht wissen wo das hinführt wenn noch mehr Bits in einer Speicherzelle untergebracht werden.

Es muss deswegen keine Panik ausbrechen, aber man sollte schon darauf achten für was man die SSD einsetzen will. Mit jedem Bit mehr in einer Zelle steigt übrigens auch das Risiko des Datenverlustes an und die Schreibgeschwindigkeit sinkt (auch wenn die Hersteller versuchen mit diversen Techniken gegenzusteuern).

@Wattwanderer
Und es gab schon Mal ein "Massensterben" von SSDs des Herstellers OCZ was wohl an einer Kombination von teilweise minderwertigem NAND, schlechtem Controller und der Firmware lag.
 
  • Gefällt mir
Reaktionen: fox40phil
Ralf74 schrieb:
Es muss deswegen keine Panik ausbrechen, aber man sollte schon darauf achten für was man die SSD einsetzen will.
Eben es braucht keine Panik auszubrechen, zumal bei Heimanwender die nur selten überhaupt auf 10TB pro Jahr kommen und selbst mit 100TB TBW auskommen, zumal die Garantie dann nach 5 Jahren sowieso abgelaufen ist. Nur wer besondere Anwendungen hat, also vor allem die Enterpiseanwender, muss sich Gedanken um die TBW machen, der "normale" Heimanwender der da sein Windows, seine Programme und Spiele draufpackt, der wird so oder die die TBW nicht ausreizen.
Ralf74 schrieb:
Mit jedem Bit mehr in einer Zelle steigt übrigens auch das Risiko des Datenverlustes an
Belege? Die Angaben von MTBF (also der Ausfallwahrscheinlichkeit) und der UBER (also der Häufigkeit unkorrigierbarer Bitfehler und damit des Datenverlustes) sind bei Intel 660p identisch zu denen der 600p mit TLC NAND.
Ralf74 schrieb:
was wohl an einer Kombination von teilweise minderwertigem NAND, schlechtem Controller und der Firmware lag.
Die Qualitätsstufe der verwendeten NANDs ist eben sehr viel wichtiger als die Art der NANDs selbst, denn es werden eben auch die schlecht geratenen NAND Dies bzw. Restwafer wo die guten Dies entnommen wurde, verkauft und die sind eben nicht mehr für den Einsatz in SSDs geeignet, was aber leider nicht jeden Anbieter davon abhält dies dennoch zu tun. Daher gebe ich auch immer die Empfehlung nur SSDs von NAND Herstellern oder deren Tochterfirmen zu kaufen, da man dort zumindest eine weit größere Sicherheit bzgl. der Qualität der verwendeten NANDs hat, denn die bauen eben nur die wirklich ausreichend guten Qualitäten in ihre SSDs. Auch wenn halt vereinzelt beim Binning mal ein Fehler passieren mag oder ein anderer Fehler passiert, weshalb keine SSD zu 100% vor Ausfällen sicher ist und man eben immer ein Backup aller wichtigen Daten haben muss, wenn man diese nicht verlieren möchte, für den Rest gibt es die Garantie.
 
Intel behauptet, dass 50 Prozent der PC-Nutzer nur 235 GB oder weniger Daten Speichern. Dass dies für Besitzer einer SSD mit 1 TB und größer auch gilt, hält die Redaktion aber für sehr unwahrscheinlich.
35GB wichtige Daten(Dokumente, Bilder) + 200 GB unwichtige Daten(Musik, Filme, nackige Frauen)+ 250GB Spiele, ohne Spiele würde ich zu den 50 Prozent gehören.... Auf meinen anderen 3 Speichern sind nur 235GB drauf :freak:
 
@Ralf74:
Also ich kann nicht feststellen, dass es eine generelle negative Entwicklung in Sachen Haltbarkeit gibt. Man gucke sich nur mal x-point oder Z-NAND an, sowas kriegt kein User hier jemals tot geschrieben.
 
  • Gefällt mir
Reaktionen: SVΞN
Fuer mich waere die 500GB oder 1TB variante doch interessant. Guter Preis, und zum Spiele drauf packen reichts doch alle male. Da schreib ich die Chips nicht tot und kann die Karte lang genug geniessen. Und nicht vergessen, 5 Jahre Garantie!
 
3D XPoint und Z-NAND sind die Entwicklung in die gegenteilige Richtung für die entsprechenden Anforderungen: Also sehr haltbar, sehr schnell, aber auch sehr teuer.
 
Cool Master schrieb:
@joshy337

Und warum ist das zum Kotzen? Ich sehe in QLC viele Vorteile vor allem beim Preis. QLC wird es ermöglichen SSDs für Priese anzubieten wo manche keine HDD mehr brauchen werden.
Es ist nur meine persönliche Meninung, da ich in Jahrzehnten denke, nicht in Jahren.
Als Retrogamer und Bastler beschäftige ich mich mit Hardware, die auchmal 30 oder 40 Jahre alt ist.
Bei QLC werden 4-Bit gespeichert. D.h., augehend davon, dass die SSD-Zellen
ähnlich einer Kondensator-Widerstandskombination aufgebaut sind, dass beim Altern der Zelle
die Informationen mit der Zeit verloren gehen, auch ohne das viele Schreibzugriffe erfolgen.
Das hängt damit zusammen, dass die Zelle ermüdet und sie die Ladung nichtmehr vollständig hält.
Ähnlich wie bei einem Akku, der seine volle Spannung im Alter nicht mehr erreicht.
Was bei SLC nicht schlimm ist, da die Grenzen bzw. "Ladezustände" (0-50=Logisch 1 ,51-99=Logisch 0) noch weiter auseinander liegen,kann mein TLC, QLC, OLC oder HLC ab einem bestimmten Punkt zu Problemen führen. Oder kurz gesagt: Die Firmware hat (viel) schneller Probleme, die Zuistände einer SSD-Zelle
eindeutig zu deuten.

Darum mag ich diese Spar-Tricks nicht. Wir leben in einer digitalen Gesellschaft,
wo die Sicherheit/der Erhalt von Daten wichtiger ist, als jemals zuvor.
Wenn wir irgendwann einmal alte System von heute am Leben erhalten möchten,
und New Old Stock ein setzen möchten/müssen, ist es unschön wenn es am Ende
wegen kurzlebiger Billig-Technik ala QLC scheitert. Nichteinmal bei Festplatten oder Streamer-Kassetten
wurde in der Vergangenheit so sehr gespart, wie bei aktueller SSD-Technologie.
Klar, QLC richtet sich an Konsumenten, nicht Profis oder vitale Systeme - Aber:
In Unternehmen und Betrieben wurde und wird noch immer Heimanwender-Technik eingesetzt.
Leider. Daher bin ich besorgt über die Entwicklung.

Ginge es um Prozessoren oder RAM, würde ich nicht so sehr kritisieren.
Aber bei Datenträgern hört für mich die Pfennigfuchserei auf.
Diese sind viel zu wichtig, da unsere Gesellschaft und unser Privatleben davon abhängen.
Auf solchen SSDs/HDDs befinden sich Scans von Urkunden, Briefe, Fotoalben, etc.

Edit: Entschuldigung für das mies geschriebenen Posting. :(
Ich bin wahrlich kein Experte auf diesem Gebiet - Daher Anbei noch ein paar Links dem Thema entsprechend.

https://de.wikipedia.org/wiki/Kondensator_(Elektrotechnik)#Informationsspeicher
https://de.wikipedia.org/wiki/Flash-Speicher#Techniken#Multi-Level-Zelle

Multi-Level-Zelle: Hier speichert die Flash-Zelle nicht nur ein Bit, sondern (meist) zwei,
inzwischen auch vier[8] voneinander unabhängige Bitzustände. Diese werden in Leitfähigkeitswerte kodiert,
die in der Ausleseelektronik wieder auf die beiden Bits verteilt werden. Der faktischen Verdopplung der Speicherkapazität steht aber die deutlich verlängerte Zugriffszeit (es muss eine analoge Spannung auf vier Niveaus gegenüber nur zwei bei den binären Flash-Zellen überprüft werden) und eine größere Fehlerwahrscheinlichkeit (eine Leitfähigkeitsänderung um ein Sechzehntel des maximalen Leitfähigkeitsunterschied kann bereits
den Wert des in der Zelle gespeicherten Niveaus verändern) entgegen.
 
Zuletzt bearbeitet:
Whiskey Lake schrieb:
Doch, auf Seite 24 steht es...
Das stimmt soweit, es ist auch schon auf Seite 6 angedeutet.
Einzig die Tatsache dass es auf Seite 12 im Diagramm "TBW rating = 70 TB" lautet macht für mich keinen Sinn. Die Terabytes stecken schon in der Einheit drinnen, die müssen dann nicht noch extra angegeben werden

Ist für mich ein Indiz, dass sich selbst der Verfasser nicht sicher ist

Whiskey Lake schrieb:
Was eigentlich egal ist, wenn die JEDEC erklärt, was TBW bedeutet, dann ist das wohl offiziell!
[/QUOTE]

Weiß nicht wie offiziell der Charakter ist, wenn die Präsentation von einem Seagate Mitarbeiter verfasst wurde und nichts anderes ist als eine gespeicherte Powerpoint Präsentation ist
 
joshy337 schrieb:
da ich in Jahrzehnten denke, nicht in Jahren.
Keiner weiß was in Jahrzehnten sein wird, die Industrie legt HW für gewöhnlich auf eine Nutzungsdauer von 5 Jahren aus, natürlich sollte sie bei entsprechend schonener Benutzung und passender Umgebung auch etwas länger halten, aber schon alleine der Fortschritt, gerade auch auf der SW Seite mit dem auch deren Ansprüche an die HW steigen, verhindert doch eine sinnvolle Nutzung über Jahrzehnte hinweg. Ausnahmen sind bei Anwendungen in der Industrie, beim Militär oder im Automobilbereich, aber dafür gibt es extra HW, die kostet auch entsprechend mehr und da steht nicht der Rechner im Vordergrund, sondern der ist an viel teurere Geräte geknüpft.
joshy337 schrieb:
Was bei SLC nicht schlimm ist, da die Grenzen bzw. "Ladezustände" (0-50=Logisch 1 ,51-99=Logisch 0) noch weiter auseinander liegen
So statisch ist es da auch nicht.
joshy337 schrieb:
Die Firmware hat (viel) schneller Probleme, die Zuistände einer SSD-Zelle
eindeutig zu deuten.
Dafür gibt es aber auch viel aufwendigere Fehlerkorrekturen wie LDPC.
joshy337 schrieb:
Wir leben in einer digitalen Gesellschaft,
wo die Sicherheit/der Erhalt von Daten wichtiger ist, als jemals zuvor.
Aber Consumer HW eignet sich sowieso nicht für die Langzeitspeicherung digitaler Daten, zumindest nicht in der Form das man diese speichert und das Medium irgendso lange lagert, was auch für HDDs gilt. Selbst bei Tapes hat man Probleme mit den Lesegeräten, die halten auch nicht ewig und neue Generationen können irgendwann die alten Bänder nicht mehr lesen. Die Langzeitarchivierung digitaler Daten ist ein sehr komplexes Thema und da kann man mit Consumer SSD, egal ob mit SLC, MLC, TLC oder QLC NAND so oder so keinen Blumentopf gewinnen.
joshy337 schrieb:
In Unternehmen und Betrieben wurde und wird noch immer Heimanwender-Technik eingesetzt.
Leider.
Die Dummheit der Menschen ist grenzenlos und wer eben die falschen Werkzeuge für eine Arbeit einsetzt, der soll sich nicht wundern wenn dies schief geht, dies gilt für jeden Handwerker genau wie fü die IT. Wer die falsche HW kauft und dann Probleme damit bekommt, der sollte nicht die HW dafür verantwortlich machen, sondern sich eben an die eigene Nase fassen und wenn dies aus Unwissenheit passiert ist, so sollte er sich auch mal daran erinnern, dass er ja auch nicht die Bremsen seiner Autos selbst wechseln würde, wenn er davon überhaupt keine Ahnung hat. Was man nicht selbst kann, sollte man eben machen lassen, auch wenn dies Geld kostet und vor allem wenn es um die Sicherheit geht!
joshy337 schrieb:
Auf solchen SSDs/HDDs befinden sich Scans von Urkunden, Briefe, Fotoalben, etc.
Dumm gelaufen, aber auch hier gilt das vorher gesagte. Das gute alte Fotoalbum kann man auch nicht irgendwie irgendwo lagern und hoffen es wäre nach Jahrzehnten noch unverändert, wieso erwarten die Leute dies bei Computerhardware?
 
Ich halte die ganze Diskussion über die Haltbarkeit von QLC-NAND und darauf basierenden Produkten für ein wenig überzogen.

Natürlich ist es zu begrüßen dass Anwender sich Gedanken machen, neue Technologien und Produkte hinterfragen und nicht alles blind konsumieren was ihnen vorgesetzt wird.

Aber QLC-NAND und die damit angekündigten Produkte von vornherein ablehnen ohne die etwaigen Vorteile zu sehen? Kann ich nicht nachvollziehen.

Zum einen sind die abgegeben und garantierten Werte die untersten theoretischen Grenzwerte und werden in der Praxis in der Regel um ein Vielfaches übertroffen. Zum anderen werden diese Werte von vielen Anwendern in der Praxis nie erreicht, dennoch wird vorab gemeckert.

Preislich werden sich QLC-Lösungen nach einer kurzen Übergangsperiode unterhalb von aktuellen Produkten einordnen, ich denke 100 Euro je TB (10 Cent je GB) sind mittelfristig kein Wunschdenken.

Damit hätte QLC-NAND das Potenzial klassische HDDs für Speicherplatz intensive Szenarie (Datengräber) abzulösen.

Für intensive Schreibszenarien gibt’s dann ja immer noch andere Lösungen.

Außerdem, auch HDDs haben ein gewisses Ausfallrisiko.

Liebe Grüße
Sven
 
RYZ3N schrieb:
Ich halte die ganze Diskussion über die Haltbarkeit von QLC-NAND und darauf basierenden Produkten für ein wenig überzogen.
Eben, dies ist eine der irrationalen Ängste. Wie bei Fahrstühlen, es sterben sehr viel mehr Menschen durch Treppenstürze als durch Fahrstühle, aber trotzdem haben viele Leute Angst vor Fahrstühlen. Selbst als Opfer von Terror zu sterben ist statistisch sehr viel unwahrscheinlicher als das Opfern eines Mordes zu werden der eine Beziehungstat ist, also von einem Bekannten oder Verwandten ermordet zu werden, trotzdem haben die Leute viel mehr Angst vor Terroristen also vor ihren Bekannten und Verwandten. Oder die Flugangst, viele Leute haben Angst vor dem Fliegen, dabei ist es statistisch viel wahrscheinlicher im Taxi auf dem Weg zum Flughafen zu verunglücken als im Flieger.
RYZ3N schrieb:
denke 100 Euro je TB (10 Cent je GB) sind mittelfristig kein Wunschdenken.

Damit hätte QLC-NAND das Potenzial klassische HDDs für Speicherplatz intensive Szenarie (Datengräber) abzulösen.
10ct/GB könnten durchaus hinkommen und worden schon vor Jahren für 2020 prognostiziert, aber selbst damit dürfte es kaum reichen um bei größeren Datengräber die HDDs zu verdrängen. Leute die heute mit einem oder zwei TB als Datengrab auskommen, werden dann wohl auf SSDs wechseln, aber die Storages der Heimanwender die Datenvolumen im zweitstelligen TB Bereich haben, werden weiterhin auf HDDs basieren,
 
  • Gefällt mir
Reaktionen: SVΞN
Ich finde es ebenfalls gut, dass die Technik hinterfragt wird und über Pro und Contro diskutiert wird.
Anderst als bei SLC SSDs ("Industrial") werden die Daten nichtmehr eindeutig binär gespeichert.
Man braucht kein Experte zu sein, um zu erkennen, welche riskanten Nachteile MLC und Nachfolger haben.
Da reicht bereits gesunder Menschenverstand und etwas Interesse an den Grundlagen der Informationstechnik.

Holt schrieb:
Keiner weiß was in Jahrzehnten sein wird [..]
Oh, in Bezug auf die Haltbarkeit von Kondensatoren weiß man so einiges.
Auch zum Verschleiß andere Bauteile gibt es sicher hier und da Studien.
Was mich bei MLC/TLC/QLC besorgt ist die "analoge" Natur der Datenspeicherung.
Bereits ein Bruchteil Veränderung des Zellwertes reicht aus, um den logischen Wert zu kippen/ändern.

RYZ3N schrieb:
Damit hätte QLC-NAND das Potenzial klassische HDDs für Speicherplatz intensive Szenarie (Datengräber) abzulösen.

Für intensive Schreibszenarien gibt’s dann ja immer noch andere Lösungen.

Außerdem, auch HDDs haben ein gewisses Ausfallrisiko.

Wobei man auch erwähnen sollte, dass man HDDs noch reparieren oder in Laboren noch auslesen kann.
Sei es mit Lasern, Ersatz-Controllerplatinen, magnetische Abtastung der Oberfläche, usw.
Bei Flash sind die Daten im Worst-Case nicht etwas schwach vorhanden, verrauscht oder überschrieben, sondern weg.

Aber egal. Ich will nicht nur über die Nachteile sprechen.
Diese QLC-NANDs sind in der Tat ausgezeichnet für Playstations und Xboxen.
Oder als moderne Datengräber für Spiele-ISOs und gesaugte Filme.
 
joshy337 schrieb:
Anderst als bei SLC SSDs ("Industrial")
Es gibt spezielle NANDs deren Hersteller auch versprechen die Daten über 10 oder 20 Jahren zu halten, aber was kosten die und wie viele Daten kann man sich also leisten dauerhaft so zu speichern? Sinnvoller und wirtschaftlicher ist die Langzeitspeicherung von digitalen Daten als lebende Daten also auf HW die eingeschaltet ist, benutzt und regelmäßig ersetzt wird.
 
joshy337 schrieb:
Wobei man auch erwähnen sollte, dass man HDDs noch reparieren oder in Laboren noch auslesen kann.
Sei es mit Lasern, Ersatz-Controllerplatinen, magnetische Abtastung der Oberfläche, usw.
Bei Flash sind die Daten im Worst-Case nicht etwas schwach vorhanden, verrauscht oder überschrieben, sondern weg.

Das ist korrekt, aber im Heimanwenderbereich wohl sekundär bis völlig zu vernachlässigen. Ist mir in 20 Jahren EDV-Dienstleistungen nicht einmal (bei Privatkunden) untergekommen.

Wer privat so wichtige Daten auf einem Datenträger speichert die einen Laboreinsatz rechtfertigen, der hat ein Backup oder hätte vielleicht mal über ein solches nachdenken sollen.

Für solche Daten nutzt man andere Lösungen als die erste Generation von QLC-NAND basierenden SSD-Lösungen.

Datengräber, (Steam) Bibliotheken, Archive, Downloads, alles gute Einsatzgebiete für QLC-SSDs.

Holt schrieb:
(...) aber die Storages der Heimanwender die Datenvolumen im zweitstelligen TB Bereich haben, werden weiterhin auf HDDs basieren (...)

Völlig richtig, hierzu müssten wir irgendwann mal in den Bereich 4-6 Cent pro GB kommen und das kann (auch mit QLC-NAND) noch eine Weile dauern.

Aber es ist ja schon ein großer Schritt wenn der PC als solches in naher Zukunft bei vielen Anwendern SSD only ist.

NAS & Co. können ja noch eine Zeitlang mit HDDs betrieben werden.

Liebe Grüße
Sven
 
Macht ihr denn überhaupt kein Backup, dass immer wieder die Nichtwiederherstellbarkeit bei Defekt als Argument hervorgekramt wird?

Hat jemand ernsthaft eine HDD aufgemacht und die Schreib-/Leseköpfe getauscht, um an die Daten zu kommen? Oder die Elektronik?

Wenn die Daten halbwegs wichtig war, dann sollte es doch mindestens ein Backup geben?

Was macht ihr den mit den Daten bei defekten Handys? Geht da jemand wirklich damit zum Dienstleister und legt ein paar Tausend EUR hin, um den letzten Selfie wiederherzustellen?
 
@joshy337

Die SSD ist nicht für die Langzeitarchivierung, mehrere Jahrzehnte, entwickelt worden und sollten dafür auch nicht verwendet werden. Für diesen Zweck gibt es andere Medien und ganze Gruppen, die sich mit der Risikoanalyse diverse Archivierungsarten beschäftigen.
 
Zuletzt bearbeitet:
Also ich hab hier gameboy module, die haben ihre Daten über Jahrzehnte gehalten. Millionenfach bewährt, obwohl die ganz bestimmt nicht darauf ausgelegt waren.
 
Ich weiß. Wollte das nur mal in den Raum werfen, weil Halbleiterspeicher oft generell als unzuverlässig hingestellt werden.

Wie du schon gesagt hast, bei der Archivierung von Daten sollte man andere Medien nutzen.
 
Zurück
Oben