News Kioxia Twin BiCS Flash: Neues Speicherzellendesign für PLC mit 5 Bit

@Bigeagle die verlinkten Tests sind alles MLC Platten oder? Bisher hab ich meine beiden auch noch nicht kaputt bekommen :D

Ich so ein Langzeittest wäre wirklich klasse. Am besten von SLC bis QLC alles testen.
 
Und, haben die PCL dann eine Data Retention Time vom einer Woche, oder was?
QLC liegt da ja schon bei weniger als ein halbes Jahr ohne Spannung.
 
Anfangs ist so eine neue Technik doch eher was für den Konsumenten-Markt.
syfsyn schrieb:
Noch kürzere Haltbarkeit?
slc bis zu 10 000 schreibzyklen Kapazität bis zu 512gb (waren nie erhältlich max war 128gb)
mlc bs zu 3500 schreibnzyklen Kapazität bis zu 1TB
tlc bis zu 1500 schreibzyklen Kapazität bis zu 2TB
qlc bis zu 500 schreibzyklen bis zu 4TB (gibt es derzeit nicht wieso auch immer)
plc bis zu 100 schreibzyklen bsi zu 8TB (theporetisch)

Schreibzyklen x Kapazität in GB) / (SSD-Faktor x GB pro Jahr) = Lebensdauer in Jahren

Die Haltbarkeit ist laut dieser Formel ja nicht nur von den Schreibzyklen abhängig sonder auch von der Größe der Platte. Klar, wenn man bsp 256 GB Festplatten vergleicht, hat dann TLC, QLC und PLC eine kürze Lebensdauer.
Man darf aber nicht vergessen, dass man für letzteres dann (wenn überhaupt verfügbar) nicht mehr sonderlich viel zahlt. (auf den Speicher gesehen, Controller usw, bleiben gleich oder nehmen etwas an kosten zu).
Beispiel: Bei einer SSD mit MLC-Speicher, 256 GB Speicherkapazität, einem SSD-Faktor von 5 und 1825 GB pro Jahr ergibt sich eine Lebensdauer von rund 84 Jahren. Allerdings handelt es sich hierbei um keine Garantie.
https://www.giga.de/extra/ssd/specials/ssd-lebensdauer-wie-lange-haelt-eine-ssd/

Somit hätte
TLC bei 256 GB 36 Jahre
QLC bei 256 GB 12 Jahre
PLC bei 256 GB 2,4 Jahre

Wenn ich die Werte deiner Tabelle nütze. Wobei ich aber für QLC eigentlich 1000 Schreibzyklen (?) mitbekommen habe.

Was PLC angeht, habe ich nichts über Schreibzyklen gesehen. Aber es wird ja 2^5 dadurch erreicht, dass man eine Zelle ja aufteilt auf zwei Untermengen. Fraglich, ob man dann so easy davon ausgehen kann, dass sich dadurch die Schreibzyklen dann halbieren. Fiktiv mache ich ja aus einer Zelle quasi zwei.
Kurz, heißt nicht, dass die Schreibzyklen und Charakteristiken schlechter werden. Eventuell könnte man dann auch eine SLC Zelle nehmen, diese Aufteilen und 2 Bit Speichern (?!). 🤔
Somit wäre nähere Hinweise, was so eine Aufteilung bewirkt (Vor und Nachteile) durchaus interessant.

Doch gibt es ja ein Mapping der Schreibzyklen pro Speicherzelle und Tricks wie Wear Leveling (auch der Grund wieso volle SSD langsamer werden, weil nicht so häufig verwendete Daten auf Zellen verschoben werden die Häufig verwendet werden um diese zu entlasten, bekommt der Anwender nicht direkt mit).

Somit welche TCL oder QLC Platte kaufe ich mir dann ? Naja die um ca selben Preis und das ergibt dann meist mehr Speichermenge und damit erhöht sich ja wieder die Lebensdauer.
Nehme ich die QLC und nehme eine 1TB statt der 256 MLC Platte, habe ich noch immer statt 12 ganze 48 Jahre. Nehme ich eine 2TB bin ich bei 96 Jahre. Natürlich immer alles abhängig, was die Platte kosten.
Würde eine 256 GB MLC Platte soviel kosten wie eine 2TB QLC Platte, hätte ich am Ende sogar eine Platte die theoretisch vllt länger hält.
Will ich aber weniger ausgeben für eine bestimmte Festplattengröße, brauche ich mich nicht wundern, dass die billigere Platte nicht so lange hält. Oder?

In meinen Fall, so eine Platte würde ich zum Bsp für Games nutzen. Eine MLC für Betriebssystem, die muss auch nicht extrem groß sein. Wichtige Daten hat man egal wo man sie am PC speichert sowieso im besten Fall extern noch mal auf anderen Platten gesichert.
Natürlich bleiben dann am Ende die Frage der Performance, die muss man am Ende abwägen. Aber solange ich eine Platte habe, die schneller ist als eine Festplatte... Dazu kommt der etwas geringere Verbrauch, Stoßfestigkeit und Lautstärke, die man so im Vergleich zu einer HDD nicht vergessen sollte.
 
Zuletzt bearbeitet:
Also ich komme auf meinen verbrauch seitdem ich meine 256gb SSd auf jährlich 36TB
Garantierte Haltbarkeit 330TB = ~9 Jahre theoretisch sind es 256*3,5=896TB
Meine alte 120gb SSD kam max im jahr auf 12TB
Diese hat eine garantierte TBW von 150TB ~12,5 Jahren
Aber seitdem diese als DVR dient sind es deutlich mehr.
Eine 1TB mlc SSd wird vermutlich bei 1500*1,0= 1,5 PB liegen Je nach nand qualität liegen die bei etwa 1,0 PB
garantiert sind nur 150TB laut samsung
Nebenbei ich mache nicht mehr als früher. Lass es maximal 25% mehr Daten.
Der Rest kommt vom controller der die SSD regelmäßig die daten hin und herschiebt.
Und ich habe nicht mal eine tlc nand SSD
 
Vindoriel schrieb:
PLC? Ich sehe schon Festplatten als Cache für Schreibzugriffe im Kommen... :evillol:
Wird vielleicht das Revival der WD (Veloci)Raptor. :D

Ne, so langsam dürften die ersten 64-250GB SSDs in Rückläufern anfallen, die werden einfach refurbished und als Schreibcache auf die neue xTB PLC-SSD mit drauf gepackt. ;)
 
So lange QLC und höher überhaupt keine preislichen Vorteile haben brauchen sie damit gar nicht ankommen. Außerdem bedeutet aufwendigere Technik nicht automatisch niedrigere Preise. Das kann sogar ins Gegenteil umschlagen ab einem gewissen Punkt.
 
Wattwanderer schrieb:
Schön zu sehen, dass mehr Potenzial in NAND Flash steckt als nur Strukturverkleinerung.

Zehnmal Verdoppelung der Kapazität bzw. Halbierung der Preise scheint so gar nicht mehr utopisch.
boah.. du willst die Kapazität noch 10 mal verdoppeln?
Das wäre dann fürs gleiche Geld die 1024 fache Kapazität

Also 1000 Tb SSD für 90€

Man kann es auch übertreiben ;D
mit würden zwei Halbierungen des Preises schon reichen, dann fliegen die HDD Datengräber aus dem Rechner und werden durch SSDs ersetzt


Aber in 30 Jahren könnte das mit den 1000Tb für 90€ schon realistisch sein (Halbierung des Preises alle 3 Jahre)
 
Chris007 schrieb:
...
mit würden zwei Halbierungen des Preises schon reichen, dann fliegen die HDD Datengräber aus dem Rechner und werden durch SSDs ersetzt
...

Sagt man das nicht bei jeder Generation?
 
Chris007 schrieb:
boah.. du willst die Kapazität noch 10 mal verdoppeln?
Das wäre dann fürs gleiche Geld die 1024 fache Kapazität

Also 1000 Tb SSD für 90€

Man kann es auch übertreiben ;D

Ich fand mich eigentlich bescheiden. :)

HDDs haben das bisher über 20 mal geschafft. :)

Wobei es aber so aussieht als ob HDDs nach 2^23 durch SSDs abgelöst würden.
 
andi_sco schrieb:
Sagt man das nicht bei jeder Generation?
Ich weiß nicht was andere sagen. Eine 8Tb SSD ist mir jedenfalls noch zu teuer.
Das ist ein Datengrab mit einer WD Red Helium, die ist sowieso quasi fast schon lautlos.
Meine Arbeitsdaten die ich regelmäßig benutzte habe ich schon auf einem 3x SSD Raid liegen, da sind sie lautlos und sicher.

Wenn sich der SSD Preis noch zwei mal halbiert dann kostet eine 8TB SSD sogar schon weniger als ich für die HDD bezahlt habe. Wahrscheinlich würde einmal halbieren schon reichen, dann wären es 400€ für 8TB, zwar noch teuerer als die HDD aber man hat ja auch Vorteile, vor allem wenn man es leise mag.
 
Tjo, nur hat sich der Preis derzeit bei QLC zu TLC nicht halbiert.
20€ weniger für eine 660p 1TB zu einer MP510. :rolleyes:
 
Bigeagle schrieb:
Bei Konstantbetrieb und guten Bedingungen meistens auch länger als 5 Jahre
....
40k Betriebsstunden und mehr? Kein Thema.
Wenn es denn welche mit der Zulassung für den Dauerbetrieb sind, bei den anderen wäre dies früher auch machbar gewesen, aber frage mal wie viele der neueren Modelle solcher einfachen Desktopplatten wie der Seagate ST3000DM001 40.000 Betriebsstunden oder 5 Jahre Dauerbetrieb durchhalten. Da ist meist nach knapp über 2 Jahren und oft bei unter 20.000 Stunden nämlich Schluss. Die einfachen Desktopplatten sind inzwischen so kostenoptimiert, dass sie nur noch für 2400 Power-On-Hours pro Jahr ausgelegt werden.
Bigeagle schrieb:
Samsung war wohl kaum der erste Hersteller mit NAND Flash. Auch die 840er Serie war ganz sicher nicht die erste damit, weder absolut, noch im Massenmarkt.
Aber die erste mit TLC NAND, da TLC habe ich ergänzt. Aber da Du ja selbst eine 840 Pro hast, solltest Du dies wissen, die erschienen ja gleichzeitig und mit der 840 und der 840 Pro wurde die Consumerbaureihe ja bei Samsung auch erstmal in ein Modell mit TLC und eines mit MLC (Pro) aufgeteilt, vorher gab es nur ein Consumer Modell, die 830.
Bigeagle schrieb:
Das HDST Video kenne ich, das rangiert irgendwo zwischen lustig, schmerzhaft und der Frage ob man gerade verarscht wird. Wer wirft denn neue Festplatten?
Das Video ist von HGST und es geht darin ja nicht nur ums Werfen, sondern noch viel weiterreichende Vorsichtsmaßnahmen und ich alleine sehe wie viele Leute auf die Platine fassen wenn sie eine HDD in die Hand nehmen, dann ist dies Video weder lustig noch Verarsche, sondern sollte Pflicht für jeden sei der mit HDDs zu tun hat. Geworfen werden die HDDs i.d.R. wenn sie im Paket auf dem Weg zum Kunden sind, da leider viele und manche Händler verpacken sie leider nicht besser als Bücher, weshalb ich es für unangebracht halte die frühen Ausfälle alleine dem Hersteller ankreiden zu wollen.
syfsyn schrieb:
tlc bis zu 1500 schreibzyklen Kapazität bis zu 2TB
qlc bis zu 500 schreibzyklen bis zu 4TB (gibt es derzeit nicht wieso auch immer)
plc bis zu 100 schreibzyklen bsi zu 8TB (theporetisch)
Wie viele P/E Zyklen die QLC NANDs am Ende aushalten, darüber wurde doch noch gar nichts gesagt und es hängt wie bei allen NANDs vor allem von dem konkreten Typ und der konkreten Qualitätsstufe ab. Die Wafer und auch die einzelnen Dies auf den Wafern gelingen ja immer unterschiedlich gut und während bei CPUs und GPUs die besten eben die taktfreudigsten sind, unterscheiden sich gute Dies von schlechteren bei NAND vor allem durch die Zyklenfestigkeit, also wie viele P/E Zyklen man dafür spezifizieren kann.
syfsyn schrieb:
den bei 32 Ladezuständen ist die Haltbarkeit der Daten ohne strom sicherlich max 1 Woche.
So ein Quatsch hoch drei, denn auch für SSD mit PLC wird die JESD218 gelten die für Client SSD bis zum Erreichen der TBW eine Data Retention Time (DRT) von 12 Monaten bei 30°C Lagertemperatur verlangt. Dementsprechend werden auch die P/E Zyklen für die NANDs spezifiziert, denn ja mehr P/E Zyklen die NANDs hinter sich haben, umso geringer wird die DRT und daher sollten NANDs immer deutlich mehr als die spezifizierten P/E Zyklen schaffen, bevor die SSD komplett ausfällt.
Vindoriel schrieb:
Ich habe mal ergänzt...
Danke.
Bigeagle schrieb:
Ich finde nur leider nichts wie diesen oder diesen Test hier für QLC SSDs, alles schon etwas älter.
Da müsste mal wieder jemand einen Test mit aktuellen Modellen auch mit solchen mit QLC machen, aber eigentlich haben diese Tests damals gezeigt, dass die bei vielen Anwendern tiefsitzende Angst vor dem Verschleiß der NANDs unbegründet ist.
pipip schrieb:
Wenn ich die Werte deiner Tabelle nütze. Wobei ich aber für QLC eigentlich 1000 Schreibzyklen (?) mitbekommen habe.
Richtig, es gibt eben unterschiedliche QLC NAND mit unterschiedlichen Qualitätsstufen und daher kann man auch keine pauschalen Werte für die P/E Zyklen nur aufgrund der Anzahl der Bits pro Zelle angeben. Dies ist einfach totaler Unsinn.
pipip schrieb:
Was PLC angeht, habe ich nichts über Schreibzyklen gesehen.
Eben und solche Angaben werden auch erst gemacht, wenn die konkreten Produkte erscheinen.
syfsyn schrieb:
Garantierte Haltbarkeit 330TB
Es gibt keine SSD mit einer Garantierten Haltbarkeit und die TBW sind immer nur eine zusätzliche Einschränkung der Garantie, wie bei Auto wo man dann z.B. 3 Jahre bis 60.000km Garantie hat. Die Garantie erlischt in beiden Fällen immer dann, wenn eines von beiden überschritten wurde. Die TBW wären nur dann eine Garantierte Haltbarkeit, wenn die Garantie so lange dauern würde bis die TBW erreicht sind, egal wie viele Jahre dies wären, aber es gibt keine SSD bei der sie nicht auch nach meist 3 oder 5 Jahren trotzdem endet. Dann schaut man in die Röhre wenn die SSD stirbt, auch wenn die TBW noch längst nicht erreicht wurden.
Duran schrieb:
So lange QLC und höher überhaupt keine preislichen Vorteile haben brauchen sie damit gar nicht ankommen.
Das ist klar, der einzige Vorteil von QLC ist der Preis, wenn der nicht gegeben ist, sollte man darüber gar nicht erst nachdenken. Aber eine 860 QVO ist doch billiger als eine 860 Evo, von daher ist der Preisvorteil schon vorhanden, auch wenn man dann natürlich schaut ob nicht z.B. eine MX500 mit TLC NAND nicht ähnlich günstig wie die QVO ist. Aber nur am Beispiel der beiden 860er kann man doch überhaupt die Preise vergleichen, die Intel 660p ist ja auch günstiger, vor allem in der 2TB Version, aber es gibt eben von Intel kein vergleichbares Modell mit TLC und damit hinken alle Vergleiche ebenso wie ein Vergleich einer 860 QVO mit einer MX500 hinkt.
Wattwanderer schrieb:
HDDs haben das bisher über 20 mal geschafft.
SSDs haben es auch schon oft geschafft, aber so wie bei HDDs bzgl. der Steigerung der Datendichte und damit der Kostensenkungen schon seit fast 10 Jahren die Luft für schnelle Sprünge raus ist, ist nun auch bei NAND die Luft raus. Die ersten 3.5" HDD mit 500GB pro Platter ist meine ich im März 2009 erschienen und die erste mit 1TB Platte im September 2011, also 2½ Jahre später. Aber die erste mit 2TB Platter gibt es bisher immer noch nur mit SMR, ohne schafft man die 2TB pro Platter nicht und damit ist auch über 8 Jahre nach der letzten Verdoppelung der Datendichte die nächste Verdoppelung nur mit dem Griff zu SMR erreicht worden. Die Geschwindigkeit der Steigerung der Datendichte ist also massiv gefallen und nur weil man mit viel Aufwand und Kosten immer mehr Platter in die Gehäuse packt, schafft man es die maximale Kapazität pro Platte überhaupt deutlich weiter als die Datendichte zu steigern.

Bei NAND sind wie genau an dem Punkt, die 3D NANDs waren der letzte technologische Schritt den man noch gehen konnte und die Anzahl der nativen Layer ist bei etwas über 100 offensichtlich auch im wirtschaftlichen Limit, so dass man nun Dies übereinander packt und durchkontaktiert, also stacked, dies erhöht die formale Datendichte weil man so ein Gebilde dann wieder als nur ein Dies betrachtet, aber dies spart eben kaum Geld weil man technisch eben doch zwei Dies herstellen muss um diese zu einem vereinen zu können.
Shrimpy schrieb:
Tjo, nur hat sich der Preis derzeit bei QLC zu TLC nicht halbiert.
Kann es doch auch nicht, da die Anzahl der Zelle und damit der Diefläche sich ja nicht halbiert hat. Bei TLC speichern 4 Zellen zusammen 12 Bit, bei QLC passen diese 12 Bit in nur 3 Zellen, 3 statt 4 ist aber eben nicht die Hälfte sondern 3/4 und damit hat man nur ein Viertel der Zellen eingespart, weshalb der Preis idealerweise nur um 1/4 (also 25%) niedriger sein kann. Bei PLC wären es nur 1/5 (also 20%), wobei davon real wegen zusätzlich benötigter Bit für die stärkere ECC wohl noch etwas weniger Einsparung übrig bleiben dürfte. Daher ist ja auch der Potential für Einsparungen durch mehr Bit pro Zelle umso geringer je mehr man schon hat.
 
andi_sco schrieb:
Dafür warst du schon in Windows während die ne Schachtel Zigarren geraucht haben 😂
Auch das hat damals keinen interessiert. Auf allen LANs oder weiß der Geier was man damals alles gemacht hat musste ich dann eh immer warten bis die anderen geladen hatten
 
Holt schrieb:
Wenn es denn welche mit der Zulassung für den Dauerbetrieb sind, bei den anderen wäre dies früher auch machbar gewesen, aber frage mal wie viele der neueren Modelle solcher einfachen Desktopplatten wie der Seagate ST3000DM001 40.000 Betriebsstunden oder 5 Jahre Dauerbetrieb durchhalten. Da ist meist nach knapp über 2 Jahren und oft bei unter 20.000 Stunden nämlich Schluss. Die einfachen Desktopplatten sind inzwischen so kostenoptimiert, dass sie nur noch für 2400 Power-On-Hours pro Jahr ausgelegt werden.
Da kann ich tatsächlich nicht viel dazu sagen, seit gut 7 Jahren habe ich keine Festplatte mehr im stationären Betrieb die nicht für Dauerbetrieb geeignet ist - denn genau das sollen sie dann schaffen.
Wobei es bei den WD Red damals hieß dass die zumindest mit der Green Serie baugleich sind und es eine reine selektion und andere Firmware ist. Die Seagate Archive HDD (v2) ist offensichtlich, aufgrund SMR, eine eigene Baureihe gewesen, bei den Ironwolf weiß ich es nicht. Allerdings hatten die Seagate Platten zu aggressive Stromspareinstellungen die man erst manuell ändern musste um sie für den Dauerbetrieb anzupassen. Nach ein paar Sekunden inaktivität die Köpfe parken ist nichts anderes als geplante Obsoleszenz. Ändert man das tun diese 'NAS'-Platten auch einen ziemlich guten Dienst im 24/7 Desktopbetrieb.
Wenn die Desktopplatten wirklich derart kurzlebig ausgelegt werden grenzt das ja schon an Ressourcenverschwendung.
 
Bigeagle schrieb:
Wobei es bei den WD Red damals hieß dass die zumindest mit der Green Serie baugleich sind und es eine reine selektion und andere Firmware ist.
Ist diese Aussage von WD selbst? Ich glaube kaum und ansonsten wird viel Mist im Netz geschrieben, da sollte man nicht zu viel drauf geben.
Bigeagle schrieb:
Allerdings hatten die Seagate Platten zu aggressive Stromspareinstellungen die man erst manuell ändern musste um sie für den Dauerbetrieb anzupassen. Nach ein paar Sekunden inaktivität die Köpfe parken ist nichts anderes als geplante Obsoleszenz.
Da scheinst Du Seagate mit WD zu verwechseln, von Seagate wäre mir dies nämlich nicht bekannt, wohl aber von WD und zwar konkret von der Green.
Dies betraf auch für eine kurze Zeit mal die Red, ich hatte selbst eine bei der es so war, eine von 5 Red 3TB die ich damals gekauft hatte war per Default so eingestellt und ließ sich aber mit WDIdle3 umstellen.
 
Komplett irre, diese hacks werden immer schlimmer.

Noch schlimmer ist das es eine "diminishing returns"-Strategie ist, weil die Speichergröße nur logarithmisch mit dem Aufwand wächst.
Bei so feinen Strukturen und kleinen Spannungsunterschieden muss nur mal ein Atom husten dass ein Block gleich eine kriese bekommt. Optional gibt es halt Datenverlust wenn das nächstgelegende Atomkraftwerk umkippt.
 
Quonux, so ein Quatsch, auch die SSD mit QLC können die Daten halten und wenn "das nächstgelegende Atomkraftwerk umkippt", haben wir ganz andere Probleme.
 
Holt schrieb:
Ist diese Aussage von WD selbst? Ich glaube kaum und ansonsten wird viel Mist im Netz geschrieben, da sollte man nicht zu viel drauf geben.
Da scheinst Du Seagate mit WD zu verwechseln, von Seagate wäre mir dies nämlich nicht bekannt, wohl aber von WD und zwar konkret von der Green. Dies betraf auch für eine kurze Zeit mal die Red, ich hatte selbst eine bei der es so war, eine von 5 Red 3TB die ich damals gekauft hatte war per Default so eingestellt und ließ sich aber mit WDIdle3 umstellen.
Als Hersteller wird man nicht unbedingt ein offizielles Statement dazu abgeben wollen dass man eine eher 'fragile' Desktopplatte und eine als semi-premium beworbene NAS Platte aus der gleichen Hardware macht. Denn dann hätte man erklären müssen warum man überhaupt eine Green Reihe verkauft die meistens sogar mehr Energie verbraucht und erhebliche Einbußen bei der Lebensdauer hat. Einen 'harten' Nachweis kann ich dir nicht liefern, jedoch deuten die Datenblätter und die praktisch sicht- oder messbaren Unterschiede stark daraufhin dass die Unterschiede höchstens minimal sind. Die Logik sagt dann dazu dass es sich kaum lohnt eine zweite Fertigungslinie für ein paar andere Kondensatoren oder ähnliches aufzumachen, bzw den logistischen Mehraufwand in Kauf zu nehmen.

Ich bin mir ziemlich sicher dass ich da nichts verwechsle, ich habe 3 Archive HDDs v2 und 2 8 TB Ironwolf in benutzung, von den 3 3 TB Red habe ich noch eine im PC, zwei an Bedürftige gespendet damit die Ironwolves sie nicht fressen um an die Ports zu kommen. Sofern sich WD nicht die Mühe macht Seagateplatten detailgetreu nachzubauen werden es wohl auch Seagateplatten sein. Zum Glück kann man mit den SeaChestUtilities ziemlich viel einstellen wenn man will. Ich war dennoch negativ überrascht dass man da wie bei den Green selbst Hand anlegen muss.
Verschwörungstheorie: Die Hersteller wissen ganz genau dass ihre Platten deutlich länger halten als die angegebenen 2-5 Jahre und setzen deshalb auf Defekte durch Parkvorgänge und passen die Firmware darauf an dass die ungefähr kurz nach der geplanten Betriebszeit erreicht werden.
Denn was wäre wenn die ganzen Leute die den Aufpreis für Server- NAS- und andere 'Premium'-Platten zahlen auch mit den billigen Desktopplatten hinkommen würden wenn man alle mit der gleichen Firmware ausstattet? Gewinnverlust in einem Bereich mit potentiell ohnehin geringer Marge.
</Verschwörungstheorie>

wenn das nächstgelegene Atomkraftwerk umkippt lohnt sich zumindest ZFS gegen den Bitrot aufgrund der Strahlung ^^
Falls nicht brauchen wir auch keine Computer mehr, denn wir spielen dann alle Fallout 5 New Berlin in atemberaubender Grafik und mit revolutionär realistischer Physikengine. Nicht zu vergessen die perfekte Simulation der ganzen Details. Nicht mal Onlinezwang! Da kann man dann vielleicht auch darüber hinwegsehen dass es weder Cheats noch Mods gibt.
 
Wenn die Green und Red (bis auf die Firmware) baugleich sind, warum ist die Green nicht für 24/7 geeignet und die Red schon? Da muss der Spindelmotor (Lager usw.) bei der Red doch schon robuster gebaut sein.

Dass die (linearen) Übertragungsraten gleich sind, ist logisch, gleiche Drehzahl und gleiche Scheiben (bzw. Datendichte).
 
syfsyn schrieb:
tlc bis zu 1500 schreibzyklen Kapazität bis zu 2TB
qlc bis zu 500 schreibzyklen bis zu 4TB (gibt es derzeit nicht wieso auch immer)
plc bis zu 100 schreibzyklen bsi zu 8TB
Kannst du mir bitte verraten wieso sich die Kapazitäten jeweils verdoppeln nur weil jeweils ein Bit dazukommt?
 
Zurück
Oben