News Seagate Guardian Serie: Dreimal 10 TByte mit Helium-Füllung

Also laut dem Interview welches der CEO von Seagate gerade erst bei Anandtech gegeben hat, dürfte im nächsten Jahr mit Two-dimensional magnetic recording (TDMR) zu rechnen sein, auch wenn damit nur kleine Steigerungen machbar sein.

HAMR hat das größte Potential und soll derzeit bei 2Tb/in² sein:
Die 10TB Platten um die es hier geht haben gerade mal 867Gb/in², damit ist also mehr als eine Verdoppelung erreicht worden, was bei ebenfalls 7 Platter also schon eine HDD mit 23TB ergeben würde. Kommen sollen die aber erst 2018:
Aber der Termin wurde ja schon zigmal verschoben, man wird sehen, wann es soweit ist und ob man die Technologie wirklich praxistauglich bekommt, denn sonst dürften 20TB für HDDs wohl kaum erreichbar sein. Bei 2.5" ist man schon auf 1Tb/in² gekommen, was dann 15% mehr wären, mit SMR kann man noch mal 20% bis 25% gewinnen, 12TB wären also als SMR schon heute machbar und vielleicht bekommt man auch noch einen 8 Platter ins Gehäuse gequetscht, was noch mal 14,3% mehr wären, aber alles zusammen würden dann wohl mit Hängen und Würgen für 15 bis 16TB reichen.
 
Zuletzt bearbeitet:
Holt schrieb:
Ja. aber dafür haben die SSD Controller ja Technologien der Fehlerkorrektur um das auszugleichen und diese werden immer ausgereifte wie LDPC zeigt. Wie ich schon geschrieben habe, hängt das von den jeweiligen NANDs ab, davon wie sehr diese schon verschließen sind und vor allem bei welcher Temperatur diese genutzt und gelagert werden.
Holt schrieb:
Was hat das damit zu tun?
In dem Vortrag wurde die Funktionsweise der Flash-Mikrokontroller untersucht und dabei genau das erwähnt: Die Fehlerkorrektur bei Flash ist nicht da, um mal hier oder da ein gekipptes Bit auszugleichen. Sondern sie ist zwingend notwendig, damit man überhaupt mit akzeptabler Wahrscheinlichkeit das gleiche liest, was man vorher geschrieben hat. Man sollte in der Tat tunlichst die vorgegebe maximale Lagertemperatur und Höchstdauer der Betriebsunterbrechung einhalten, weil sonst die vom Hersteller spezifizierten Fehlerraten nicht mehr garantiert sind.
Holt schrieb:
Außerdem sind HDDs auch nicht so genau und auch dort kippen immer wieder Bits, weshalb die hinter jedem Sektor eine ECC haben um das zu korrigieren und die Hersteller selbst angeben,
Festplatten behalten im Wesentlichen ihre Magnetisierung. Und die Fehlerkorrektur muss gelegentlich eingreifen, aber im Grunde liegen die Daten auf einem Sektor der Platte und müssen im Normalfall nicht erst probabilistisch aus mehreren Zellen errechnet werden.

Holt schrieb:
Bei SSDs ist diese UBER im Grunde nicht bestimmbar, weil die im Neuzustand fast gar keine unkorrigierbaren Fehler haben
Auch das wird im Vortrag anders dargestellt. Ein 8 Gbit Chip der zur 80% defekt ist wird mitunter gerne noch als 1 Gbit Chip verkauft.
 
Man sollte in der Tat tunlichst die vorgegebe maximale Lagertemperatur und Höchstdauer der Betriebsunterbrechung einhalten

Wo hast Du jemals eine Angabe gesehen wie lange ein SSD Stromlos sein darf? Also ich habe noch nie so einen Hinweis gesehen.

man kann zwar so was lesen
http://winfuture.de/news,87050.html

Aber das kann man unter Ulk verbuchen. Dann hätte ja kein USB Stick mehr seine Daten. :-)

Ok der Artikel weiß darauf hin das es mumpitz ist im Privatkunden Bereich.,
Hier steht was von 1 Jahr. Was dann den Faktor das man wohl ein Backup in der Zeit immer Aktualisiert. Also dieser Fall im Grunde gar nicht eintritt. Ich habe nicht mal Festplatten wo so lange Stromlos sind. :-)

Ich würde auch nicht alles glauben was ich lese.

Falsch interpretiert: SSDs verlieren keine Daten
http://www.computerwoche.de/a/falsch-interpretiert-ssds-verlieren-keine-daten,3212246

Das heißt ich muss meine SSD kaputt schreiben. Dann hält Sie 1 Jahr ihre Daten. Schreibt ein backup oder Datenarchiv erst mal kaputt. Eine Lebensaufgabe für normal Anwender. Da braucht es ja massenhaft Vollbackups als Beispiel.
 
Zuletzt bearbeitet:
Koto schrieb:
Wo hast Du jemals eine Angabe gesehen wie lange ein SSD Stromlos sein darf? Also ich habe noch nie so einen Hinweis gesehen.
Laut JEDEC mindestens 3 Monate für Enterprise-SSDs (bei 40°C) und 1 Jahr für Consumer-SSDs (bei 30°C).

Bei Intel-SSDs steht es genau so (Tabelle Seite 14):
http://www.intel.com/content/dam/ww.../product-specifications/ssd-dc-s3500-spec.pdf

Koto schrieb:
Dann hätte ja kein USB Stick mehr seine Daten. :-)
Passiert in der Tat. In dem Fall (USB-Stick >=1 Jahr stromlos) wird bei Leseproblem oft geraten, den Stick etwas länger am Rechner angeschlossen zu lassen, damit das Fehlermanagement vor sich hin arbeiten kann.

Koto schrieb:
Das heißt ich muss meine SSD kaputt schreiben. Dann hält Sie 1 Jahr ihre Daten. Schreibt ein backup oder Datenarchiv erst mal kaputt. Eine Lebensaufgabe für normal Anwender. Da braucht es ja massenhaft Vollbackups als Beispiel.
Sie hält prinzipiell noch viel länger ihre Daten, nur der Hersteller garantiert dann nicht mehr die Einhaltung der Fehlerrate.
 
chithanh schrieb:
In dem Vortrag wurde die Funktionsweise der Flash-Mikrokontroller untersucht und dabei genau das erwähnt: Die Fehlerkorrektur bei Flash ist nicht da, um mal hier oder da ein gekipptes Bit auszugleichen.
Ohne ihn mir angesehen oder ihn gelesen zu haben, sagt das eigentlich alles über den Vortag aus.
chithanh schrieb:
Sondern sie ist zwingend notwendig, damit man überhaupt mit akzeptabler Wahrscheinlichkeit das gleiche liest, was man vorher geschrieben hat.
Wie notwendig die Fehlerkorrektur ist, hängt von NANDs und deren Qualität ab, da wird gerade bei Speicherkarten und USB Sticks auch gerne mal der letzte Dreck an NAND verbaut, vor allem wenn sie nicht von einem NAND Hersteller sind.

Bei meiner Samsung 830 256GB die im Moment 315 P/E Zyklen (von 3000 spezifizierten) runter haben, sind laut den S.M.A.R.T. Werten (Attribut C3: ECC Fehlerrate) noch genau 0 Korrekturen nötig gewesen und daher auch 0 Korrekturen nicht möglich gewesen (Attribut BB: Nicht korrigierbare Fehler). Also hier davon zu reden die ECC wäre "zwingend notwendig, damit man überhaupt mit akzeptabler Wahrscheinlichkeit das gleiche liest, was man vorher geschrieben hat" ist nun also wirklich absoluter Blödsinn. Es mag NANDs in Speicherkarten, USB Stick oder auch SSDs gaben wo dies der Fall ist, aber generell für NANDs ist es ganz sicher nicht so.
chithanh schrieb:
Man sollte in der Tat tunlichst die vorgegebe maximale Lagertemperatur und Höchstdauer der Betriebsunterbrechung einhalten, weil sonst die vom Hersteller spezifizierten Fehlerraten nicht mehr garantiert sind.
Das gilt aber genauso für die HDDs und die sollten auch allesamt nicht mehr als 1 Jahre gelagert werden, bei einigen sind sogar maximal 30 Tage stromlos empfohlen ("recommended maximum period between drive operation cycles is 30 days") wie schon in Post #30 erwähnt. Die 10TB Barracuda darf auch nur ein Jahr gelagert werden, wenn die Temperatur gar nur 25°C und die Luftfeuchtigkeit maximal 40% beträgt, sonst 60 Tage. Das sind also kürzere Zeiten bzw. schärfere Anforderungen an die Lagerbedingungen wie bei SSDs.
chithanh schrieb:
Festplatten behalten im Wesentlichen ihre Magnetisierung.
Was aber auch nichts nutzt, wenn die Schmierung der Lager oder der Platter, also des Head-Surface Interfaces nicht mehr funktioniert. Der Schmierstoff der dort eingesetzt wird solle nur eine Molekühlschicht dick sein, fühlt sich aber leider wohl wenn er sich zu 3 oder 5 Schichten auftürmen kann und dann stimmen die Kopfabstände nicht mehr.
chithanh schrieb:
Und die Fehlerkorrektur muss gelegentlich eingreifen, aber im Grunde liegen die Daten auf einem Sektor der Platte und müssen im Normalfall nicht erst probabilistisch aus mehreren Zellen errechnet werden.
Wie oft die Fehlerkorrektur bei einer H
HDDs wirklich etwas korrigieren musste, kann man aus den S.M.A.R.T. Werten aktuellerer HDDs schon lange nicht mehr ablesen, sondern nur wie oft diese nicht mehr gereicht hat und das darf bei den HDDs mit einer UBER von 1:10^14 eben einmal pro etwa 12TB gelesener Daten passieren ohne die Spezifikationen zu verletzen. Wenn sie so oft an ihre Grenzen stößt, dann kann man sich aber ungefähr vorstellen wie oft sie wohl notwendig sein dürfte, zumal bei den immer kleiner werdenden Bereichen eines Bits die Signalstärke an dem Köpfen beim Lesen auch immer geringer wird und da nun wirklich nicht deutlich 0 und 1 zu unterscheiden sind, sondern es einer aufwendigen Signalaufbereitung bedarf um die Bits überhaupt unterscheiden zu können.

chithanh schrieb:
Auch das wird im Vortrag anders dargestellt. Ein 8 Gbit Chip der zur 80% defekt ist wird mitunter gerne noch als 1 Gbit Chip verkauft.
Das mag bei den ganz billigen Speicherkarte und USB auch so sein, aber für SSDs sollten eigentlich nur NAND Qualitäten verwendet werden bei denen weniger als 1% der Kapazität ab Werk defekt sind, aber NANDs bei denen mehr defekt ist, sind natürlich billiger und werden dann u.U. von den weniger qualitätsbewussten Anbietern auch noch verwendet. Daher empfehle ich auch immer nur NAND Produkte von den NAND Herstellern bzw. deren Tochterfirmen zu kaufen und nicht von irgendeinem Anbieter. Die billigen Produkte von Herstellern ohne eigene NAND Fertigung können einfach keine guten NANDs enthalten, da diese sonst bei den Preisen einfach nichts daran verdienen könnten, die müssen praktisch jeden Schrott an NAND verwenden den sie irgendwo billig bekommen um bei solche Preisen noch Geld zu verdienen.

Koto schrieb:
Wo hast Du jemals eine Angabe gesehen wie lange ein SSD Stromlos sein darf? Also ich habe noch nie so einen Hinweis gesehen.
Koto schrieb:
Koto schrieb:
Ja was erwartet Du von den einem Angestellten von Seagate ("Alvin Cox, Chef der JEDEC und offiziell beim Speicherspezialisten Seagate angestellt"), also einem HDD Hersteller der es bisher nicht geschafft hat wirklich einen Fuß in die Tür bei NAND und SSDs zu bekommen? Außerdem wird wenn ich mich recht erinnere, der Link ist gerade nicht verfügbar, auch das Worst Case Scenario betrachtet, nämlich eine SSD die bei extrem geringen Temperaturen betrieben und dann bei extrem hohen Temperaturen gelagert wird. Bei geringen Temperaturen ist die Isolierschicht weniger durchlässig und leidet beim Schrieben und Löschen, wenn die Elektronen dort durchgeschossen werden, auch mehr, verschleißt also dabei auch stärker. Dafür werden die Elektronen dann auch länger gehalten, also bleibt die Ladung auch ohne Spannungsversorgung und damit ohne Refreshs länger erhalten.

Die JEDEC geht in der JESD218 auch von 40° Betriebs- und 30°C Lagertemperatur für Client SSDs (bei Enterprise SSD jeweils 10°C mehr) aus, weil eben die SSDs im Betrieb normalerweise wärmer sind als die Umgebung in der der Rechner steht und so wie dann wahrscheinlich auch "gelagert" werden, z.B. indem sie in einem ausgeschalteten Rechner stecken.

jedec_data_retention-jpg.332553


Diese Horrorrechnung bei der die Daten dann nur eine Woche erhalten bleiben geht aber von den umgekehrten Bedingungen aus und unterstellt geringe Betriebs- aber viel höhere Lagertemperaturen. Sowas wäre vielleicht bei einem Rechner der in einem Kühlhaus in den Tropen steht und dann mal eine Weile dort rausgenommen und in einem stickigen Lager aufbewahrt wird möglich, ist aber für Heimanwender sich nicht im Geringsten relevant. Außerdem bezieht es sich wie die Anforderungen der JESD218 auf den Zustand in dem die TBW erreicht ist, wobei die TBW bei Enterprise SSDs nicht wie heutzutage bei Consumer SSDs künstlich gering angegeben wird und daher gut mit den spezifizierten P/E Zyklen korreliert und somit für Consumer SSD wohl eher statt mit dem Erreichen der TBW mit dem der spezifizierten P/E Zyklen gleichzusetzen ist. Aber selbst die oft gering angegebenen TBW werden ja von nur ganz wenigen Heimanwendern überhaupt je erreicht, meist wird die SSD vorher gegen eine größere ersetzt.

Koto schrieb:
Ok der Artikel weiß darauf hin das es mumpitz ist im Privatkunden Bereich.
Das ist nicht nur bei Privatkunden Mumpitz, sondern auch bei Enterpriseanwendern wohl kaum realistisch. Zwar sind die Rechenzenten klimatisiert, aber innerhalb der Rechner wird es schon wärmer als im Rechenzentrum und damit würde eine SSD dann auch wärmer betrieben als gelagert und wenn sie dann in den Büros liegt, dürfte das noch der Fall sein. Es geht bei der ganzen Vorgabe ja auch vor allem darum die Daten einer SSD deren Lebenserwartung sich dem Ende neigt, auf die Ersatz-SSD übertragen zu können und dafür wird auch in einer Enterpriseumgebung wohl kaum jemand 3 Monate brauchen, zumal auch SSDs in einem Storage gewöhnlich in einem echten RAID (also einem mit Redundanz) laufen.
Koto schrieb:
Eben, genau das sage ich doch und da steht es auch:
Klar, die altern SSDs werden eingelagert und man ist auf die Daten auf denen auch noch angewiesen :Freak

Man die alten SSDs gehen zum Schreddern, aber wahrscheinlich war der LKW mit denen auf dem Weg zur NAS um es denen zu ersparen die Daten übers Internet ziehen zu müssen :evillol:

chithanh schrieb:
Eben und bei Samsung steht z.B. im White Paper der 950 Pro:
Percentage Used: Contains a vendor-specific estimate of the percentage of the device life used based on the
actual device usage and the manufacturer’s prediction of the device life. A value of 100 indicates that the estimated
endurance of the device has been consumed, but may not indicate a device failure. This value is allowed to exceed
100. Percentage values greater than 254 shall be represented as 255. This value shall be updated once per poweron
hour (when the controller is not in a sleep state).
Refer to the JEDEC JESD218 standard for SSD device life and endurance measurement techniques.
Die machen also auch klar, dass sie sich an die JESD218 halten.

chithanh schrieb:
Passiert in der Tat. In dem Fall (USB-Stick >=1 Jahr stromlos) wird bei Leseproblem oft geraten
Da wird nicht geraten und wie kommst Du da überhaupt drauf? Wenn es dann länger dauert die Daten zu lesen, so dürfte der Stick immerhin eine LDPC Fehlerkorrektur haben und die funktioniert so, dass die NAND Zellen mehrfach mit verschiedenen Schwellwerten ausgelesen werden und aufgrund der Ergebnisse die Fehlerkorrektur die realen Werte ermittelt. Das dauert länger, ist aber kein Rate sondern Mathematik, auch wenn Leute die mit dem kleinen 1x1 Probleme haben dies nie glauben werden, sondern lieber "Mathe ist ein Arschloch und Physik seine kleine Schwester" schreien. :evillol:

Vor Kurzem haben ich meinen allerersten USB Stick wiedergefunden, was war noch einer mit 256MB und das älteste Archive darauf war von 2003 und das jüngste von 2008 und alle waren mit 7z geprüft noch fehlerfrei. Dabei ist hier wo ich lebe die Jahresdurchschnittstemperatur mehr doppelt so hoch wie in Deutschland, sogar noch über 25°C und die Klimaanlage habe ich auch bei weitem nicht dauernd an.
chithanh schrieb:
Sie hält prinzipiell noch viel länger ihre Daten, nur der Hersteller garantiert dann nicht mehr die Einhaltung der Fehlerrate.
Mit der Fehlerrate bei NAND verhält es sich eben so:

uber_hdd-ssd-png.570182


Die Werte der X- und Y-Achsen sind beispielhaft und das TBW Rating wird wie gesagt heutzutage bei Consumer SSDs oft künstlich geringer angegeben, auch hält sich bei der Spezifikation der P/E Zyklen nicht jeder Hersteller an die Vorgaben der JESD218, aber wenn sieht es etwa so aus. Wobei die SSDs nach der JESD218 immer wenigstens eine UBER von 1:10^15 einhalten müssen, viele Consumer HDDs aber nur eine UBER von 1:10^14 haben. Bei NAND schlechter Qualität kann die Kurve auch schon gleich zu Beginn nicht bei 0 stehen und dann noch schneller ansteigen, solche NANDs für Speichermedien zu verwenden kommt zwar vor, ist aber unseriöse und in SSDs haben die schon gleich gar nichts verloren. Wobei ich aber nicht sagen kann, wie weit dies noch für die aktuellen planaren NANDs aus 15/16nm Fertigung gilt, denn bei weniger als 20nm sind auch die Zellabstände i.d.R. schon so gering, dass die Nachbarn die Ladung massiv beeinflussen und daher ist dort eben auch eine weitaus aufwendigere Fehlerkorrektur und ein viel regelmäßigere Refreshen der Ladung nötig als bei früheren NANDs auf die sich diese Darstellung noch bezieht. Wie gesagt werden eben auch bei NANDs die technischen Eigenschaften mit den Shrinks zumeist schlechter, weil zumindest bei den planaren NANDs eben dort das Ziel ist die Zellen und Zellanstände zu verkleinern um die Datendichte zu steigern und die Kosten zu verringern. Hart an den Grenzen ist man heute also nicht nur die HDDs, sondern auch bei den planaren NANDs. Geringere Kosten sind aber eben das wichtigste, vor allem bei der Consumer HW.

UBER_HDD-SSD.png
 
Holt schrieb:
Ohne ihn mir angesehen oder ihn gelesen zu haben, sagt das eigentlich alles über den Vortag aus.
Der Vortragende ist nicht gerade ein Niemand, und die mehreren hundert Anwesenden und die Kommentatoren auf einschlägigen Seiten waren anscheinend auch damit zufrieden.

Holt schrieb:
Wie notwendig die Fehlerkorrektur ist, hängt von NANDs und deren Qualität ab, da wird gerade bei Speicherkarten und USB Sticks auch gerne mal der letzte Dreck an NAND verbaut, vor allem wenn sie nicht von einem NAND Hersteller sind.
So wie ich das verstanden habe: Egal ob gute oder schlechte Qualität, bei Flash wird grundsätzlich eine "probabilistic approximation of your data" gespeichert.

Holt schrieb:
Das gilt aber genauso für die HDDs und die sollten auch allesamt nicht mehr als 1 Jahre gelagert werden,
5-10 Jahre sind bei geeigneten Festplatten schon drin. Das räumt sogar die Konkurrenz ein.


Holt schrieb:
Was aber auch nichts nutzt, wenn die Schmierung der Lager oder der Platter, also des Head-Surface Interfaces nicht mehr funktioniert.
Klar kann die Platte mechanisch kaputt gehen, das bestreitet niemand und darum geht es hier auch gar nicht.

Holt schrieb:
Das mag bei den ganz billigen Speicherkarte und USB auch so sein, aber für SSDs sollten eigentlich nur NAND Qualitäten verwendet werden bei denen weniger als 1% der Kapazität ab Werk defekt sind, aber NANDs bei denen mehr defekt ist, sind natürlich billiger und werden dann u.U. von den weniger qualitätsbewussten Anbietern auch noch verwendet. Daher empfehle ich auch immer nur NAND Produkte von den NAND Herstellern bzw. deren Tochterfirmen zu kaufen und nicht von irgendeinem Anbieter.
Diese Praxis ist tatsächlich vor allem bei SD-Karten ausgeprägt. Von einem namhaften Hersteller zu kaufen erhöht die Chance, ordentliche Ware zu bekommen aber eine Garantie ist das nicht.
"Larger vendors will tend to offer more consistent quality, but even the largest players staunchly reserve the right to mix and match flash chips with different controllers, yet sell the assembly as the same part number"

Holt schrieb:
Vor Kurzem haben ich meinen allerersten USB Stick wiedergefunden, was war noch einer mit 256MB und das älteste Archive darauf war von 2003 und das jüngste von 2008 und alle waren mit 7z geprüft noch fehlerfrei. Dabei ist hier wo ich lebe die Jahresdurchschnittstemperatur mehr doppelt so hoch wie in Deutschland, sogar noch über 25°C und die Klimaanlage habe ich auch bei weitem nicht dauernd an.
Ja, früher™ hatte man noch SLC und große Strukturbreiten...
 

Anhänge

  • biz_ideal_01_img02.gif
    biz_ideal_01_img02.gif
    8,4 KB · Aufrufe: 825
chithanh schrieb:
Der Vortragende ist nicht gerade ein Niemand, und die mehreren hundert Anwesenden und die Kommentatoren
Na und? Wenn man eine Schrott-SD Karte analysiert bei der von dem NAND Chip nur ein Bruchteil überhaupt brauchbar ist, dann wird jeder zu so einem Ergebnis kommen, aber über ordentliche NANDs in vernünftigen SSDs sagt das immer noch rein gar nichts aus.
chithanh schrieb:
So wie ich das verstanden habe: Egal ob gute oder schlechte Qualität, bei Flash wird grundsätzlich eine "probabilistic approximation of your data" gespeichert.
Dem ist nicht so, egal ob es in dem Beitrag so rüber kommt oder Du es nur so verstanden hast.
chithanh schrieb:
5-10 Jahre sind bei geeigneten Festplatten schon drin. Das räumt sogar die Konkurrenz ein.
Das sage ich doch, 5 Jahre Service Life und ein paar Jahre mehr sollten noch drin sein, sofern man die HDD nicht außerhalb der Spezifikationen betreibt und damit überfordert. Langzeitdatenspeicherung ist aber trotzdem noch was anderes und nicht die Stärke von Consumer-HW, egal ob HDDs oder SSD, darüber sollte man sich klar sein. Ob nun eine HDD oder eine SSD die Daten länger hält, dürfte eher vom Einzelfall abhängen als von der zugrundeliegenden Technologie.
chithanh schrieb:
Klar kann die Platte mechanisch kaputt gehen, das bestreitet niemand und darum geht es hier auch gar nicht.
Wieso geht es da nicht drum? Was nutzt es, wenn die Daten noch auf der Magentscheibe stehen, aber nicht mehr auslesbar sind und man viele Hundert bis einige Tausend Euro für einen Profi ausgeben muss um an die Daten zu kommen?
chithanh schrieb:
Von einem namhaften Hersteller zu kaufen erhöht die Chance, ordentliche Ware zu bekommen aber eine Garantie ist das nicht.
Unter den namhaften Hersteller sind auch viele die selbst keine NANDs herstellen, von daher habe ich mit dem Begriff gewisse Probleme, zumal die auch unterschiedliche Qualitäten im Programm haben, von billige bis Premium mit langer Garantiedauer, aber dann auch entsprechend teuer.
 
Sehr schöne News! Hat jemand von euch Daten, wann diese Platten zum Verkauf stehen?

VG
 
Zur Haltbarkeit von HDD und SSD post ich das mal wieder.

SSD (RDX) 1 Jahr
HDD (RDX) 10 Jahre

http://www.tandbergdata.com/de/index.cfm/products/media/rdx-media/hdd-rdx-media/ (auf Spezifikationen klicken)
http://www.tandbergdata.com/de/index.cfm/products/media/rdx-media/ssd-rdx-media/
Ergänzung ()

Longtech schrieb:
Sehr schöne News! Hat jemand von euch Daten, wann diese Platten zum Verkauf stehen?

VG

In Kürze, wie es aussieht (8/2016) https://geizhals.de/?cat=hde7s&xf=957_Seagate~958_10000
 
Holt schrieb:
Da wird nicht geraten und wie kommst Du da überhaupt drauf?
Ich hatte es bei heise gelesen, finde den Link aber gerade nicht.
Es geht darum, dass der Flash-controller einen refresh/scrub durchführen muss, bevor wieder fehlerfreies Lesen möglich ist.
Eine weitergehende Erklärung hatten sie nicht gegeben, ich gehe aber von folgendem aus: Bei Flash gibt es neben dem write disturb (den auch Festplatten, optische Medien usw. haben) auch einen read disturb. Wenn die Ladung in den Zellen nach so langer Zeit recht schwach ist, muss die Firmware die Gelegenheit bekommen, den refresh-Zyklus einmal komplett durchzuführen. Vgl. "data retention age affect the read disturb induced error rate," [1, 2]

Holt schrieb:
Na und? Wenn man eine Schrott-SD Karte analysiert bei der von dem NAND Chip nur ein Bruchteil überhaupt brauchbar ist, dann wird jeder zu so einem Ergebnis kommen, aber über ordentliche NANDs in vernünftigen SSDs sagt das immer noch rein gar nichts aus.
Die Qualität der Flash-Chips zu bewerten war auch gar nicht das Ziel der Analyse. Es ist nur als Nebenprodukt herausgekommen, dass da eine nahezu komplette Verwertung teildefekter Chips stattfindet, sowohl in Billigprodukten als auch in Markenware. Und diese Tatsache und dass Flash inhärent die Daten nicht behält wird vor dem Benutzer durch den massiven Einsatz von Fehlerkorrekturverfahren verborgen.
Dass du behauptest, es sei bei "vernünftigen" Flashspeichern nicht so, lasse ich mal so stehen.

Holt schrieb:
Wieso geht es da nicht drum? Was nutzt es, wenn die Daten noch auf der Magentscheibe stehen, aber nicht mehr auslesbar sind und man viele Hundert bis einige Tausend Euro für einen Profi ausgeben muss um an die Daten zu kommen?.
Wenn du den Anfang der Diskussion liest: Es geht um die Haltbarkeit der Daten auf einer HDD. Bei Festplatten reduziert eine energetischen Barriere von >=40 kT ein Kippen von Bits, und es versagen eher die anderen Teile als dass sich die Daten verflüchtigen.

[1] Y. Cai et al.: “Error Patterns in MLC NAND Flash Memory: Measurement, Characterization, and Analysis” DATE 2012
[2] Y. Cai et al.: "Read Disturb Errors in MLC NAND Flash Memory: Characterization, Mitigation, and Recovery" DSN 2015
.
 
Danke an yetisports und holt. Dann bin ich ja froh, dass sich smr nicjt überall ausbreitet. Da meine 8tb platten zudem deutlich günstiger waren bei ct/gb freut's mich gleich nochmal.
 
Anmeldeblödsinn schrieb:
Zur Haltbarkeit von HDD und SSD post ich das mal wieder.

SSD (RDX) 1 Jahr
HDD (RDX) 10 Jahre

http://www.tandbergdata.com/de/index.cfm/products/media/rdx-media/hdd-rdx-media/ (auf Spezifikationen klicken)
Das mag für Tandberg gelt, die schreiben ja auch "Cartridge Falltest (Lagerung) 1 m auf Betonboden", während normale HDDs es sich nicht verkraften werden aus einem Meter höhe auf einen Betonboden zu fallen. Daher würde ich deren Angaben nie pauschal auf HDDs und SSDs übertragen. Es gibt wie gesagt auch von Spansion spezielle NANDs mit 20 Jahren DRT im Neuzustand, trotzdem schafft das nicht jedes NAND.

chithanh schrieb:
Ich hatte es bei heise gelesen, finde den Link aber gerade nicht.
Alles klar.
chithanh schrieb:
Es geht darum, dass der Flash-controller einen refresh/scrub durchführen muss, bevor wieder fehlerfreies Lesen möglich ist.
Das ist doch schon in sich unlogisch, denn für den Refresh muss der Controller die Daten ja auch erst einmal korrekt lesen, wie soll er sie sonst woanders so hinschreiben, dass sie von dort korrekt gelesen werden? Ein Refresh ist immer ein Umkopieren der Daten in einen anderen Bereich, da wird nicht die Ladung der Zellen nachgetankt, auch wenn es so klingen mag.
chithanh schrieb:
Wenn die Ladung in den Zellen nach so langer Zeit recht schwach ist, muss die Firmware die Gelegenheit bekommen, den refresh-Zyklus einmal komplett durchzuführen. Vgl. "data retention age affect the read disturb induced error rate," [1, 2]
Ja das ist bekannt und war schon immer so, es wurde aber im Zusammenhang mit der 840 Evo viel diskutiert, weil es viele nur als Notlösung verstanden haben, wenn der Controller einen Refresh der Daten macht und nicht einsehen wollen, dass dies einfach normal ist und schon immer so war, nur bei NANDs mit größeren Zellen und Zellabständen eben weniger oft nötig ist.

chithanh schrieb:
eine nahezu komplette Verwertung teildefekter Chips stattfindet, sowohl in Billigprodukten als auch in Markenware.
Markenware sagt nichts aus, denn eine Marke steht auf praktisch jedem Produkt und damit ist es Markenware, auch die River Cola von Aldi ist daher Markenware. Man muss bei NAND Produkten zwischen denen der Hersteller von NAND und den anderen Anbietern unterscheiden, die NAND Hersteller machen bei USB Sticks und Speicherkarten auch Zugeständnisse bzgl. der Qualität der verwendeten NANDs, aber die andere verbauen oft wirklich den letzten Schrott an NAND, da sind nur die Fälscher noch schlimmer, wobei Fälschungen leider gar nicht so selten sind.

Wenn da wirklich NAND in einer Karte gefunden wurde bei dem nur ein Bruchteil nutzbar war, dann würde ich sogar sehr auf eine Fälschung tippen oder vielleicht ein extrem billiges Produkt, wie sie gerne als Werbegeschenke verwendet werden. Ein Bekannter hatte man für seine Fima eine Lieferung 4GB Stick als Werbegeschenke eingekauft, davon war nicht einer über die vollen 4GB funktionsfähig, die meisten hatte gerade 2GB die laut h2testw funktioniert hatten.
chithanh schrieb:
Und diese Tatsache und dass Flash inhärent die Daten nicht behält wird vor dem Benutzer durch den massiven Einsatz von Fehlerkorrekturverfahren verborgen.
Ja, sonst wären solche NANDs und überhaupt alle NANDs nach einiger Zeit gar nicht mehr nutzbar, durch die Fehlerkorrekturen erhöht man eben die Zeit die man NANDs nutzen kann und ermöglicht es auch die Nutzung solch minderer Qualitäten, die schon im Neuzustand nicht ohne Fehlerkorrekturen auskommen. Außerdem wüsste man sonst ja auch nie, ob die Daten überhaupt korrekt sind die da ausgelesen werden.
chithanh schrieb:
Es geht um die Haltbarkeit der Daten auf einer HDD. Bei Festplatten reduziert eine energetischen Barriere von >=40 kT ein Kippen von Bits, und es versagen eher die anderen Teile als dass sich die Daten verflüchtigen.
Mag sein, aber dies nutzt praktisch nichts, wenn die Mechanik oder Elektronik versagt die man braucht um diese Daten auszulesen. Dann kann nur noch ein Datenrettungsprofi helfen und das kostet viel Geld. Ob die Profis auch bei den mit Helium gefüllten Platten noch helfen können und wenn ja, was das dann kostet, wird man auch erst noch sehen müssen.

Die Empfehlungen von Seagate zur Lagerung von HDDs hatte ich ja schon zitiert, wer meint sie länger lagern zu wollen, der sollte sich eben nicht beschweren, wenn die HDD danach nicht mehr funktioniert. Die Hersteller geben solche Empfehlungen ja nicht zum Spaß und wenn andere wie Tandberg für ihre auf HDDs basierenden Medien andere, längere Lagerzeiten vorsehen, so haben sie da entweder HDDs mit besonderen Spezifikationen bei einem Hersteller bestellt und verbaut oder meinen einfach selbst mehr angeben zu können und müssen dann im Zweifel mit der Reaktion der Kunden leben, sollten sich die Angaben als zu optimistisch erwiesen haben.
 
Holt schrieb:
Das ist doch schon in sich unlogisch, denn für den Refresh muss der Controller die Daten ja auch erst einmal korrekt lesen, wie soll er sie sonst woanders so hinschreiben, dass sie von dort korrekt gelesen werden? Ein Refresh ist immer ein Umkopieren der Daten in einen anderen Bereich, da wird nicht die Ladung der Zellen nachgetankt, auch wenn es so klingen mag.
Ein zusätzlicher Lesevorgang vor dem Refresh würde zu zweimal read disturb führen, daher ist meine Theorie dass der Controller das verhindert um die Wahrscheinlichkeit von Datenverlust möglichst klein zu halten.
Holt schrieb:
Daher würde ich deren Angaben nie pauschal auf HDDs und SSDs übertragen.
Holt schrieb:
Das gilt aber genauso für die HDDs und die sollten auch allesamt nicht mehr als 1 Jahre gelagert werden,
Alles klar. ;)
 
Zuletzt bearbeitet:
Holt schrieb:
Das mag für Tandberg gelt, die schreiben ja auch "Cartridge Falltest (Lagerung) 1 m auf Betonboden", während normale HDDs es sich nicht verkraften werden aus einem Meter höhe auf einen Betonboden zu fallen. Daher würde ich deren Angaben nie pauschal auf HDDs und SSDs übertragen. Es gibt wie gesagt auch von Spansion spezielle NANDs mit 20 Jahren DRT im Neuzustand, trotzdem schafft das nicht jedes NAND.
...

Ja, klar, sind "RDX-Medien". Eigentlich Hitachinotebookplatten mit sehr angepasster Firmware und Partitionierung. Ich wollts nur mal so reinstellen, da hier man einmal eine Herstellerangabe sieht was sie ihren (optimierten) Medien zutrauen. Da würd ich Consumerware eher noch weniger trauen.
 
chithanh schrieb:
Ein zusätzlicher Lesevorgang vor dem Refresh würde zu zweimal read disturb führen, daher ist meine Theorie dass der Controller das verhindert um die Wahrscheinlichkeit von Datenverlust möglichst klein zu halten.
Nur will kann der Controller die Daten woanders hin schreiben, wenn er sich gar nicht erst gelesen hat? Da müsste er ja raten was da stehen könnte und würde das niemals korrekt erraten. Wenn die Daten hinterher lesbar sind und dies auch noch schneller geht als davor, dann kann er sich das Lesen ja nicht gespart haben.

chithanh schrieb:
Das die HDDs allesamt nicht mehr als 1 Jahre gelagert werden sollten bezieht sich auf die Angaben der HDD Hersteller für ihre normal verkäuflichen Modelle. Wenn Tandberg sich was besonderes herstellen lässt und die Platten andere Spezifikationen haben, dann ist das eben so, nutzt aber nichts, wenn man nicht auch genau diese Tandberg Medien nutzt.
 
Bei mir sind gerade 2 10TB IronWolfe eingetrudelt. Nicht das es einen Unterschied bei der Nutzbarkeit machén wurde, aber dieses hochwertige silberne Gehäuse macht schon was her ;) Werden grad mit Daten befüllt, erstaunlich leise für 7200er, höre sie eigentlich nicht über meine WD REDs raus und Vibrationen gibts auch keine stärkeren - da machen 7200er ja gern mal Probleme.
 
Zurück
Oben