News Seagate: HAMR-Prototypen Ende 2016 mit zunächst nur 4 TByte

Cool Master schrieb:
Welche 1. Gepflegt werden müssen und 2. das Rückspielen eines BU ewig dauert da man das gesamt Tap absuchen darf.

Schau mal über deinen Tellerrand hinaus. Wir verwenden bei uns LTO 6 Bänder als Langzeitspeicher. Und das ist deutlich billiger als mit HDDs. In 10 Jahren liest du auf der HDD nicht mehr viel. Ein ordentlich gelagertes Band kommt damit klar.

Des weiteren kommt das Suchen auf deine Software an. Wenn du bspw. sowas wie Veeam (gibt auch noch andere, aber das setzten wir ein) nimmst, dann sind die Bänder und deren Daten inventarisiert, also nix mit Suchen. Das Band wird an die richtige Position gespult und dann gelesen. bei 400 MB/s ist das auch alles andere als langsam.
 
Cool Master schrieb:
Welche 1. Gepflegt werden müssen und 2. das Rückspielen eines BU ewig dauert da man das gesamt Tap absuchen darf.

Bänder werden wie bei jedem Backup mit der Hoffnung geschrieben sie NIE wieder lesen zu müssen.

Weiß nicht wie oft ich Bänder beschrieben habe aber ich musste sie glücklicherweise kein einziges mal wieder lesen.

Ich denke einer der Hauptattraktion bei Bändern ist genau diese Umständlichkeit. Ein verrutschtes Leerzeichen bei "rm -rf / tmp/*" und du hast dein Rechner zerschrotet. Die Bänder im Regal bleiben davon unberührt.

Außerdem zählt da jedes Cent pro GB wenn es um große Datenmengen geht.

Bei paar Hundert GBs spielt der Preis natürlich keine so große Rolle.

Zum Topic:

Wird der Preis pro GB konstant bleiben oder peilt man etwa 300 EUR für eine HDD am oberen Kapazitätsskala?
 
Zuletzt bearbeitet:
root@linux schrieb:
... Für Backups, wo die Dateien schnell verfügbar sein müssen, ist diese Technik natürlich nicht geeignet, ...
Ich hab mal einen Vortrag gehört, dass Tape-Datenbanken dank des Big-Data-Booms gerade ein regelrechtes Revival erleben sollen. IBM hat wohl auch beim Dateisystem in AIX für leicht integrierbare HDD-Caches vor die Tape-Datenbank gesorgt.
 
Es sollte wohl jedem klar sein, daß diese Technik und die erarbeitete Erfahrung, die wohl nur von 2-3 Firmen beherrscht wird, in wenigen Jahrzehnten unwiederbringlich verloren geht.

Andererseits frage ich mich, warum die nicht daran arbeiten mehrere oder gar zahlreiche Köpfe um die HDD herum zu platzieren? Oder mehrere Köpfe auf einem Arm zu montieren,, oder einen feststehenden Arm mit lithographisch gefertigten 1000den Köpfen anzubringen.
 
Vor 67 Jahren wurde mal ein speichern per einprägen von bit in ein Blech präsentiert als backup datenträger, daraus ist bis heute nichts geworden zumindest findet man den Artikel von damals nicht auf der Homepage wo iches gelesen habe golem.de
 
Cool Master schrieb:
Magnetbänder gibt es nur weil die Unternehmen die Maschinen dazu haben. Keiner wird sich heute noch Magnetbänder als Backup Strategie kaufen. Dafür sind Festplatten einfach zu billig.
Das gilt aber auch nur für Heimanwender, für die lohnt es sich i.d.R. wirklich nicht für ihre paar TB ein Tapelaufwerk und noch die nötige Controllerkarte und SW zu kaufen, aber die Medien sind unschlagbar günstig.

Außerdem kann man die Bänder auch gut transportieren um ein weiteres Backup dezentral zu halten und es kommt so leicht keiner auf die Idee diese anderweitig zu verwenden, aber lass mal irgendwo einen Stapel HDDs, besonders solche in USB Gehäusen, unbeaufsichtigt in einer Firma rumstehen und schau wie viele dann nach einem Tag noch da sein :evillol:
Cool Master schrieb:
Wie du schon sagtest noch ist Flash nichts für Langzeit aber ey wie lange gibt es Flash bis jetzt im Consumer Markt? 10 Jahre?
Der letzte wirklich Langzeitspeicher waren Lochkarten, da man bei Papier viel Erfahrung mit der Langzeitlagerung hat, der Stapel darf nur nicht durcheinander kommen und mit den Lesegeräten wird es heute auch schwer. :evillol:

Bei allen anderen Massenspeichern wird es schon kritisch wenn man da in Jahrzehnten oder gar Jahrhunderten denkt. Die Hersteller einige vor allem optischer Medien versprechend zwar viel, bewiesen ist das aber wenig.
Cool Master schrieb:
Schnelllere HDDs gibt es --> 10k/15k Modelle aber das wollen die Leute halt nicht weil man meint ein Helikopter wäre im Gehäuse.
Die gibt es noch, die sind aber schon vom Aussterben bedroht, weil SSDs sie in den nächsten Jahren verdrängen werden, denn die SSDs sind schneller und bieten viel höhere Kapazitäten pro Laufwerk, man braucht als viel weniger Storage Racks für die gleiche Kapazität in TB oder PB, also auch weniger Strom, weniger Kühlung, weniger sonstige HW, weniger Platz im Rechenzentrum und damit relativiert die der Preis pro TB der bei SSDs immer noch höher liegt dann ganz schnell.

Cool Master schrieb:
Welche 1. Gepflegt werden müssen und 2. das Rückspielen eines BU ewig dauert da man das gesamt Tap absuchen darf.
Was muss da gepflegt werden? Die Tapelib hat einen Roboterarm der die Bänder tauscht und ab und zu auch das Reinigungsband einlegen kann, dass geht alles automatisch. Du hast offenbar nie mit Profihardware gearbeitet und keinerlei Vorstellung davon.

Kowa schrieb:
Es sollte wohl jedem klar sein, daß diese Technik und die erarbeitete Erfahrung, die wohl nur von 2-3 Firmen beherrscht wird, in wenigen Jahrzehnten unwiederbringlich verloren geht.
Das ist das Schicksal der Techniken die abgelöst wurden, wir wissen ja auch gar nicht mehr genau wie man Pyramiden ohne moderne Maschinen baut. Wer kann heute noch Dampfloks konstruieren? Oder Ringkernspeicher fädeln?

Kowa schrieb:
Andererseits frage ich mich, warum die nicht daran arbeiten mehrere oder gar zahlreiche Köpfe um die HDD herum zu platzieren? Oder mehrere Köpfe auf einem Arm zu montieren,, oder einen feststehenden Arm mit lithographisch gefertigten 1000den Köpfen anzubringen.
Es gab mal eine HDD mit zwei Kopfsätzen, das hat sich nicht durchgesetzt, ich vermute die Vibrationen bei der Bewegung eines der Kopfsätze dürften den anderen zu sehr stören. Das Problem bei mehreren Köpfen an einem Arm ist das Gewicht und wenn man feststehende Arm mit viele Köpfen dran nehmen würde, wäre es wohl erstens teuer, die Köpfe sind ja aufwendig und dann wohl unmöglich für jeden einzelnen oder gar alle gleichzeitig ständig den korrekten Abstand zur Scheibe sicherzustellen, zumal wenn sich alles wegen Temperaturschwankungen ausdehnt und zusammenzieht.

Was Seagate hier vorhat, scheint ja wohl vor allem darauf zu zielen die Machbarkeit zu belegen, denn für eine 4TB HDD braucht man ja nun kein HMR, das schafft man auch ohne. Der Sinn von und die Motivation für HMR ist ja gerade die Datendichte über das Limit hinaus zu steigern, an dem man nun angekommen ist. Das scheint aber nicht so einfach zu sein, immerhin wird das Auslesen bei immer kleiner werdenden Bereiche pro Bit ja auch nicht leichter, auch wenn man bei der Minimierung der Größe der Leseköpfe wohl weiter als bei den Schreibköpfen kommt.

Also mal abwarten wann denn die HMR Platten auch wirklich mit einer größeren Kapazität kommen als es heute schon möglich ist, denn auf eine HMR HDD mit nur 4TB hat wohl keiner so wirklich dringend gewartet :evillol:
 
Die Technik gibt es ja schon seit Jahren bei MO Laufwerken. Hier zählt gerade die Haltbarkeit der Daten. Jeder Flash Speicher ist in 20 Jahren leer. Der Inhalt von Festplatten nicht. Ob die Mechanik dann noch funktioniert ist eine andere Sache...
 
Holt schrieb:
...
Der letzte wirklich Langzeitspeicher waren Lochkarten, da man bei Papier viel Erfahrung mit der Langzeitlagerung hat, der Stapel darf nur nicht durcheinander kommen und mit den Lesegeräten wird es heute auch schwer. :evillol:
...
Man sollte die Unfallgefahr nicht unterschätzen und bei einer Führung durchs Landesarchiv Berlin habe ich gelernt, dass Papier, anders als viele so glauben, alles andere als zuverlässig ist. Bei guter Lagerung halten sich Bücher aus dem Mittelalter noch ganz gut, weil die eine Wahnsinnnspapierqualität haben, aber sobald das Papier industriell massengefertigt ist, zersetzt es sich auch bei guter Lagerung ohne besondere Konservierungstechniken innerhalb eines Jahrhunderts, weil es bereits chemische Ausgangsprodukte für Zerfall enthält und nicht erst durch feuchte, schmutzige Luft ziehen muss. Seit den 40ern lief deshalb in fast allen Ländern der Welt die Kopie auf Microfilm und seit fast zehn Jahren die Kopie auf Digital - die vielleicht in 50 Jahren abgeschlossen sein wird. Bei Papierlagerung kommt noch erschwerend hinzu, dass jede Einsicht zerstörend wirkt, weshalb du bei Zeitungsarchiven auch bei vorhandenen Orignalheftern nur Einsicht in die Originale bekommst, wenn entweder noch keine Microfilm- oder Digitalkopie vorliegt (das gibts - die Kopie auf Microfilm wird nie abgeschlossen werden, weil man jetzt auf Digital kopiert, mit den Microfilmen beginnend) oder du einen besonderen Grund hast, das Original sehen zu müssen (bspw. genehmigte Studie zur Untersuchung der Tintenzusammensetzung und dafür entnahme einiger Tintenpartikel oder sowas)

Man sollte sich auch vor Augen führen, dass es die manchmal zitierten 5000 Jahre alten Sanskritoriginale nicht gibt - die sind maximal 300-500 Jahre alt, weil sie regelmäßig per Hand von Brahmas abgeschrieben werden. Wenn man sich jetzt überlegt, wie groß der Zeitunterschied beim Kopieraufwand ist, ist die Digitallangzeitarchivierung unschlagbar - man muss zwar alle zehn oder weniger statt alle paar hundert Jahre kopieren, dafür braucht aber das Abschreiben nur eines Sanskrit-Rindenbandes selbst Jahre.

Kurzgefasst: Langzeitarchiviert ist nie in den Schrank legen und vergessen. Auch in Papierarchiven wird regelmäßig der fortschreitende Zerfall geprüft und auch anhand dieser Prüfung entschieden, welche Dokumente in welcher Reihenfolge auf ein neues Medium kopiert werden. Und mit Digitalarchivierung ist es einfacher, identische Kopien an verschiedenen Orten aufzubewahren, damit Archivbrände, Wasserkatastrophen usw. usf., von denen es allein im letzten Jahrzehnt schon zwei in Deutschland gab (Anne-Amalie-Bibliothek und Stadtarchiv Köln), keine so ernsten Auswirkungen haben, wie mit der Technik früherer Jahrhunderte.

Ich könnte mir aber vorstellen, dass die dort auf den Archivrechnerfarmen nur bereits erprobte Festplattenmodelltypen einsetzen, sodass HAMR dort vielleicht in 10 Jahren ein Thema wird.
 
Zuletzt bearbeitet:
beckenrandschwi schrieb:
Jeder Flash Speicher ist in 20 Jahren leer.
Nein, der Ladungsverlust ist ja abhängig von der Temperatur und je kühler es ist, umso länger halten die Daten, je nach Quelle verdoppelt sich die Zeit bei je 5°C oder 10°C weniger. Entsprechend kühl gelagert, sollten Daten auf NANDs sogar, sehr, sehr lange halten können. Da die Data Retention Time auch mit der Nutzung der Zellen abnimmt, ist neues NANDs natürlich gebrauchtem vorzuziehen.

Außerdem gibt es spezielle NANDs für extra lange Data Retention, sowas braucht z.B. die Automobilindustrie:
Wenn das selbst bei 55°C schon 20 Jahre die Daten hält und die Verdoppelung pro 10°C eintritt, dann wären es bei 45°C schon 40 Jahre, bei 35°C 80 Jahre und bei den normalen 25°C Raumtemperatur dann 160 Jahre, bei 15° sogar 320 Jahre und in einer kühlen Höhle bei 5° 640 Jahre.

Dieses NAND dürfte halt etwas mehr kostet und daher nicht in normalen SSDs verbaut werden, es ist eben für Spezialanwendungen, aber ein Autohersteller muss ja auch dafür sorgen, dass seine Autos nicht nach 2 Jahren stehenbleiben, weil die Steuergeräte ihre FW verloren haben, andererseits möchte er diese FW auch Updaten können, wenn ein Fehler gefunden wurde.
 
Das richtige Backup-Medium für alle Anwendungszwecke gibt es nicht.

Bei Festplatten müssen die Daten alle paar Jahre umkopiert werden. Sonst bleiben die Schreib-/Leseköpfe kleben.
Bei Bandlaufwerken alle 3-4 Generationen, soweit reicht die Abwärtskompatibilität von LTO.
Flash-Speicher müssen einmal im Jahr mit Strom versorgt werden für den nötigen Refresh. Sonst übersteigt die Fehlerrate die Fähigkeiten der Fehlerkorrektur.
Blu-Ray soll 50 Jahre und länger halten, aber auch da ist man auf kompatible Laufwerke angewiesen.

bensen schrieb:
Den Schreibmaschinenherstellern ist es auch nicht gelungen CPUs zu entwickeln und Computer anzubieten.
IBM war früher ein Schreibmaschinenhersteller...
Ergänzung ()

Holt schrieb:
Außerdem gibt es spezielle NANDs für extra lange Data Retention, sowas braucht z.B. die Automobilindustrie: Wenn das selbst bei 55°C schon 20 Jahre die Daten hält
Klar brauchen die in der Automobilindustrie das, soll schließlich nicht nach 10 Jahren das Auto streiken, weil in der Firmware eine Flash-Zelle ihre Ladung verloren hat.

Solche Speicher sind aber pro Bit entsprechend teuer und damit für Backup-Zwecke nicht konkurrenzfähig.
 
Zurück
Oben