Digitale Erinnerungen aufbewahren

Aladin86

Lt. Junior Grade
Registriert
Aug. 2017
Beiträge
305
Hallo Leute

Mich würd's mal interessieren was das beste Speichermedium ist, um alle alten Fotos und Videos für die nächsten Jahrzehnten aufzubewahren? Damit die Daten nicht kaputt gehen oder eben die Speichermedien aber auch sicherheitstechnisch sollte alles ok bleiben!

Grüsse aus der Schweiz, Luzern
 
2019-02-11 18_23_43-Langzeitarchivierung – Wikipedia – Opera.png

Quelle: https://de.wikipedia.org/wiki/Langzeitarchivierung

Hab im Screen mal die richtig alten Methoden weggelassen ^^. Tontafeln sind für Videos eher ungeeignet.

Erneuern (also auf neue Medien überspielen) wird eh auf der Liste stehen. Wer weiß ob es in 50 Jahren oder so noch funktionierende USB-Lesegeräte oder DVD Laufwerke gibt, außer im Museum oder im Keller eines Nerds ^^.

mfg
 
  • Gefällt mir
Reaktionen: Madman1209 und Rickmer
Was für das Thema Langlebigkeit wohl eher supoptimal ist.

Optische Datenträger vor Licht geschützt oder ne Server hdd welche man alle jubeljahre mal anschließt. Eventuell noch ne ssd, welche aber nach 5 Jahren ohne Strom auch vergesslich werden kann.
Bei wichtigen Erinnerungen ist ein Backup eh nicht ausreichend.
Alternativ bzw ergänzend alles in ne zip Datei und auf eine cloud deines vertrauens hochladen
Sverd schrieb:
Ich hab meine Sachen alle auf USB Sticks, oder Speicherkarten gesichert.
 
Gebrannt auf M-Disc, wenn man es einlagert. https://de.wikipedia.org/wiki/M-DISC
Ich würde sonst aber immer mehrfache Backups auf Festplatten halten. Meist kommt etwas hinzu oder man sortiert um. Gibt von den drei Backup HDDs eine den Geist auf, kauft man eine neue und erstellt von den anderen zweien wieder die dritte neu. Das kann man wahlweise über externe USB-HDDs oder über ein NAS machen.
Sverd schrieb:
Ich hab meine Sachen alle auf USB Sticks, oder Speicherkarten gesichert.
Das sind für mich nur Transportmedien, da sie vergleichsweise häufig den Dienst quittieren.
 
  • Gefällt mir
Reaktionen: Markchen
Hallo, ich setze auf M-Disk Bluray, hat auch eine gute Speichergröße.
 
Ich würde mir 2-3 externe Festplatten von verschiedenen Herstellern kaufen dort die Daten aufspielen und an unterschiedlichen Orten aufbewahren.
Dann einmal jedes oder alles zwei Jahre anschalten, überprüfen ob mit den Daten und dem Datenträger selbst noch alles stimmt (Stichwort S.M.A.R.T. Werte) und wieder ab in den Keller / Speicher sonstwo damit.

Wichtig ist vor allem, dass die Daten nicht nur auf einem einzelnen Datenträger liegen und idealerweise auch räumlich getrennt gelagert werden.
Ansonsten fällt die Platte einmal runter, ein Einbrecher packt alle Sachen aus dem Regal ein, Keller wird geflutet oder brennt ab usw. ... und alles ist weg.
 
Aladin86 schrieb:
für die nächsten Jahrzehnten aufzubewahren
Das ist ein komplexes Problem welches sich nicht einfach lösen lässt indem man ein Speichermedium über so einen langen Zeitraum irgendwo liegen lässt. Die Laufwerke altern auch wenn sie nicht benutzt werden und auch die Schnittstellen und die SW ändern sich. Am Besten bewahrt man Daten indem man sie "lebendig" hält, also z.B. auf einem Server / NAS welcher regelmäßig benutzt und von der Hardware (vor allem auch den Platten her) regelmäßig aktualisiert wird.

HDDs sind nur für eine Nutzungsdauer von 5 Jahren ausgelegt, wie es Samsung früher auch immer recht offen in die Datenblätter geschrieben hat, so wie hier:
Bei aktuellen HDDs steht das nur noch sehr selten so offen im Datenblatt, aber indirekt findet man es auch immer noch, so steht bei der ST1000VX005 im Product Manual auch noch
Aus 50.000 insgesamt und 10.000 pro Jahr ergibt sich dann aber doch wieder der Hinweis auf die geplante Nutzungsdauer von 5 Jahren. Da die HDDs auch altern wenn sie nicht benutzt werden, daher sind sie nur beschränkt lagerbar und Seagate schreibt z.B. hier und auch in einigen anderen Product Manuals über die Lagerung der HDDs:
Und außerdem:
Wenn also die Lagerbedingungen nicht eingehalten werde, sind 90 Tage und zwar in der ungeöffneten Originalverpackung, sonst bestenfalls 1 Jahr. Nach dem Öffnen sollten HDD nicht länger als 30 Tage stromlos sein.

Bei der neuen Barracuda Pro 10TB mit Heliumfüllung schreibt Seagate:
Also hier nur ein halbes Jahr in der ungeöffneten originalen Versandverpackung von Seagate und sonst 2 Monate, nur bei optimalen Bedingungen bis zu einem Jahr.

HGST schreibt für die meisten Modelle wie z.B. für die Megascale:
Das bedeutet nicht, dass die HDDs dann automatisch Schaden nehmen oder gar komplett kaputt sind, wenn man diese Vorgaben nicht einhält. Aber ganz ignorieren sollte man es nicht, denn im Thread Festplatten sterben wie die Fliegen - was mache ich falsch? sind jemandem der ein halbes Jahr im Ausland war, binnen 3 Monaten 4 HDDs gestorben. Die HDDs waren wohl in einem NAS im Keller, also nicht unter optimalen Bedingungen gelagert und natürlich müssen solche Angaben auch unter den ungünstigsten der erlaubten Bedingungen noch eingehalten werden. Unter optimalen Bedingungen dürften die Platten auch eine weitaus längere Zeit ohne Probleme überstehen.

Bei optischen Medien und Tapes ist neben der Frage der Haltbarkeit der Medien vor allem die Frage der Laufwerke ein Problem. Diese halten auch nicht ewig, selbst wenn sie unbenutzt sind, da Kunst- und Schmierstoffe sowie Gummis altern. Da dürfte man dann irgendwann nicht mehr in der Lage sein ein passendes Laufwerk zu finden um die Medien auszulesen und selbst wenn, kann man Probleme bekommen dieses anzuschließen. Wer hat heute noch PATA Anschlüsse im Rechner oder gar die alten SCSI Anschlüsse? Da gibt es dann nur noch Adapter für PCI oder gar die uralten ISA Slots.
 
Wenn es um Jahrzehnte geht und nicht laufend überspielt werden soll, Band oder optisch mittels schon genannter M-Disc.

Holt schrieb:
Diese halten auch nicht ewig, selbst wenn sie unbenutzt sind, da Kunst- und Schmierstoffe sowie Gummis altern. Da dürfte man dann irgendwann nicht mehr in der Lage sein ein passendes Laufwerk zu finden um die Medien auszulesen und selbst wenn, kann man Probleme bekommen dieses anzuschließen.
Dinge wie sprödes Plastik oder verharzte Schmierstoffe sind trivial zu reparieren.

Holt schrieb:
Wer hat heute noch PATA Anschlüsse im Rechner oder gar die alten SCSI Anschlüsse?
Hier!. Für SCSI brauchts zwar Karten aber von denen liegt noch ein knappes Dutzend herum. Wers braucht kann ja zur Beruhigung und Sicherheit ein paar IDE-USB Adapter aufbewahren. USB wird uns noch lange begleiten und Controller dafür noch in Jahrzehnten aufzutreiben sein.

Kommunikation über alte ATA Standards bekäme man zur Not mit einem besseren µC hin, wenn auch langsam aber auslesen könnte man damit ein altes Backup sofern die Platte an sich noch funktioniert.
 
K7Fan schrieb:
Dinge wie sprödes Plastik oder verharzte Schmierstoffe sind trivial zu reparieren.
Ohne passende, neue Ersatzteile? Wenn, dann wird man nach so langer Zeit allenfalls mit Mühe noch Ersatzteile finden die aber fast genauso alt sind wie das Geräte, ich wäre da nicht so optimistisch das man nach Jahrzehnten die alten optischen Disks und Tapes noch einfach so auslesen kann. Aber es sind ja auch nicht meine Daten die ich dann wiederhaben möchte.:mussweg:
 
Holt schrieb:
Ohne passende, neue Ersatzteile?
Ja sicher, wenn die Teile nicht sowieso simpel genug sind um sie konventionell zu fertigen macht das die CNC. In einigen Jahrzehnten, und um die geht es, wird 3D-Scan plus Drucker oder CNC noch weitaus einfacher zugänglich sein als heute schon.

Holt schrieb:
Aber es sind ja auch nicht meine Daten die ich dann wiederhaben möchte.:mussweg:
Rührt daher die Empfehlung des "lebendig haltens" auf einem NAS ohne gleich Prüfsummen um Kopiervorgänge zu verifizieren sowie irgendeine Methode um bitrot zu erkennen und zusätzliche offline Backups mit zu nennen?
Man kann auf jeden Fall Daten lebendig halten aber nur zusätzlich als Alternative zu einem offline Backup denn ein Ersatz dafür ist das nicht. Reicht ein Ausfall des NAS oder Kryptovirus am Server und der Spass ist vorbei.
 
K7Fan schrieb:
ohne gleich Prüfsummen um Kopiervorgänge zu verifizieren sowie irgendeine Methode um bitrot zu erkennen
Habe ich irgendwas in der Richtung geschrieben? NAS ist einfach nur die Abkürzung für Network Attached Storage, da muss nicht NAS auf dem Gehäuse stehen oder ein Markenname der Q oder S anfängt. Mein NAS ist ein Heimserver auf Xeon-D Basis und sein Vorgänger war ein HP N54L, beide mit ECC RAM. Das Thema Bitrot und Prüfsummen ist eine andere Sache, Bitrot ist fast ausschließlich ein Problem von RAM Fehlern, denn die HDDs speicher hinter jedem Sektor eine ECC und liefern (außer man konfiguriert sie extra so, wie bei Profi SAS RAID wo die Platten mit 520 oder 528 Bytes pro Sektor formatiert werden und der Controller in diese zusätzlichen 8 oder 16 Bytes seine eigene Prüfsumme schreibt) keine korrupten Daten, sondern einen Lesefehler, sollten die Daten nicht korrekt sein. Auch die Übertragung ist bei SATA mit einer CRC32 pro FIS gesichert, da bleibt kein Übertragungsfehler unerkannt, außerhalb des RAMs (des Rechners oder des Puffers der Controller, wobei Enterprise SAS Controller immer ECC RAM haben und gute HDDs eine end-to-end data protection) kann Slient Datenkorruption nur durch FW Fehler der Platte oder des Host Controllers entstehen.

Eines sollte aber klar sein, man bekommt keine absolute Sicherheit vor Datenverlust oder -korruption, sondern nur mehr oder weniger große Wahrscheinlichkeiten und er eben eine besseren Schutz möchte als Consumer Hardware sie üblicherweise bietet, dem kann nur nur empfehlen zu lesen was Matt Ahren, Mitentwickler des ZFS-Dateisystems, schreibt:
Man beachte die Reihenfolge, zuerst empfiehlt er ECC RAM und dann erst oben drauf ein Filesystem mit Prüfsummen wie ZFS zu verwenden, wenn man seine Daten liebt und vor Korruption schützen möchte! Aber das ist eine andere Baustelle und nicht wirklich das Thema dieses Threads!

K7Fan schrieb:
Man kann auf jeden Fall Daten lebendig halten aber nur zusätzlich als Alternative zu einem offline Backup
Auch das ist klar, weder ein RAID noch die Speicherung auf einem NAS ersetzen ordentliche Backups! Aber es reicht eben nicht nur ein Offline Backup zu haben welches über Jahrzehnte irgendwo gelagert wird.
 
Holt schrieb:
Habe ich irgendwas in der Richtung geschrieben?
Nö, eben nicht sondern einfach nur "Server" und "NAS". Die Bandbreite dabei ist halt gewaltig und der typische mitlesende Endanwender wird mit hoher Wahrscheinlichkeit speziell unter Letzterem eine Box von Q,S,T oder sonstigem Fix-und-Fertig Anbieter verstehen.

Ob Otto Normal der einfach nur Daten aufbewahren will jetzt z.B. wirklich einen Server mit passender HW, Linux und ZFS aufsetzt, sicher konfiguriert und regelämßig Backups auf einem anderen Medium erstellt sowie verifiziert ist auch eher fraglich.

Die Compliance ist bei ein paar gebrannten M-Discs oder Bändern die sowieso als Backup existieren und an verschiedenen Orten gelagert werden sollten wahrscheinlich deutlich höher und die Fehlerquellen geringer.
Ein NAS ist nett und praktisch, ein guter Zusatz, aber in einer Strategie zur reinen Lagerung(!) von Daten spielt es für mich nur eine Nebenrolle.

Holt schrieb:
Man beachte die Reihenfolge, zuerst empfiehlt er ECC RAM
Das ist doch Grundvoraussetzung, warum würde jemand überhaupt auf die Idee kommen bei einem NAS non-ECC Speicher einzusetzen?

Holt schrieb:
denn die HDDs speicher hinter jedem Sektor eine ECC und liefern ...keine korrupten Daten, sondern einen Lesefehler, sollten die Daten nicht korrekt sein.
...
Auch die Übertragung ist bei SATA mit einer CRC32 pro FIS gesichert, da bleibt kein Übertragungsfehler unerkannt,
Zitat aus : LINK
"NetApp studied over a million and a half production disks over nearly a year. They identified over 400,000 silent data corruptions, about 13% of the total data under study. Error checking technology identified 370,000 of these – a good average but with 30,000 remaining undetected errors. "

Wo die 30k wohl herkamen?

Gibt noch andere Studien zu SDC, z.B. vom CERN. Was genau es auf dem Weg durch die Verarbeitungskette nun verursachte ist im Endeffekt allerdings egal. Bitfehler sind jedoch auch ausserhalb des RAM durchaus real und jeder Kopiervorgang setzt die Daten dem Risiko aus.
 
K7Fan schrieb:
arum würde jemand überhaupt auf die Idee kommen bei einem NAS non-ECC Speicher einzusetzen?
Bei den Consumer NAS ist ECC RAM nicht üblich und wird selbst bei solche deren SoC dies unterstützt, dann nicht verbaut und ist auch nicht nachrüstbar. Daher kommen solche Fertig-NAS Kisten für mich auch niemals in Frage.
K7Fan schrieb:
Wo die 30k wohl herkamen?
Das wäre viel interessanter als die Anzahl. Die NetApp Studie kenne ich nicht, aber ohne Angaben zu der untersuchten Hardware, kann man darüber nur spekulieren. Wenn es einfache PCs ohne ECC RAM (und natürlich der passenden Plattform von Board und CPU die dies unterstützen, sonst hängen die zusätzlichen Bit der ECC RAM Riegel ja nur nutzlos in der Luft) wären mein Tipp das es dort die Ursache zu suchen ist. Aber jede Puffer auf dem Weg, auch der im Host Controller, kann zu Datenkorruption führen und die in Consumer Plattformen werden nicht so gut geschützt wie solche in Enterprise Hardware.

Die Mainframes sind das Sicherste was man bzgl. des Schutzes vor Silent Data Corruption bekommen kann, daher sterben die bei Banken und Versicherungen auch nicht aus, denn während ein Fehler in einem Parkautomaten dann zu einer absurd hohen Forderung führt die letztlich in den sozialen Medien und Zeitungen zum Schmunzeln führt, kann dies bei den Summen mit denen Banken und Versicherungen umgehen, zu deren Insolvenz führen. Die Frage zwischen dem Schutz den man möchte und dem Aufwand den man treiben möchte, muss jeder für sich beantworten, ebenso wie die Frage wie es seine digitalen Daten über Jahrzehnte aufbewahren möchte. Man sollte nur eben die Risiken der einzelnen Möglichkeiten kennen um eine vernünftige Entscheidung treffen zu können.
K7Fan schrieb:
andere Studien zu SDC, z.B. vom CERN
Bei der Cern Studie steht leider auch nur wenig über die jeweils verwendete Hardware, aber ich erinnere mich das dort ein FW Bug bei RAID Controllern / HBAs als eine Ursache der Silent Data Corruption identifiziert wurde. Sowas gab es ja auch bei einigen Samsung F4EG und eines Fertigungsloses der Plextor M6Pro. Da können Prüfsummen zumindest helfen die Fehler zu erkennen, ob sie diese in jedem auch korrigieren können?

Ein anderer Punkt ist die Software, wenn diese oder der Anwender z.B. beim Kopieren, Entpacken von Archiven etc. die von der Platte kommenden Lesefehler halt ignoriert und die Software nur teilweise kopierte / entpackte Datei einfach stehen lässt, hat man eben hinterher eine korrupte Version der Datei. Ich weiß ganz konkret das zumindest bei bestimmten Versionen der Kommandozeilenversion von 7Zip beim Entpacken von rar Archiven zwar einen Fehler anzeigen, die teilweise entpackten Dateien aber trotzdem stehen lässt, es ist also nicht nur eine theoretische Fehlerquelle.

Es gibt viele Ursachen für Datenverlust und -korruption, die Tatsache das mal ein paar Bits auf auf einer Platte kippen, führt aber nicht dazu, dafür ist eben mit einer ECC hinter jedem Sektor Vorsorge getroffen worden, denn dies passiert recht häufig und gegen alle zu häufig auftretenden Fehlerquellen ist selbst billige Consumerhardware abgesichert. So hat man damals bei der Einführung der Ultra-DMA Übertragung auch die CRC32 hinter jedem FIS eingeführt (das entsprechende S.M.A.R.T. Attribut für solche Fehler wird daher auch bei SATA Platten oft noch Ultra-DMA CRC Fehler genannt) und bei DDR4 hat man ebenfalls eine CRC für die Übertragung eingeführt, was zwar kein ECC RAM ersetzt da es keine in den Zellen gekippten Bits erkennt, aber immerhin Übertragungsfehler vermeidet.
 
Zurück
Oben