Kurze Frage Raid 5 und Alignment

Masamune2 schrieb:
Professionelle Platten haben zum Teil auch 520 Byte statt 512 Byte Sektoren und nutzen die zusätzlichen 8 Byte für eine Prüfsumme. So weiß der Raid Controller sicher welche Platte Mist gelesen hat und kann die Daten von den anderen rekonstruieren.
Richtig, die Platten auf 520 oder auch 528 Byte pro Sektor zu formatieren ist bei den prof. SAS Platten durchaus üblich, aber das hat mit der Fehlerrate nichts zu tun, da liegen diese Platten sowieso meist bei 10^16. Das geht auch nur bei SAS Platten, bei SATA wäre mir das nicht bekannt.

Dabei geht es alleine um das Problem der TLER, also darum wie lange der Controller der Platte versucht die Daten eines Sektors fehlerfrei zu lesen. Bei normalen Desktopplatten kann das bis zu 20s sein und wenn diese Zeit über dem Timeout des RAID (Controller)s liegt, dann fliegt eine Platte aus dem RAID, was besonders blöd ist, wenn sie es am Ende doch noch geschafft hat den Sektor zu lesen und in den S.M.A.R.T. Werte dann nicht einmal einen Fehler wie einen schwebenden Sektor anzeigt. Bei den RAD sollte man den Timer wenigstens einstellen können, was für RAID Platten eben sehr wichtig ist. Bei kritischen Storages reicht das aber nicht, da kann so ein RAID nicht so lange warten, bis eine Platte vielleicht doch noch den Sektor gelesen bekommt und deshalb schreibt der Controller eben seine eigenen 8 oder 16 Byte ECC hinter jede Sektor und gibt der Platte auch den Befehl nur einmal zu lesen, den es übrigens auch im ATA Befehlssatz gibt. Der Controller der Platte prüft dann gar nicht, ob die Daten korrekt gelesen wurden, sondern übermittelt einfach alles weiter und der RAID Controller kümmert sich darum, so wie früher als man zu seiner HDD noch einen MFM oder RLL Controller kaufen müsste, weil die Logik auf den Platten extrem beschränkt war. Damals musst man z.B. auch noch die Liste der ab Werk defekten Sektoren vom Label abschreiben und dem Controller mitteilen.

Diese zusätzlich Byte für eine ECC des RAID Controllers macht man halt, damit ein RAID nicht hängt sondern weiterhin innerhalb einer bestimmten Zeit antwortet, was in Enterpriseanwendungen ja nun einmal sehr wichtig ist.

SSD sind übrigens einen Schritt weiter was die Fehlerrate angeht, die JEDEC fordert selbst für Consumer (Client) SSD 1:10^15:

jedec_data_retention-jpg.332553


Leider geben nur wenige Hersteller die UBER (Uncorrectable bit error rate, immer in Sektor pro gelesener Bits) an, wie z.B. Intel z.B. für die 335er mit <1:10^16 (S. 8) oder die < 1:10^17 für die 730er und die neue Intels DC P3700 Reihe.

Microns m500 ist dagegen nur mit 1:10^15 spezifiziert, aber noch sind so große SSDs bzw. SSD RAIDs bei denen das mit mindestens 10^15 schon eine Rolle spielen würde, ja preislich kaum zuhause realisieren kann.
 
Ah, danke. Wenn ich mir das alles noch einmal anschaue, dann lasse ich das mit dem RAID5 (und allen anderen RAIDs) lieber sein. Mein Hirn verwurstet gerade ein paar der Datenblätter. 4K Sektoren haben heute alle Festplatten oder? Warum sollen dann noch 512B Sektoren emuliert werden? Brächte es mit Vorteile Festplatten mit nativen 4K Sektoren einzusetzen?
 
Jetzt bleibt für mich nur noch die Frage welche Möglichkeiten man hier unter Windows hat. Die Auswahl der Dateisysteme ist ja recht beschränkt und was ReFS kann hab ich mir noch nicht genau angeschaut.

Bieten Storage Spaces und ReFS mehr Möglichkeiten der Fehlererkennung (und Korrektur) als die klassischen dynamischen Datenträger mit NTFS?
 
Also neben den WD REDs ist für mich die HGST He6 im Moment die interessanteste Platte. Mal gucken, ob ich als Großabnehmer (3 Stück) ein paar Prozente bekomme :D

Dynamische Datenträger? Was ist das nun schon wieder?
 
Holt schrieb:
Die Red hat nur eine Fehlerrate von <= 1:10^14 und damit hat man beim Rebuild eines RAID 5 von 3 der Red 6TB ein fast 100%ig Chance auf einen Read Error und das ist Anand hier zweimal widerfahren.

Wenn das so stimmen würde, wären die Platten nicht nur für RAID, sondern auch sonst für alles andere völlig unbrauchbar.

Eine 100% Chance daß man beim Auslesen einer Festplatte einen Fehler bekommt... :rolleyes:
 
ML89 schrieb:
Ah, danke. Wenn ich mir das alles noch einmal anschaue, dann lasse ich das mit dem RAID5 (und allen anderen RAIDs) lieber sein.
Ein RAID5 hat ja trotzdem noch Vorteile, auch wenn die Chance auf ein Rebuild gering sind, dass steht ja auch hier:
Ein Backup hat ein RAID noch nie ersetzt und wenn man die Verfügbarkeit will oder braucht, dann muss man halt bei der Auswahl der Platten auf deren UBER achten und darf ab einer bestimmten Kapazität nicht zu den günstigsten greifen, sondern nur zu denen mit den passenden Spezifikationen.

ML89 schrieb:
Mein Hirn verwurstet gerade ein paar der Datenblätter. 4K Sektoren haben heute alle Festplatten oder?
Fast alle, die HGST He6 hat noch native 512 Byte Sektoren, aber das bringt nur dann Vorteile, wenn man Anwendungen hat die wirklich oft nicht ganze Cluster be- bzw. überschreiben. Oracle ist so ein Fall, zumindest bis 11R2 kann es nicht durchgehend 4k Sektoren unterstützen und schreibt auch mal nur Teile eines 4k Clusters, gerade beim Redo-Log. Das kostet dann bei den Advanced Format Platten immer eine Umdrehung mehr, weil die Platte erst den alten Sektor lesen, die neuen Daten einfügen, eine neue ECC berechnen muss um dann bei der nächsten Umdrehung den neuen phys. Sektor als ganzes mit seiner ECC zu schreiben. Sonst ist aber Advanced Format kein Nachteil.
ML89 schrieb:
Warum sollen dann noch 512B Sektoren emuliert werden? Brächte es mit Vorteile Festplatten mit nativen 4K Sektoren einzusetzen?
Die Emulation wird verwendet, weil 512 Byte pro Sektor seid den ersten HDDs Standard war und man bei denen die Größe gar nicht abfragen konnte, das war also immer eine Konstante und da SW oft sehr langlebig ist, weiß man gar nicht genau wie diese Konstante überall drin steckt und dann für Probleme sorgen wird, wenn die Sektorgröße plötzlich abweicht. Da dürfte manch älteres BIOS wohl Probleme bekommen, aber noch gibt es glaube ich ja keine Platten mit nativen 4k Sektoren, also ohne die Emulation, auf dem Markt. Angekündigt sind sie aber schon, dürften also bald erscheinen.

Rumo schrieb:
Wenn das so stimmen würde, wären die Platten nicht nur für RAID, sondern auch sonst für alles andere völlig unbrauchbar.
Für alles andere nicht, man kann die 6TB ja auch einzeln nutzen und zu 50% wird es keinen Fehler geben. Das die aber mit der UBER nicht mehr so zu verwenden ist wie vorher die kleineren Platten und das WD bei der Red Pro die UBER mit "<10 von 10^15" zwar anders angibt aber nicht gegenüber den < 1 in 10^14 der normalen Red verbessert hat, ist auch kein Ruhmesblatt. Es bleibt da nur die Hoffnung auf das < oder der Griff zu den teuren Enterprise Modellen.

Rumo schrieb:
Eine 100% Chance daß man beim Auslesen einer Festplatte einen Fehler bekommt... :rolleyes:
Beim Auslesen einer Platte ja noch nicht, noch sind wir ja nur bei der Hälfte der kritischen Kapazität von etwa 12TB, die eben diesen 10^14 Bits entspricht. Außerdem betrifft ein Lesefehler dann meist nur nur eine einzelne Datei. Außerdem kann man ja ein RAID 1 nehmen, damit ist die Gefahr den Lesefehler auf beiden Platten an der gleichen Stelle zu haben fast 0 und beim Rebuild hat man wenigstens 50% Chance das es klapp. Ebenso kann man auch ein RAID5 immer noch fast sicher fehlerfrei lesen, solange es eben intakt ist. Kritisch wird es erst, wenn die Parity weggefallen ist und neu erstellt werden muss, weil ein RAID 5 sich dann wie ein RAID 0 verhält und ein RAID 6 sollte dann immer noch wie ein RAID 5 verhalten, das Rebuild dürfte also kein Problem sein.

Außerdem deckt das < ja auch die Serienstreuung, Alterung und die Einsatzbedingungen ab, man kann also Glück haben und bei neuen Platten unter möglichst idealen Einsatzbedingungen funktioniert es dann trotzdem, nur Verlassen kann man sich darauf halt nicht.
 
Du hängst da viel zu sehr an den Zahlen / Milchmädchenrechnung.

Als die Festplatten auf die TB-Grenze gingen wurden die gleichen Ängste in den Raum geworfen... ist doch alles viel zu groß, geht kaputt, usw. und was ist, jeder benutzt die Platten so wie immer.

Das wird bei den 6TB Platten, wenns der Hersteller nicht komplett vergeigt, ganz genauso sein.

Wenn du keine Fehler im Rebuild haben willst, musst du die Platten halt regelmäßig testen. Da ein Selbsttest länger dauert je größer die Platte ist, gibts schon seit jeher die Möglichkeit solche Tests über längeren Zeitraum zu verteilen (selective - cont).

Wenn der Rebuild der erste Lesetest seit ewig bzw. überhaupt ist, dann ist es gar kein Wunder wenn Lesefehler gefunden werden. Die sind dann aber nicht beim Rebuild aufgetreten sondern waren schon vorher da.

Natürlich kann die Platte auch tatsächlich erst beim Rebuild kaputtgehen. Aber das ist und war schon immer ziemlich unwahrscheinlich.
 
Nein, das hat schlicht mit der Häufigkeit des Auftretens von unkorrigierbaren Lesefehlernn zu tun, nichts mit "zu groß, geht kaputt". Das es keine Milchmädchenrechnung oder graue Theorie ist, zeigt auch der Review bei Anandtech, denn dass es zweimal bei der Red passierte und nicht einmal bei den beiden anderen mit 1:10^15 zeigt doch, dass die Zahlen nicht aus der Luft gegriffen sind, sondern die Praxis die Theorie bestätigt.

Das regelmäßige Testen der Platten wird das Problem auch nicht beseitigen, denn Du verstehst schlicht nicht, worum es da geht, denn ein Lesefehler bedeutet auch nicht, dass eine Platte kaputt ist.
 
Ich brech fast zusammen vor Lachen. Aus einem Test kann man solche Rückschlüsse nicht ziehen. Die können ein Montagsmodell erwischt oder sonst ein Kompatibilitätsproblem gehabt haben.

ein Lesefehler bedeutet auch nicht, dass eine Platte kaputt ist

Bei mir schon - eine Festplatte hat Daten zu speichern und das dauerhaft und zuverlässig. Die technischen Hintergründe sind da uninteressant.

Kann sie Daten nicht mehr lesen (in Form eines nicht korrigierbaren Lesefehlers), ist sie für mich wertlos und wird ersetzt. Hierbei ist hinzuzufügen, daß ich da bislang mit WD sehr gut gefahren bin, fast alle meine Platten stammen noch aus der Zeit vor der Überschwemmung/Preisexplosion. Ergo sind es 2TB WD Greens. Ein SMART-Lesetest läuft jeden Tag. Ein RAID-Test (der auch Unregelmäßigkeiten der Paritätsdaten feststellt - bislang keine) einmal die Woche. Fehler bis dato Null (ebenso mit Null reallokierten Sektoren und Null sonstigen Fehlern). Und das sind keine Wunderplatten sondern einfach ganz normal so wie es sein soll.

Ich werde die WD 6TB so bald nicht ausprobieren da einfach auf absehbare Zeit kein Bedarf an neuen Platten besteht, solange die alten nicht das zeitliche segnen. Aber wenn die dann die von dir konstatierten 50%-100% Chance Lesefehler offenbaren würden, ginge das Zeug postwendend zurück weil unbrauchbar. Da müsste WD aber schon mächtig ins Klo gegriffen haben und das kann ich mir kaum vorstellen.


Edit: Älteres Paper aber vielleicht trotzdem interessant zu der Thematik, da hat mal jemand 2 Petabyte über Festplatten gejagt und weniger Fehler bekommen als von der angegebenen Bitfehlerrate zu erwarten gewesen wäre:

http://arxiv.org/pdf/cs/0701166.pdf

We conclude from this is that the uncorrectable read error rate as quoted by the disk manufacturers is not very useful in practice.
 
Zuletzt bearbeitet:
Rumo schrieb:
Bei mir schon - eine Festplatte hat Daten zu speichern und das dauerhaft und zuverlässig. Die technischen Hintergründe sind da uninteressant.
Dann hat die Diskussion ja keine Sinn, weil eben nichts 100%ig ist und daher die technische Hintergründe eben nicht vernachlässigt werden können. Nur mal zum Vergleich: Wenn Dein Puls im Schnitt über Deine Lebensdauer bei 60 Schlägen pro Minute liegt, dann würde es bei einer Fehlerrate von 1:10^14 über 3 Millionen Jahre dauern, bevor Du statistisch gesehen einen Herzinfakt bekommst. Nur um das mal in eine Größenordnung zu bringen, wie gering die UBER im Grunde selbst bei nur 1:10^14 ist.

Rumo schrieb:
da bislang mit WD sehr gut gefahren bin, fast alle meine Platten stammen noch aus der Zeit vor der Überschwemmung/Preisexplosion. Ergo sind es 2TB WD Greens.
Eine der Serien der Green, ich meine die ersten, hatte eine UBER von 10^15, leider ist der Trend aber wieder zu 10^14 gegangen.
 
Also wenn en Hersteller auf solche Taschenspielertricks zurückgreiffen muss, dann ist das für mich ein Zeichen, dass an dem Thema deutlich mehr dran ist. Wenn WesternDigital es selbst bei den "besseren" REDs, also den Pro nicht schafft dort eine bessere Fehlerrate umzusetzen, dann ist das für mich ganz einfach Bauernfängerei. Ich habe keine Lust meine Bilder aus den letzten Jahren zu verlieren, nur wegen einem Faktor 10 an einer Zahl und deren Nichtbeachten.
Wie gesagt, die He6 ist für mich im Moment die interessanteste Platte im Feld. Letztendlich muss ich ja in einer externen Festplatte ebenfalls eine anständige Festplatte haben und in meiner Worstation sollte ich dann irgendwann mal die WD Green ersetzen. EDIT: Äh was? Die Greens haben eine Fehlerrate von 10^-15? EDIT2: Die Greens haben eine Fehlerrate von 10^-14

Zu den Platten mit 4K-Sektoren: Die Seagte ST6000NM0004 sollte laut Datenblatt nativ 4K Sektoren unterstützen.

Übrigens bin ich angesichts der Tatsache, dass SSDs sowieso eine Fehllerrate von 10^-15 haben auf einen ganz blöden gedanken gekommen :D

Achso, welche Programme empfehlt ihr zum Testen der Festplatte? HD Tune liest mein RAID5 mit 100% defekten Sektoren aus
 
Zuletzt bearbeitet:
Holt schrieb:
Als owenn Du nicht einmal das Datenblatt gelesen was was Du selbst verlinkt hast oder schlicht nicht verstehst, was dort steht, denn ist es noch sinnloser. Dort steht doch klar und deutlich:

Okay, Punkt für dich.

Ich habe mir das Datenblatt vorhin runtergeladen, da steht 10^14 drin. Um das zu verlinken habe ich dann nur mehr nach dem Dateinamen gegoogelt und nicht nochmal reingeschaut. Es gibt die Datei mit gleichem Namen zweimal, in der einen steht 10^15, in der anderen 10^14.

http://wdc.com/en/library/sata/2879-701229.pdf
http://www.wdc.com/wdproducts/library/SpecSheet/ENG/2879-701229.pdf

In der zweiten steht das Modell das ich habe (WD20EARS) ergo wird das mit den 10^14 schon stimmen.

Es ist auch wirklich wurscht. Wann Fehler auftreten läßt sich nicht vorhersagen, und aus dem Wert eine Fehlschlagschance beim Rebuild herzuleiten ist Quatsch mit Sosse.
 
Zuletzt bearbeitet:
ML89 schrieb:
Ich habe keine Lust meine Bilder aus den letzten Jahren zu verlieren, nur wegen einem Faktor 10 an einer Zahl und deren Nichtbeachten.

Wenn du deine Bilder verlierst, dann hat das sehr wenig mit dieser Zahl zu tun, und sehr viel mit deiner Backupstrategie.
 
Rumo schrieb:
Wenn du deine Bilder verlierst, dann hat das sehr wenig mit dieser Zahl zu tun, und sehr viel mit deiner Backupstrategie.

Backups macht man ja grundsätzlich nie und unter keinen Umständen auf Festplatten ne.
 
ML89 schrieb:
Also wenn en Hersteller auf solche Taschenspielertricks zurückgreiffen muss, dann ist das für mich ein Zeichen, dass an dem Thema deutlich mehr dran ist.
Das stimmt, denn es ergibt ja nun keinen Sinn mal 1:10^14 und mal 10:10^15 zu schreiben, außer man wollte versuchen den Leser bei 10:10^15 bewusst zu täuschen und ihn dazu zu verleiten 1:10^15 darunter zu verstehen. Da WD dies ausgerechnet bei der Red Pro macht....

ML89 schrieb:
Wie gesagt, die He6 ist für mich im Moment die interessanteste Platte im Feld.
Das sehe ich auch so, obwohl sie nicht so schnell wie die Seagate ist, aber die hat ja die Kapazität auch über viele Pattern statt einer hohen Datendichte der einzelnen Plattern erreicht und dank He ist die Leistungsaufnahme auch sehr gering. Nur ist die halt auch bös teurer und man weiß eben noch nicht, wie lange die He Füllung wirklich im Gehäuse bleibt.

ML89 schrieb:
Äh was? Die Greens haben eine Fehlerrate von 10^-15? EDIT2: Die Greens haben eine Fehlerrate von 10^-14
Das sind eben verschiedene Generationen der WD Green, das habe doch geschrieben. Die alten WD20EADS hatte noch 1:10^15 und die aktuellen wie die EZRX haben nur noch 10^14. Das es eine Weile Richtung 1:10^15 ging, steht auch hier:
Es wäre natürlich wünschenswert gewesen, wenn heute alle Consumer HDDs nur noch eine UBER von 1:10^15 hätten, aber offenbar hätte man sonst nicht die Datendichte so steigern können wie es nötig ist. So muss man z.B. mit den Abständen zwischen dem Kopf und dem Plattern immer weiter runter gehen, je kleiner die Bits auf dem Plattern werden und es wird immer schwerer diese minimalen Abstände zu kontrollieren.

ML89 schrieb:
Zu den Platten mit 4K-Sektoren: Die Seagte ST6000NM0004 sollte laut Datenblatt nativ 4K Sektoren unterstützen.
Ja, die ersten Platten mit nativen 4k Sektoren kommen so langsam und werden vermutlich ähnliche Probleme machen wie die Platten über 2TB, wenn nicht noch größere, weil es eben schwerer zu erkennen ist, dass sie zwar 4k physikalische Sektorgröße haben keine 512 Byte Emulation haben. Selbst Geizhals unterscheidet diese ja noch nicht von denen mit der Emulation, die inzwischen ja fast alle HDDs haben. Laut Microsoft werden sie erst ab Windows 8 / Server 2012 unterstützt.

ML89 schrieb:
Übrigens bin ich angesichts der Tatsache, dass SSDs sowieso eine Fehllerrate von 10^-15 haben auf einen ganz blöden gedanken gekommen :D
Blöd ist nur, dass die meisten SSD Hersteller keine Angabe dazu machen, Intel ist eine löbliche Ausnahme und ob die SSDs der anderen großen Hersteller da nun wirklich schlechter als die Intel SSDs abschneiden? Generell haben die meisten SSDs ja eine starke ECC wie Micron / Crucial mit seinem RAIN (Redundant Array of Independent NAND), was seid der Crucial m500 auch in den Consumer SSDs vorhanden ist und wohl Sandforce RAISE ähnelt.

ML89 schrieb:
Achso, welche Programme empfehlt ihr zum Testen der Festplatte? HD Tune liest mein RAID5 mit 100% defekten Sektoren aus
Jedenfalls nicht HD Tune. HDDs rechnen LBAs fest auf Kopf, Zylinder und Sektor umrechnen und HD Tune wird den dann einfach auslesen, SSDs aber mappen die LBAs auf immer wieder wechselnde Speicherbereiche und daher kann nichts ausgelesen werden, wenn der LBAs gar nicht auf einen Speicherbereich gemappt wurde, weil er nie beschrieben oder schon wieder getrimmt wurde. Bei SSDs muss man eben einen LBA erst beschreiben um was sinnvolles auslesen zu können. Daher nehme ich immer h2testw zum Testen, denn das macht genau das.

Rumo schrieb:
Es ist auch wirklich wurscht. Wann Fehler auftreten läßt sich nicht vorhersagen, und aus dem Wert eine Fehlschlagschance beim Rebuild herzuleiten ist Quatsch mit Sosse.
Es geht nicht um das wann, es geht um das wie oft. Heute ist eine Reifenpanne am Auto nur noch etwa alle 150tkm wahrscheinlich. Vor 150 Jahren war es noch alle 150km oder weniger, damals hatte Autos daher meist nicht nur ein Reserverad sondern gleich 2 oder noch mehr, während Autos heute immer öfter keines mehr haben, Lastwagen haben aber sehr wohl noch Reserveräder dabei, die fahren ja auch viel mehr km im Jahr. Wo die Panne passiert kann man auch nicht vorhersagen, aber wenn man entsprechend viel fährt, kann man eben davon ausgehen, dass es einen entsprechend oft erwischt.

Rumo schrieb:
Wenn du deine Bilder verlierst, dann hat das sehr wenig mit dieser Zahl zu tun, und sehr viel mit deiner Backupstrategie.
Eben, ein RAID ersetzt eben keine Backups, das hat es noch nie gemacht und Profis machen immer auch Backups der Daten auf dem RAID. Die wichtigen Daten sollte man schon auch auf einem anderen Medium gesichert haben, wie noch einer USB Platte, der Clound, Tape, DVDs, etc.
 
Zuletzt bearbeitet:
Holt schrieb:
Die wichtigen Daten sollte man schon auch auf einem anderen Medium gesichert haben, wie noch einer USB Platte, der Cloud, Tape, DVDs, etc.

Äh nein. Cloud ganz sicher nicht und selbsgebrannte DVDs sind nicht das Wahre. Tape ja, hatte icha uch kurzzeitig im Auge, aber teuer. So und jetzt an die Phrasendräscher, dass ein RAID kein Backup ist: Worauf speichere ich die Daten, wenn eine USB-Festplatte nicht reicht? Auf mehreren? Aufgeteilt? Was ist wenn da eine Festplatte abraucht? Also führen diese Überlegungen doch wieder unweigerlich zu einem RAID nicht wahr? Ich wäre für Anregungen bezüglich der Datensicherung an dieser Stelle dankbar...
 
ML89 schrieb:
Äh nein. Cloud ganz sicher nicht und selbsgebrannte DVDs sind nicht das Wahre.
Waren ja auch nur Beispiele, der eine bevorzugt dies, der anderen das....
ML89 schrieb:
Tape ja, hatte icha uch kurzzeitig im Auge, aber teuer.
Das lohnt sich wenn, dann nur ab einer bestimmten Datenmenge, weil die Laufwerke teuer sind. Dafür ist es sicherer, wenn man die Backups auch dezentral lagert, zumal das Risiko das Tapes plötzlich anderweitig missbraucht werden, womöglich privat von einem Mitarbeiter, wohl sehr gering ist.
ML89 schrieb:
So und jetzt an die Phrasendräscher, dass ein RAID kein Backup ist
Es soll nur keine sagen, er hätte es nicht gewusst, denn Datenrettung ist bei RAIDs meist weder einfach noch günstig zu haben.
ML89 schrieb:
Worauf speichere ich die Daten, wenn eine USB-Festplatte nicht reicht? Auf mehreren?
Genau. Es ist eben nicht billig viele Daten sicher aufzubewahren.
ML89 schrieb:
Was ist wenn da eine Festplatte abraucht?
Wenn eine USB Platte im Schrank liegt, raucht sie nur ab, wenn die ganze Hütte brennt und wie wahrscheinlich ist es, dass das RAID ein Problem hat und gleichzeitig auch die USB Platte mit dem Backup? Wenn die nicht schon lange unbenutzt im Schrank liegt, dann ist das wohl eher wenig wahrscheinlich und wenn man das Risiko weiter minimieren möchte, dann nimmt man zwei Platten im Wechsel.
ML89 schrieb:
Also führen diese Überlegungen doch wieder unweigerlich zu einem RAID nicht wahr?
Ei zweites RAID in einem anderen Server / NAS / RAID-Gehäuse ist auch eine Möglichkeit.
ML89 schrieb:
Ich wäre für Anregungen bezüglich der Datensicherung an dieser Stelle dankbar...
Anregungen habe ich doch gegeben. Es ist mit der Datensicherung wie mit der Versicherung für das Haus. Die muss man auch vorher abschließen, denn wenn die Flammen schon aus dem Dachstuhl schlagen, bekommt man keine mehr. Ebenso muss man überlegen, gegen welche Risiken man sich absichern will und je mehr, umso teurer wird es. Ebenso gibt es Leute die ein Leben lang nur für die Versicherung bezahlen, aber nie einen Schadensfall haben.
 
Zurück
Oben