Ist eine Raid 1 Festplatte normal lesbar?

Holt schrieb:
Also hast Du die Daten auf der Originalplatte und einmal auf der USB Platte als Backup. Das ist besser als kein Backup und mehr als viele Leute haben.
Nein ist nur auf der externen Platte, da ich auf dem hauptsystem kein Platz habe. Ich habe aus Lautstärke Gründen keine Harddisks mehr in meinem PC sondern nur noch SSD's und da sind die Preise halt doch nocht hapig...
 
Dann ist es natürlich schlecht und wenn die Daten nur auf einer USB Platte stehen, dann ist das kein Backup und die USB Platte auch keine Backupplatte, selbst wenn dies auf der Packung stand, denn sie wird zu einer Backupplatte wenn ein Backup, also eine zusätzliche Kopie der Daten drauf ist. Nur auf einem RAID sollten die Daten auch nicht stehen, dies macht sie nicht wirklich sicherer als wenn sie nur auf einer Einzelplatte stehen. Im einfachsten Fall musst Du eben zwei USB Platte nehmen und jede Datei die Du nicht verlieren willst, dann auf wenigstens 2 Platten stehen haben.
 
Ja darum bin ich ja jetzt einen weg zu finden wie ich das am effizientisten mache. Nun eine Idee die mir gerade gekommen ist. Ich muss mich wohl etwas in linux einlesen und versuche mir ein script zu machen damit ich auf dem Nas die daten speichern kann und jede woche die daten auf unterschiede geprüft werden und bei unterschieden ein Backup erstellt wird. Wobei ich da ein gewisses Risiko des Backups bei beschädigung der Daten sehe. Daher wäre am Besten wahrscheinlich wenn ich die Daten archivieren würde und dafür die letzten 3 Versionen behalte...
 
Versionierung schadet sowieso nicht. Ansonsten wäre es auch kein "richtiges" Backup.

Sicher kann man mit Programmen wie FreefileSync oder AllwaySync Ordner zwischen PC und NAS/Backupplatte synchronisieren. Damit verzichte ich zum Beispiel aber auf den Schutz vor unbeabsichtigtem Löschen oder Dateiänderungen, da diese ja mitsynchronisiert werden. Bei einem richtigen Backup hat man eben auch bei Bedarf Zugriff auf ältere Versionen einer Datei.

Ich würde hierfür wirklich eine Backupsoftware benutzen. Es gibt ja genügend die auch kostenlos sind. Da muss man halt ein wenig lesen wo die Stärken und Schwächen der Software jeweils liegen, was am besten zum eigenen Nutzungszenario passt, und mit welcher man vom eigenen Gefühl her am besten klar kommt. Wichtig ist aber auch, daß man sich zu Beginn erst einmal wirklich Gedanken macht, was man sichern will, wovor man es sichern will, mit welchen Mitteln, und wie man das am besten anstellt. Einfach mal so drauf los sichern ist zwar schon mal besser als kein Backup, aber unter Umständen im ungünstigen Fall nicht zielführend.
 
NobodysFool schrieb:
Sicher kann man mit Programmen wie FreefileSync oder AllwaySync Ordner zwischen PC und NAS/Backupplatte synchronisieren. Damit verzichte ich zum Beispiel aber auf den Schutz vor unbeabsichtigtem Löschen oder Dateiänderungen
Sicher? Ich nutze es zwar selbst nicht, aber ich meine bei FreefileSync kann man auch auswählen das Dateien die im Original gelöscht oder geändert wurde, dann nicht gelöscht bzw. überschreiben, sondern die Datei bzw. deren alte Version in einem extra Verzeichnis gespeichert werden. Man muss sich halt mit dem Tool auseinandersetzen welches man verwenden möchte.
 
@Holt Stimmt, gibt den Punkt "Versionierung" in den Einstellungen. Ist mir entgangen da es für meine Zwecke zu denen ich das Tool nutze keine Rolle spielt.
 
Holt schrieb:
Die normalen RAID Lösungen brauchen solche Fehlerkorrekturen auch gar nicht, denn die Platten haben selbst schon eine ECC hinter jedem Sektor und geben keine korrupten Daten zurück, sondern einen Lesefehler wenn sie die Daten des Sektors nicht korrekt lesen und auch nicht anhand der ECC korrigieren konnten.
Und trotzdem werden RAID-Controller eigentlich immer mit ECC RAM bestückt. Warum? Weil es verschiedene Orte gibt wo die Daten korrupt werden können.
Mal abgesehen davon sind Bitflips im RAM extrem selten und ECC ist eigentlich nur im Enterprise Segment unerlässlich, für viele als Datensicherung eigentlich weniger. Klar ist es schön zu haben aber nicht zwingend nötig.
i5 heißt übrigens nicht automatisch keine ECC Unterstütung, das ist modellabhängig.

Holt schrieb:
so rekonstruiert der RAID Controller bzw. die RAID SW die Daten des betreffenden Sektors aus den Daten der anderen Platten und überschreibt den Sektor bei denen der Lesefehler aufgetreten ist.
Das muss nicht zwingend stimmen. Die Platten können auch Daten zurückgeben die fehlerhaft sind, aber trotzdem für die Platte keinen Fehler aufweisen und daher kein ECC Fehler geworfen wird. Dann weiß der RAID Controller auch nicht mehr welchen Daten er vertrauen soll. Die Dateisysteme können das anhand hinterlegter Checksummen erkennen.
 
Mihawk90 schrieb:
Die Platten können auch Daten zurückgeben die fehlerhaft sind, aber trotzdem für die Platte keinen Fehler aufweisen und daher kein ECC Fehler geworfen wird. Dann weiß der RAID Controller auch nicht mehr welchen Daten er vertrauen soll. Die Dateisysteme können das anhand hinterlegter Checksummen erkennen.

Das trifft aber nur zu für ein RAID-1, ein degraded RAID-5, oder zweifach degraded RAID-6. Ich brauche mindestens zweimal übereinstimmende Daten. So lange ich den selben Datensatz >2 mal habe und beim Lesen mindestens 2 mal das selbe rauskommt gibt es kein Problem. Somit ist schlüssig genug belegt, welche Daten richtig sind. 100% Sicherheit gibt es natürlich nie, aber das sollte doch sicher genug sein.
 
Mihawk90 schrieb:
Mal abgesehen davon sind Bitflips im RAM extrem selten
Es gibt nur wenige Statistiken dazu, aber je mehr die Leute das RAM und die CPU hochtakten, umso wahrscheinlicher sind hard errors und schau mal im RAM Unterforum wie viele Leute Fehler beim Memtest86 bekommen. So selten sind RAM Fehler nicht und längst nicht jeder RAM Fehler macht sich bemerkbar, die meisten führen nicht zu Abstürzen wie landläufig geglaubt wird. Dafür haben die Rechner heute zu viel RAM und zu wenig davon ist mit wirklich wichtigen Daten oder Programmcode von Windows belegt. Das Problem bei RAM Fehler auf Storage Servern ist aber, dass diese die Daten auch noch lange im RAM cachen, denn jedes moderne OS nutzt sonst unbelegtes RAM als Diskcache und dann bekommt man ggf. eine Datei deren Daten schon lange im RAM stehen und daher eine entsprechend hoch Gefahr für Soft-Error (also spontane Bitflips aufgrund von Strahlungen) ausgesetzt waren. Es muss jeder selbst wissen wie viel ihm die Sicherheit seiner Daten wert ist, denn
Mihawk90 schrieb:
ECC ist eigentlich nur im Enterprise Segment unerlässlich
Und warum? Und warum sollte ein Heimanwender darauf verzichten, wenn er genauso viel Wert darauf legt das seine Daten nicht durch RAM Fehler verändert werden?
Mihawk90 schrieb:
i5 heißt übrigens nicht automatisch keine ECC Unterstütung, das ist modellabhängig.
Welche i5 unterstützt den ECC RAM? Der i5 4690 in der Signatur des TE ebensowenig wie das Asrock B85M mini itx Board.
Mihawk90 schrieb:
Die Platten können auch Daten zurückgeben die fehlerhaft sind, aber trotzdem für die Platte keinen Fehler aufweisen und daher kein ECC Fehler geworfen wird.
Ja, wenn man sie entsprechend ansteuert, so machen es die speziellen ATA Streamingbefehle für Echtzeitvideoaufzeichnungen, aber die verwendet ein Rechner nicht einfach so und eine normale NAS Platte unterstützt diese auch gar nicht. Oder wenn man eine SAS Platte hat und an einem SAS RAID Controller mit 520 oder 528 Byte pro Sektor formatiert, denn dann legt der RAID Controller selbst eine ECC auf diese zusätzlichen 8 bzw. 16 Byte ab und konfiguriert die Platte so, dass sie die Daten einfach roh ausgibt, weil er selbst prüft ob diese korrekt sind und sie bei Fehlern eben sofort aufgrund der Redundanz rekonstruiert, damit erspart er sich die Wartezeit bis der Controller der Platte es aufgibt die Daten doch nicht korrekt einzulesen. Diese kann man bei den Platten mit ERC/TLER zwar einstellen, aber auch dann versucht sie es noch eine Weile selbst und dies blockiert das RAID, was bei solchen Enterpriselösungen eben nicht gewünscht ist. Da ist es dann aber die Aufgabe des RAID Controllers dafür zu sorgen, dass die Fehler erkannt und die Daten korrekt an den Host weitergereicht werden.

Normale SATA Platten werden aber nicht einfach korrupte Daten liefern, die ECC auf den Platten ist so mächtig, dass die Wahrscheinlichkeit eines unerkannten Fehler noch mal um die gleiche Größenordnung (also so 1:10^15) unter der eines unkorrigierbaren Fehlers liegt. Auch die SATA Übertragung wird mit einer CRC32 über ein Datenpaket welches maximal 8192 Byte Nutzdaten enthält abgesichert und Du kannst gerne mal selbst googlen wie hoch die Wahrscheinlichkeit liegt, dass dabei ein Fehler unerkannt bleibt, es ist irgendwas um die 1:10^46 Übertragungen. Dies mal den 8192Byte ergibt ein Datenvolumen welches übertragen werden müsste, welches weit über der Kapazität aller jemals gefertigten HDDs liegt. Vergiss es also, die einzige realistische Fehlerquellen sind die FW und internen Datenpfade der Platte oder des Host Controllers.
Mihawk90 schrieb:
Dann weiß der RAID Controller auch nicht mehr welchen Daten er vertrauen soll. Die Dateisysteme können das anhand hinterlegter Checksummen erkennen.
Auch die stimmt nicht, denn wenn es wirklich vorkommen würde das statt eines Lesefehlers korrupte Daten geliefert würden, wird ein RAID Controller dies nicht bemerken, da er eben normalerweise aus Performancegründen die Partity gar nicht liest (das Linux md SW RAID macht es genauso und aus Performancegründen wird sich dies auch ändern, aber auch weil es eben Unsinn ist, wer es anderes möchte nimmt eben btrfs oder ZFS), sondern erst wenn er sie braucht oder eben bei einem Scrubbing, welches man ja auch nicht ohne Grund regelmäßig ausführt.
 
@killerkappi
Unabhaengig von backupsoftware/scriptloesungen oder gedanken ueber raid: du brauchst NEBEN dem datentraeger mit den originaldaten zwingend 2 kopien dieser daten auf 2 weiteren datentraegern, die voneinander unabhaengig und nicht staendig in verbindung mit dem sYstem sind, auf dem sich die originaldaten befinden. Am einfachsten geht das mit usb-platten. Erst wenn du das hast, kannst du dir bei bedarf gedanken ueber die feinheiten machen.
 
Holt schrieb:
je mehr die Leute das RAM und die CPU hochtakten,
Klara, dafür sind sie ja auch nicht ausgelegt und im NAS oder Server wird man beides genau deshalb nicht übertakten (wenn das mainboard es überhaupt zulässt).

Holt schrieb:
Welche i5 unterstützt den ECC RAM?
Welche genau kann ich dir auch nicht sagen, ich weiß nur dass das im Laufe der Zeit mal geändert wurde, vllt vertuhe ich mich aber auch gerade mit den Modellreihen.

Holt schrieb:
Und warum sollte ein Heimanwender darauf verzichten, wenn er genauso viel Wert darauf legt das seine Daten nicht durch RAM Fehler verändert werden?
Da geb ich dir recht, kommt natürlich auf den Anwendungsfall an.
 
Mihawk90 schrieb:
vllt vertuhe ich mich aber auch gerade mit den Modellreihen.
Die Celeron, Pentium und i3 für die S.115x unterstützten überwiegend ECC RAM, aber mir fällt kein i5 aus den letzten Jahren ein der die ECC RAM Funktion hat. Die würden den Xeons für den S.115x das Wasser abgraben. Außerdem braucht man im Desktop einen C Chipsatz, die B, H, P, Q oder Z unterstützen, außer bei einen paar Ausnahmen im Mobilsegment aber dann wäre es z.B. ein HM Chipsatz und inzwischen gibt es ja auch die CM Chipsätze, also mobile Versionen des C Chipsatzes, ebenfalls kein ECC RAM.
 
Also, wenn ich meinen naechsten 08/15 allround pc vor datenkorruption schuetzen will, muss ich nur darauf achte, dass die cpu ecc ram unterstuetzt? Tja das sollte ryzen 3000 werden.
 
Wenn Du mehr Schutz willst als ein normaler Desktop PC bietet, dann solltest Du in der Tat ECC RAM verwenden und natürlich ein Board und eine CPU die dies auch unterstützen. Die RYZEN CPUs für AM4 machen dies offiziell nicht, wurden aber anderes als die meisten von Intels Desktop CPUs auch nicht um diese Funktion beschnitten. Bei den AM4 Boards gibt solche und solche, da muss man genau hinsehen, alleine die Tatsache das Unbuffered ECC RAM funktioniert, sagt nämlich nicht immer das damit auch die ECC Funkion vorhanden ist, denn normales RAM ist auch Unbuffered und daher funktioniert Unbuffered ECC eigentlich überall dort wo auch vergleichbares RAM ohne ECC läuft. Einige Hersteller geben bei den Boards dann eben auch Unbuffered ECC an, aber dazu den Hinweis das es ohne ECC Funktion läuft.

Desktop CPUs sollten übrigens nur meistens und bei den meisten Usern laufen, nur wenn dies nicht mehr gewährleistet ist, dann wird etwas unternommen. So war es damals bei den IDE Platten, dort hat man damals als man den Ultra-DMA Übertragungsmodus eingeführt hat auch gleich eine CRC32 als Absicherung der Übertragung mit eingeführt und ebenso hat man nun bei DDR4 eine CRC zu Absicherung der Übertragung eingeführt, die aber eben nur vor Fehlern bei der Übertragung und nicht vor im RAM gekippten Bits schützt. Aber offensichtlich sah an dies bei den für DDR4 vorgesehenen Taktraten für nötig an.
 
Zurück
Oben