Datensicherung unter mehreren Betriebssystemen

süchtla

Lieutenant
🎅Rätsel-Elite ’24
Registriert
Juli 2008
Beiträge
722
Hallo!

Aus gegebenem Anlass, nämlich einem schief gelaufendem Grafiktreiberupdate unter Ubuntu 10.04, welches bei einer meiner beiden HDDs einen Ausfall produzierte, mache ich mir wieder Gedanken zum Thema Datensicherheit. Warum die HDD ausfiel und heute nach MBR Wiederherstellung mit der Super-Grub-Disk einwandfrei booten lies, weiß ich nicht. Jedenfalls hat es mir gestern Abend einen ziemlichen Schock versetzt.

Meine aktuelle Konfiguration ist eine WD Black 1TB, welche System, Daten und meine Bilder und Videos beheimatet. Eine etwas ältere Seagate 7200.11 mit 500GB beheimatet weitere Daten und ein Backup der wichtigsten Daten von der WD Platte. Die Seagate ist jedoch schon etwas länger angeschlagen (mehrere Reallocated Sector!). Zuerst dachte ich, ich werd immer wieder SMART-Werte checken und einem Ausfall vorbeugen. Gestern zeigte sich die andere, nicht vorhersehbare Seite..... :rolleyes:

Als System setze ich Windows Vista HP 64 und Ubuntu 10.04 64 ein, bin was Linux angeht aber experimentierfreudig (Grafiktreiber, TV-Karte, Mediacenter, Fernbedienungen, etc.).


Nun, ich möchte rund 1-1,5TB Daten ohne großen Aufwand sichern, und das wenn möglich täglich (am besten gleich beim Speichern drücken :D ) und es muss(!) unter Windows und Linux gleichermaßen funktionieren.

Ich habe mich über RAID und Backup-Lösungen ein wenig informiert und bin mir jetzt noch unschlüssiger als vorher. Ich benötige ein Datengrab, welches min. 70MB/s lesend und 60MB/s schreibend ermöglicht und unabhängt vom Betriebssystem arbeitet. Externen Lösungen über GBit-LAN bin ich auch nicht abgeneigt, da meine Daten bei einem Fehler im OS nicht betroffen wären, was beim Kernel-Kompilieren schnell passieren kann.

An dieser Stelle will ich euch fragen, wie man soetwas am geschicktesten Lösen könnte, dass es am besten all meine Forderungen erfüllt. Viele hier haben ja damit schon Erfahrung, wie ich aus anderen Threads schließen konnte ;)
Nocheinmal kurz zusammen gefasst:
- 70MB/s lesen und 60MB/s schreiben
- Datensicherheit
- Unabhängig vom Betriebssystem (Windows, (K/L)Ubuntu, vllt. Gentoo)
- mehr als 1TB Platz

Meine bisher favorisierte Lösung ist ein NAS (auf PC-Basis, mit Linux als OS) mit einem RAID (1/5?).


Ich hoffe, ich schrieb nicht zu viel und ihr versteht was ich will. Danke allen die sich die Mühe machten, das alles zu lesen und mir versuchen zu helfen!


Gruß
süchtla

System -> Signatur
 
Eine Sicherung von 1,5TB täglich würde mehrere Stunden dauern und ist Unsinn.
Daher sollte eher auf Tools gesetzt werden, welche den Stand am Backup synchron halten.
In Win kein Problem, und unter Linux wird es auch genug Tools dafür geben.
 
Das ist mir schon klar, dass ich keine 1,5TB pro Tag kopieren kann. Wenn, kämen nur Tools zum Synchronisieren zum Einsatz.

Allerdings, sollte ich das auf einer zweiten interen HDD ablegen oder einem NAS?

Es wird aber von Linux und Windows auf die gleichen Daten (gleiche Datenpartition) zugegriffen, die dann auch gesichert werden sollten. Ich persönlich halte aber nicht so viel davon, da der Datenableich ja zu Lasten der CPU geht, oder irre ich mich?

Gruß aus Kärnten ;)
 
das backup sollte immer möglichst weit weg stehen, also fällt eine interne platte schonmal glasklar weg.

ein NAS wär wohl die bequemste lösung. das kann man dann auch autoamtisch schlafen schicken und per wake on lan wieder automatisch wecken wenn es was zu tun gibt. die billigste lösung sind externe usb festplatten.

ich würde (wenn überhaupt) eher zu einem RAID 1 raten, da das sehr viel weniger komplex ist als alles darüber und somit auch schnell und einfach wieder herzustellen ist. mal ganz davon abgesehn wie viele leute sich schon ihr RAID 5 zerschossen haben ^^ außerdem sind festplatten billig, also gibt es keinen grund seine daten durch komplexität zu gefährden.

komplett paranoide haben dann gleich mindestens 3 mal dieselben daten (mindestens 3 festplatten) um regelmäßig jeden einzelnen block abzugleichen, ob nicht etwas durch strahlung oä. vernichtet wurde. da ist mir aber leider kein einzelnes tool bekannt das das macht. würde mich über hinweise freuen :)

als backup-tool ist areca einen blick wert. es läuft mit java und somit auf linux und windows und es kann mit relativ wenig aufwand komplexe backup-szenarien erstellen. aber ein wenig einarbeiten muss man sich schon, was auch der gesundheit der daten im ernstfall zugute kommt ;)

PS: die CPU-last zum daten umherschieben beschränkt sich seit DMA auf nahe 0. selbst ein kleines RAID 5 ist mit einer uralt-cpu zufrieden.
 
Ich wünsche mir ja eine Mischung aus Backup und Datengrab, das heißt ich würde "auf dem NAS arbeiten".

Ja, nur NAS sind relativ teuer. Wenn ich einen altes Case verwende und ein Atom-Board dazu komme ich um einiges billiger weg. Der Preis spielt schon eine Rolle, aber bei meinen Daten ist "geiz ist geil" vorbei. WOL ist natürlich mit drinnen, schließlich will ich die Stromrechnung nicht zu sehr belasten.

RAID 1 erscheit mir auch als das beste und da muss ich dir Recht geben.

Ja ok, das will ich nicht. Meine Daten sollen bloß beim Ausfall einer HDD geschützt sein und versehentliches Löschen passiert mir normal nicht, da ich dann halt mehrere Versionen eines Dokuments ablege.
Wusste garnicht, dass es im Österreich sooo sehr strahlt, dass Daten verloren gehen können :D

Danke für den Tipp, sieht gut aus. Aber ich denke, "gut Ding braucht Weile", deshalb will ich mir zuerst ein Konzept zurecht legen, bevor ich mch ans Aufbauen mache. Und gerade eben gesehen, dass die Seagate HDD sich verabschiedet.

Naja, wirds nicht die Hardware ein wenig belasten, wenn ich andauernd Daten vergleiche?

Noch was, welche Datenraten würde ein Pentium III, 733MHz mit ~800MB SDRAM, einer PCI-GBit NIC und einem PCI SATA RAID 1 Controller zutrauen? Wär das stromsparendste was ich zur Zeit im Keller hab, denn die P4 Prescott heizen ja bekanntlich ... ;)
 
arbeite lieber auf der internen partition/platte und mach davon regelmäßig ein backup, das ist schneller und robuster. außerdem kannst du dann deine backup-strategie ändern und für verschiedene datentypen verschiedenes benutzen. z.b. inkrementelle backups für normale daten täglich. ständige copy-on-write backups für wichtige daten stündlich und nur ein sich updatendes "image" für große daten wöchentlich.

ein selbst zusammengebastelter file-server ist auch bloß ein NAS ;)

und du würdest erstaunt sein wie viele daten auf großen festplatten regelmäßig beschädigt werden.

und natürlich "belastet" es hardware wenn man sie benutzt. aber dafür wurde sie gebaut. und ich wette 90% der zeit pennen deine festplatten nur ;)

statt einem raid-controller würde ich eher ein software-raid empfehlen. das ist am robustesten und für normale zwecke genauso schnell. also lass die PCI karte lieber nur als normalen SATA controller arbeiten (JBOD). ansonsten sollte der rechner gut geeignet sein.

noch ein tipp: gegen brände helfen tägliche (verschlüsselte) backups der wichtigsten daten auf einen kostenlosen internet-server. am liebsten per WebDAV. geht aber z.b. mit einem lustigen dateisystem auch auf IMAP e-mail-postfächer :lol:

PS: ansonsten rate ich von verschlüsselten backups ab. ein kleiner fehler im header und alle daten sind nutzlos, egal wie gut man sein passwort kennt. und wer wirklich an die daten will kommt auf viel elegantere weise daran.
 
Zuletzt bearbeitet von einem Moderator:
Ja, hat Vorteile. Ich werde es einmal in meinem Plan berücksichtigen.

Ich meine mit NAS die kleinen Gehäuse mit LAN-Anschluss wo man nur noch seine HDDs reinschieben muss. Dass ein Fileserver auch ein NAS ist, ist mir schon bewusst ;)

Gibts dazu Statistiken?

Ja schon, ich meine, dass der P3 ud das Board dazu zu schwach werden könnte.

Was hätte Software-RAID für Vorteile?

Das geschieht schon, ich brauche nun aber ein wenig mehr Datensicherheit für den Rest ;)

Das weiß ich schon ;)
 
mir sind da leider keine aussagekräftigen studien bekannt, nur erfahrungsberichte.

http://de.wikipedia.org/wiki/RAID#Software-RAID fasst das ganz nett zusammen ^^
der hauptpunkt ist halt, dass man nicht ständig zwei mal denselben RAID-controller kaufen muss, falls der in benutzung ausfällt und man schnell an seine daten will oder der typ gar nicht mehr zu kaufen ist. angenehmer nebeneffekt ist die geldeinsparung.

schön zu sehen, dass sich so mancher informiert ;) wünsche noch viel spaß beim knobeln!
 
Achso, ist ja nicht das Problem. War mir nur neu.

Bei Wiki hab ich schon nachgelesen, ich dachte da gibts vielleicht noch mehr Infos bzgl. Vor- und Nachteilen ;)
Auf das Problem des Controller-Defekts und die damit verbunden Probleme bin ich schon gestern gestoßen, deshalb wirds wohl ein Software-RAID.
Geld ist sowieso immer Mangelware :D

Danke für die Lorbeeren! ;) Den Konbel-Spaß hab ich langsam satt :D


Meine bisherige Lösung sieht so aus:

- intern eine/zwei HDDs (wenns erschwinglich wird, eine SSD)
- ein Fileserver auf PC-Basis (ist für mich günstiger) mit Software-RAID 1 als Backup und zweite Datenablage

Als HDDs kommen WD Green 1TB der neuesten Serie zum Einsatz. Welche Hardwareanforderungen hat aber nun so ein Fileserver?

Ich hätte noch einen Pentium 3, aber der hat weder GbLAN noch SATA. Klar kann ich das nachrüsten, aber würde der PCI-Bus dann nicht die HDD-Geschwindigkeit ausbremsen? Schließlich ist es ja kein PCI der neuesten Generation.

Die andere Variante wäre ein Atom Board, würde das reichen?

Als Server-OS sollte Ubuntu 10.04 Server Edition eingesetzt werden, dazu Samba und ein FTP-Server.
 
von der rechenkraft her reicht ein atom soweit ich das gehört hab. nur mit den erweiterungen könnte es wieder mau aussehen. und so arg billig ist ein atom auch wieder nicht. da lohnt eine aktuelle low-end CPU mit modernem sparsamen chipsatz vielleicht eher. musst mal durchrechnen wie lange der atom braucht sich zu amortisieren. EDITH meint: die teile sind ja billiger geworden ^^ guck mal in https://www.computerbase.de/forum/threads/athlon-x2-be-2350-vs-atom-330.752373/ als anregung und dann nimm was eher gefällt :D
EDITH2: man könnte auch die beste preis/leistungs-CPU nehmen (Athlon II X2 240 ?) und die CPU-zeit für etwas sinnvolles spenden wie z.b. http://www.worldcommunitygrid.org/


was PCI in den einzelnen varianten liefert sagt wikipedia. selbst beim schnellsten mit 133MB/s wäre wohl grob bei praktisch 50 MB/s schluss. der durchschnittswert der platten dürfte bei 80 liegen und es ist immer noch doppelt so schnell wie USB 2. als sparlösung also durchaus ausreichend, vor allem wenn man immer nur inkrementelle backups macht.

als übertragungsprotokoll kommt vielleicht noch WebDAV infrage. ist quasi HTTP, nur mit upload-funktion.

wenn das system möglichst schnell rennen soll würde ich eher auf etwas großes wie ubuntu verzichten und lieber puppy oder dsl oder ein minimales debian benutzen. je nachdem wie groß der kenntnisstand oder der leidenswillen ist ^^
 
Zuletzt bearbeitet von einem Moderator:
So, hatte gestern und heute nicht so viel Zeit, aber nun widme ich mich dem Thema wieder.

Naja, AMD müsste ich ein komplett neues System anschaffen, dann eher den C2D E6400 undervolten und hoffen das der Verbrauch nicht zu hoch ausfällt. Aber hatte ich auch schon in Betracht gezogen.

PCI habe ich mittlerweile abgeschrieben, es ist effektiv zu langsam. Die neuen WD Green schaffen 100MB/s spitze, also würde ich da Leistung verschenken. Zeitweiße auch normale Sicherungskopien, also Speed wird benötigt.

Werds vormerken, ich wollt auch mal mit SSL probiern ;)

Ubuntu Server ist eh schon ohne Grafik. Ich würde Gentoo einsetzen, das hatte ich mal am Notebook. Kenntnisstand weiß ich nicht, aber es gibt Wikis, Dokumentationen und FB :D
 
der E6400 dürfte je nach generation auch nur ca. 8 oder 4W im idle brauchen. da verbrät das netzteil allein viel mehr ^^

gentoo ist halt nicht sehr entspannt. für einen server den man ein mal aufsetzt und dann ein paar jahre laufen lassen will wäre wohl eher debian stable oder gar cent os geeignet. je älter desto stabiler ;)
 
Ich habe nur den "alten" E6400 mit Conroe-Kern hier. War einer der ersten C2D und hat eine TDP von 65W ;)
Stimmt, ein 350W NT welches 80%+ ist, verbraucht 20W mindestens allein.

Ja, dann werde ch mir die Sache doch noch überlegen. Wichtig ist aber, dass man den Server über LAN fernwarten kann, denn es wird nichts zum Bedienen angeschlossen.

Ist nur fraglich, wieviel der P965 Chipsatz verbraucht. Insgesamt wäre ein Idle Verbrauch von unter 20W schön und ein HDD-Loadverbrauch von unter 40W. Erscheint das realisierbar?
 
ohne notebook dürfte das mit den teilen nicht machbar sein. aber ich hab es auch noch nicht ausprobiert ^^

mein 780G board mit Athlon II X2 macht im idle mit onboard grafik an (und sonst nicht viel) geschätzte 60W. mit radeon 4850 im idle, soundkarte und wlan-karte drin und cpu auf volllast immerhin 114W.

aber wenn man das mal durchrechnet ist der strom immer noch so billig, dass es sich eigentlich nie lohnt neue teile zu kaufen um strom zu sparen. von der ökologischen seite her schon gar nicht, weil unmengen energie für die produktion draufgingen. strom ist sogar leicht billiger als zucker zu essen und selbst in die pedale zu treten... mir war mal langweilig :lol:
 
Meinst du den Verbrauch?

Ich hätte noch einen alten Laptop hier, mit 90W NT, P4 mobile und 128MB SDR-RAM ^^
Als Schnittstelle nur 2 USBs und einen FW400. Achja, ich vergaß einen PS2 Anschluss :D

Wohin verschwinden ja bitte 60W?

Ich weiß, mein System (-> Signatur) mit einem Cougar S700 säuft im Idle 150W. Aber ich hab keine Ahnung, wohin das alles geht oder was so viel verbraucht.

Ja gut, aber Strom wird nicht immer billig bleiben, denke ich. Weiters bin ich mit der Atomenergie ein wenig auf Kriegsfuß, deshalb denke ich bei einer möglichen Neuanschaffung auch über den ökologischen Faktor nach. Und einen Heizungsersatz in meinem Zimmer brauche ich auch nicht.
Aber so ein Atom-Board um 50€ würde sich doch rentieren, oder auch nicht?

Wäre es möglich, mit 2 PCs auf denen jeweils eine RAM-Disk eingerichtet ist, den effektiven Speed eines Kopiervorganges über LAN zu messen?
 
Zurück
Oben