Grundlegende Ideen und Unterstützung beim Einrichten eines NAS (Synology DS418)

methtical

Newbie
Registriert
Mai 2019
Beiträge
7
Guten Tag liebe Forumsmitglieder,

schonmal vorab, es folgt eine kleine Einleitung, einfach weil ich großen Respekt vor dem Thema habe und mein Anliegen nicht überheblich oder komplett unvorbereitet klingen soll. Wem das zu lang ist, bitte den nächsten Abschnitt einfach überspringen :)

Ich bin Mitarbeiter in einem sehr kleinen Büro und wir haben uns aufgrund des angenehmen Datenaustauschs für den Kauf eines DS418 entschieden. Der oder eben ein ähnliches Modell musste ohnehin gekauft werden, mir geht es hier vielmehr um die Einrichtung.

Ich bin definitiv Novize auf dem Gebiet, hatte mich aber im Vorfeld schon mit dem DSM-Betriebssystem beschäftigt und muss sagen, dass es zunächst so scheint, als mache es Synology für unerfahrene Anwender relativ einfach, den gekauften NAS in eine Umgebung einzubinden. Weil es ein Familienunternehmen ist, hatte ich mit dem Gedanken gespielt, zu versuchen, den Server selbst einzurichten. Ich würde schon behaupten, dass mir IT kein Fremdwort ist, allerdings kommt es mir immer so vor, als wären Server ein eigenständiger Bereich, den ich eben noch nicht entdecken durfte. Ein ähnliches Szenario ist sicherlich häufig besprochen worden, allerdings variieren die Anforderungen enorm und ich hoffe, dass jemand mit versierteren Kenntnissen so freundlich ist, mir bei meinem verantwortungsvollen Unterfangen ganz grob über die Schulter zu schauen, ob ich nicht große Fehlansätze habe. Das Wichtigste ist hierbei mit großem Abstand die Datensicherung!

Zunächst die Grundgegebenheiten: wir sind ein kleines Büro von 3 Mitarbeitern, die alle ein älteres iMac verwenden. Es geht ausschließlich darum, relevante Daten für alle 3 Nutzer gleichzeitig nutzbar zu machen und eben dort zu speichern. Die Verarbeitung beschränkt sich nahezu hauptsächlich auf das Lesen/Einsehen von .pdf, Skizzen, Word-Dokumenten und ein paar Bildern, die geteilt werden sollten. Und einige Sicherungen von Programmen (zum Beispiel Speicherstände vom Fahrtenbuch). Zugriffsrechte spielen intern keine Rolle. Alle Daten, die auf dem Server liegen, müssen von jedem gleichermaßen gelesen und beschrieben werden können. Es handelt sich um eine vergleichbar kleine Datenmenge von etwa 200GB, die auf dem Server Platz finden sollte (hinzu kommen noch TimeMaschine-Backups der 3 iMacs).

Mein Ansatz: Ich würde gerne einmalig etwas mehr Geld investieren um danach erstmal Ruhe zu haben. Deswegen auch der Griff zum DS418, wobei ein 218 vermutlich für unsere Anforderungen ausgereicht hätte. Ich wollte 4x 2TB NAS-Festplatten kaufen. Verwendet werden sollen sie wie folgt: Festplatte 1 soll die ganzen Daten an sich, die nachher zugänglich gemacht werden sollen, horten. Festplatte 2 soll ein Klon davon sein (RAID1) um im Notfall lange Unterbrechungen zu vermeiden, da das Weiterarbeiten für uns alle ohne die Daten auf dem Server unmöglich ist. Nun habe ich zur Genüge gelesen, dass ein RAID kein Backup ist. Hier mache ich mir die meisten Gedanken. Festplatte 3 soll die TimeMaschine-Backups von allen enthalten. Festplatte 4 soll dann ein Backup von allen Daten (also Festplatte 1) sein. Um im Brandfall abgesichert zu sein, würde ich für sehr sensible Daten (ungefähr 20GB) gerne von einem Cloudhosting-Dienst wie DropBox Gebrauch machen. Es befinden sich keien empfindlichen Daten wie Konto- oder persönliche Daten auf dem Server, also wäre das von der Sicherheit eher unbedenklich.

Es stellen sich mir hier die Fragen..:
  • Ist es sinnvoll, die TimeMaschine-Backups auch auf Festplatte 1 zu lagern? Weil diese ja eigtl. nicht unter den Usern geteilt werden müssen. Dann könnte ich Festplatte 3 zusätzlich als Backup nutzen?
  • Reicht das Backup nur auf Festplatte 4 (und zusätzlich der Cloud-Dienst) aus? Oder sollte ich noch weitere Absicherungen bedenken, irgendwie kommt mir das so wenig vor..
  • Reicht ein Backup „nur“ mit HyperBackup oder muss hier was spezielles bedacht werden? Es wird doch auch eine Option angeboten, wo Snapshots der Dateien erstellt werden. Diese sind dann nur auf der Festplatte 4 oder? Ist es möglich, die Snapshot Funktion auch auf Festplatte 1, also dem eigentlichen Server zu nutzen?
  • Wenn jetzt eine der beiden Festplatten, die mit RAID1 geklont werden, ausfällt, muss man dann erst eine neue formatierte FP einfügen, damit man den Server weiter nutzen kann? Also müssten wir sicherheitshalber für diesen Fall eine unbenutzte FP im Büro lagern?
Bezüglich des Filesharings kam es mir vor, als würde DSM die Freigabe und das Teilen von Daten auf dem NAS relativ einfach gestalten. Gibt es hierbei was Grundsätzliches, das man unbedingt beachten muss?

Der lange Text tut mir wirklich leid, danke für jeden, der sich die Zeit genommen hat. Wie gesagt, ich habe viel Respekt vor dem Thema und für das Überleben des Büros ist die sichere Verwahrung der Daten essentiell. Ich möchte hiermit nicht spielen, aber irgendwie kam es mir so vor, als wäre unser Anwendungsfall echt überschaubar.

Für Anregungen und Gedankengänge jeglicher Art bin ich im Voraus wirklich sehr dankbar!

Liebste Grüße
methtical
 
Zuletzt bearbeitet: (Beim RAID1 vertan)
Mit RAID0 klonst du keine Festplatten, sondern verbindest beide Festplatte zu einer "virtuellen".
Du hast dann aus 2x2TB = 4TB, aber wenn eine HDD defekt ist, sind alle Daten futsch.
An deiner Stelle brüchtest du wohl eher ein RAID1, da werden Daten auf 2 Festplatten geklont.
Du hast dann aus 2x2TB = 2TB, aber wenn eine HDD defekt, kannst du die Daten (die ja auf der anderen FP liegen) rekonstruieren. RAID1 ist eher als Redundanz zu sehen.
Die anderen Fragen überlasse ich den Profis.
 
  • Gefällt mir
Reaktionen: dsahm und methtical
1. Du meinst nicht RAID0, sondern RAID1
2. Imho macht das mit den Festplatten nicht viel Sinn. Je mehr Platten, desto höher die Chance das was ausfällt. Ich hätte daher 2x4 TB genommen (oder 3x4 bzw. 4x4 im RAID5, wenn du die Verfügbarkeit haben willst) und die Aufteilung dann mit mit entsprechenden Ordnern und Rechten realisieren. Bist du dann auch flexibler, wenn du an die 2 TB grenze stößt.
3. Für Backups schau dir das 3-2-1 Prinzip an
 
  • Gefällt mir
Reaktionen: methtical
meph!sto schrieb:
Mit RAID0 klonst du keine Festplatten, sondern verbindest beide Festplatte zu einer "virtuellen".
Du hast dann aus 2x2TB = 4TB, aber wenn eine HDD defekt ist, sind alle Daten futsch.
An deiner Stelle brüchtest du wohl eher ein RAID1, da werden Daten auf 2 Festplatten geklont.
Du hast dann aus 2x2TB = 2TB, aber wenn eine HDD defekt, kannst du die Daten (die ja auf der anderen FP liegen) rekonstruieren. RAID1 ist eher als Redundanz zu sehen.
Die anderen Fragen überlasse ich den Profis.

Erstmal vielen Dank für Deine Zeit und Deine Aufmerksamkeit. Ich habe mich vertan, ich meinte tatsächlich RAID1 also Mirroring oder wie Du schon erwähntest, Redundanz. Vielen Dank nochmal für Deine Hilfe!
Ergänzung ()

Nilson schrieb:
1. Du meinst nicht RAID0, sondern RAID1
2. Imho macht das mit den Festplatten nicht viel Sinn. Je mehr Platten, desto höher die Chance das was ausfällt. Ich hätte daher 2x4 TB genommen (oder 3x4 bzw. 4x4 im RAID5, wenn du die Verfügbarkeit haben willst) und die Aufteilung dann mit mit entsprechenden Ordnern und Rechten realisieren. Bist du dann auch flexibler, wenn du an die 2 TB grenze stößt.
3. Für Backups schau dir das 3-2-1 Prinzip an

Vielen Dank auch Dir für Deine Zeit und Aufmerksamkeit. Den RAID Fehler habe ich korrigiert :)
Das 3-2-1 Prinzip klingt interessant, lese ich mich gleich mal tiefer rein. Beim Überfliegen treffen bei mir ja die "3 und 2" nicht ganz zu. Also müsste ich noch eine externe Festplatte ans NAS anschließen um ein weiteres Backup zu machen..
Hältst Du es für ausreichend, die Backups mit HyperBackup zu machen, oder gibt es da evtl. bedenken?
 
Zuletzt bearbeitet:
HyperBackup ist ein solides Tool. Kann Versionierung und Client-Seitige Verschlüsselung für die Cloud.
 
  • Gefällt mir
Reaktionen: methtical
Ich nutze selbst HyperBackup an meiner Synology und das funktioniert einwandfrei.
Die Einrichtung ist auch ziemlich einfach und falls es doch Fragen geben sollte: es gibt etliche YouTube Videos dazu.
 
  • Gefällt mir
Reaktionen: methtical
Hallo,

ich würde das ganze nicht physisch in Platten unterteilen, sondern das ganze dann über Volumes lösen, dann bist du flexibler.

(1) In Frage käme dann ein Raid 0 zwischen den ersten beiden Festplatten und das ganze Spiegeln (Raid 1) auf die zwei anderen Festplatten

Dann dürfte maximal eine Festplatte ausfallen, um in 100% der Fälle noch ein Backup zu haben.

Sinvoller wäre hier also ein Raid 6 oder ein Raid 5:

(2) Bei Raid 6 hättest du, wie bei 1 4Tb zur Verfügung, es dürften aber ZWEI Festplatten ausfallen ohne Datenverlust!
Dafür ist die Schreibleistung etwas geringer.

(3) Bei reinem Raid 5 hättest du 6Tb zur Verfügung, und es dürfte eine Festplatte ausfallen ohne Datenverlust.


D.h. wenn dir eine hohe Ausfallsicherheit wichtig ist, wählst du Raid 6, wenn du eher mehr Speicher und höhere Geschwindigkeit brauchst, wählst du Raid 5.

Wenn eine der Platten kaputt geht, kannst du in den Slot einfach eine neue einsetzen und das NAS schreibt die Daten auf die noch leere Festplatte. Dieser Prozess kann einige Zeit dauern.



Alle Platten würde ich dann in einen Storagepool packen und dort für die Timemachine-Backups etc. unterschiedliche Volumes anlegen.

Der Vorteil davon ist, dass du deutlich flexibler bist. Brauchst du doch noch mehr Speicherplatz für Backups, kannst du mit ein paar Klicks mehr (freien) Speicherplatz zuweisen etc.

Hier kriegst du vielleicht einen kurzen Überblick über die Einrichtung:


Lg

PS: Hier hast du einen RAID-Rechner, ich hab dir die 4 Festplatten schon "eingesetzt" ;)https://www.synology.com/de-de/support/RAID_calculator?hdds=2 TB|2 TB|2 TB|2 TB

PPS: Synology bietet auch noch SHR und SHR-2 an, damit kenne ich mich jetzt nicht so aus, die sollen allerdings äquivalent zu RAID-5 und RAID-6 sein.
 
Zuletzt bearbeitet:
Thema Backup würde ich auch noch vorschlagen externe Backupmedien zu nutzen. Am besten mindestens 2 Datenträger, sodass man jeden Tag wechseln kann. Eine hängt dann an der NAS, die andere wird zur Sicherheit in einen anderen Brandabschnitt verlegt - oder meinetwegen mit genommen. Falls wirklich mal was passieren sollte (Brand, Einbruch, Crypttrojaner etc.) hätte man so IMMER ein Backup, welches funktioniert.

Cloudspeicher halte ich für kritisch, auch wenn es keine sensiblen Daten sein sollten.
 
Erstmal ganz herzlichen Dank für Deine Aufmerksamkeit und Deine Zeit, sich das alles durchzulesen und Deine Anregungen - Deine Antwort war hilfreich und sehr verständlich. Danke auch für den Link und das Einsetzen der Platten zur Veranschaulichung der Speicherverhältnisse! :)

FranzvonAssisi schrieb:
..ich würde das ganze nicht physisch in Platten unterteilen, sondern das ganze dann über Volumes lösen, dann bist du flexibler.

D.h. wenn dir eine hohe Ausfallsicherheit wichtig ist, wählst du Raid 6, wenn du eher mehr Speicher und höhere Geschwindigkeit brauchst, wählst du Raid 5.

Meinst Du mit Volumes, Partitionieren oder was ganz anderes? Die Beschreibung von Raid 6 klingt sehr interessant - weil wir nicht viel Speicher brauchen, ist das definitiv die bessere Alternative! Schaue ich mir direkt näher an!
Aber damit wäre das Backup an sich ja nicht getan oder? Sollte ich dann am besten noch eine externe Platte ans NAS hängen, welche alle Daten vom Server nochmal absichert? So habe ich, falls 3 Platten ausfallen immer noch diese externe Platte, die die Daten hortet. Diese kann ja abends immer mitgenommen werden oder eben die Variante mit Cloud-Dienst. Wäre das Deine Meinung nach "genug" Absicherung?

Nochmal vielen Dank für Deine Hilfe! :)
Ergänzung ()

Cinderella22 schrieb:
Thema Backup würde ich auch noch vorschlagen externe Backupmedien zu nutzen. Am besten mindestens 2 Datenträger, sodass man jeden Tag wechseln kann. Eine hängt dann an der NAS, die andere wird zur Sicherheit in einen anderen Brandabschnitt verlegt - oder meinetwegen mit genommen. Falls wirklich mal was passieren sollte (Brand, Einbruch, Crypttrojaner etc.) hätte man so IMMER ein Backup, welches funktioniert.

Cloudspeicher halte ich für kritisch, auch wenn es keine sensiblen Daten sein sollten.

Danke auch Dir für Deinen Beitrag und Deine Anregung!
Also Du meinst eine Festplatte einfach extern dranhängen, die immer das Backup macht und die dann immer wechseln mit einer, die von Zuhause mitgenommen wird? Geht das möglichst mit wenig Aufwand? Sprich, wäre es möglich alles so einzustellen, dass die Platten wirklich nur angeschlossen und abgezogen werden müssen oder müsste jedes mal beim Einstöpseln etwas eingestellt werden?

Zum Thema Cloudspeicher war auch erstmal eine Idee, müsste ich ohnehin erst mit dem Chef absprechen - der sieht das vermutlich ähnlich wie Du!
 
Ich kenne die NAS bzw. die Backupsoftware leider nicht. Aber ich kann mir durchaus vorstellen, dass diese mittlerweile so konfigurierbar sind, dass diese nur noch ein- bzw. ab gestöpselt werden müssen.

Software wie z. B. Veeam oder Acronis können das - würde mich wie gesagt nicht wundern, wenn die NAS Backupsoftware das auch kann.
 
  • Gefällt mir
Reaktionen: methtical
methtical schrieb:
Sollte ich dann am besten noch eine externe Platte ans NAS hängen, welche alle Daten vom Server nochmal absichert?
Ein RAID ist kein Backup. Ein RAID "schützt" vor einem Festplattenausfall, es schützt nicht vor versehentlichen/absichtlichen Löschens, (verschlüsselungs-)Viren, Hardware-Defekten, Hausbränden etc.

Es muss daher immer noch mindestens einen zweiten, vom RAID unabhäningen, Datenbestand geben um ein Backup zu haben.
Vor dem Hintergrund sehe ich RAID6 ein wenig "over the Top". Bei vier Platten verlierst du immerhin die Hälfte deines Speichers. Lieber ein weiten externen Datenbestand dafür.

Bezüglich Volume: Synology hat sehr gute Wikis, so Sachen einfach googlen:
https://www.synology.com/de-de/knowledgebase/DSM/help/DSM/StorageManager/volume
Ich würde aber nicht mit mehreren Volumes arbeiten, sondern mit einem großen und dann über Shared-Folders und Berechtigungen gehen.

Bezüglich des externen Backups:
Für die Cloud bietet HyperBackup eine Client-Seitige Verschlüsselung an. In der Cloud liegen dann nur verschlüsselte Container. Ich speicher so immer Nachts meine Daten bei amazon.

Das Backup zu lokalen Platten kann über Zeit gesteuert werden, oder über ein Plugin auch, wenn man die Platte anstöpselt.
 
Zuletzt bearbeitet:
Ich hab nur den ersten Beitrag gelesen, von NAS habt ihr sicher alle mehr Ahnung als ich.

methtical schrieb:
Festplatte 2 soll ein Klon davon sein (RAID1) um im Notfall lange Unterbrechungen zu vermeiden

Der Notfall tritt dann ein wenn das NAS vom gleichen Blitz, der auch die 3 Macs grillt, zu einem Klumpen Plastik eingeschmolzen wird.

Nur für den Fall dass Du es noch nicht gehört hast: RAID ist kein Backup. Und ja, ich kenne persönlich genau so einen Fall in dem die PC ebenso wie das RAID gegrillt wurden und der Besitzer bitterlich weinte.
 
Nilson schrieb:
Ein RAID ist kein Backup.
Es muss daher immer noch mindestens einen zweiten, vom RAID unabhäningen, Datenbestand geben um ein Backup zu haben.

Alles klar, danke, das hab ich verstanden. Vom RAID unabhängig bedeutet aber, dass der Datenbestand trotzdem im dritten Bay zum Beispiel stecken darf, nur eben nicht zum Raid gehören, ist das korrekt? Gibt es einen Unterschied zwischen einer Datensicherung, die in einem der 4 Slots steckt und einem Backup das über externes Kabel mit dem NAS verbunden ist?

Nilson schrieb:
Vor dem Hintergrund sehe ich RAID6 ein wenig "over the Top". Bei vier Platten verlierst du immerhin die Hälfte deines Speichers. Lieber ein weiten externen Datenbestand dafür.

Ok, also Deiner Meinung nach wäre auch RAID1 mit 2 Festplatten ausreichend, sofern genügen Backups vorhanden sind?

Nilson schrieb:
Bezüglich des externen Backups:
Für die Cloud bietet HyperBackup eine Client-Seitige Verschlüsselung an. In der Cloud liegen dann nur verschlüsselte Container. Ich speicher so immer Nachts meine Daten bei amazon.

Das Backup zu lokalen Platten kann über Zeit gesteuert werden, oder über ein Plugin auch, wenn man die Platte anstöpselt.

Das ist hervorragend, die Client-seitige Verschlüsselung sagt mir sehr zu! Ich gehe stark davon aus, dass man diese verschlüsselten Container aber auch problemlos für ein Rebuild wieder nutzen kann, wenn man es mal braucht?! Mit dem Gedanken amazon als Hosting-Dienst zu nutzen hab ich auch schon gespielt :)

Danke Dir nochmal für Deine Zeit und Deine hilfreichen Ratschläge!
Ergänzung ()

Hayda Ministral schrieb:
Der Notfall tritt dann ein wenn das NAS vom gleichen Blitz, der auch die 3 Macs grillt, zu einem Klumpen Plastik eingeschmolzen wird.

Nur für den Fall dass Du es noch nicht gehört hast: RAID ist kein Backup. Und ja, ich kenne persönlich genau so einen Fall in dem die PC ebenso wie das RAID gegrillt wurden und der Besitzer bitterlich weinte.

Vielen Dank für Deine Hilfe und das Teilen Deiner Erfahrungen. Genau so ein Worst-Case Szenario möchte ich umgehen. Hast Du da einen Ratschlag, wie man am besten vorgeht? Weil so ein Blitzeinschlag ja im schlimmsten Fall auch die externe Festplatte am NAS mitgrillt oder nicht?
Wäre da die einzige Lösung ein lokal unabhäniger NAS oder eben das Backupen in die Cloud? Oder hast Du noch andere Ansätze?
 
methtical schrieb:
Genau so ein Worst-Case Szenario möchte ich umgehen. Hast Du da einen Ratschlag, wie man am besten vorgeht?

Ich hab keine Empfehlung für Dich, kann Dir aber berichten wie ich es mache. Bisher ohne NAS, die Backup-HD steckt bei mir fest im Rechner und macht regelmäßige rsyncs. Zusätzlich habe ich drei Platten in der Schublade die abwechselnd (mehr oder weniger regelmäßig) in ein USB-Dock gesteckt, mit dem Inhalt der Backup-HDD betankt und dann wieder in die Schublade gelegt werden.

Das ist für meine privaten Daten eine für mich brauchbare Lösung. Feuer - Problem. Erdbeben - Problem. Verschlüsselungstrojaner - bestenfalls grenzwertig. Festplattendefekt oder elektrisches Problem (auch ein Netzteil kann Schaden anrichten) - eher kein Problem. Was Du daraus für Dich ziehst hängt von Deiner Situation ab, ich würde aber dringend raten das Backup elektrisch vom System getrennt aufzubewahren. Früher hat man dazu ganz klassisch ein Bandlaufwerk genutzt, macht man heute meines Erachtens immer weniger.

Ein möglicher Ansatz für Dich : Definiere die Schadensereignisse gegen die Du Dich absichern musst, dann kannst Du jede Lösung dagegen halten und bewerten. Trenne möglichst rigide unersetzliche von wichtigen von leicht ersetzbaren Daten. Und Gruß an Deinen Trainer/Ausbilder :-)
 
Wichtiges Thema, mal meine Gedanken dazu.

Die Synology 418 ist solide, kann man gut nehmen. Gegen wenig Aufpreis gibt es aber die 418 play, welche ebenfalls 4 Bays hat, aber einen Intel Prozessor. Der ist insofern wichtig, als dass einige Pakete auf den ARMs nicht laufen. Wenn du preislich noch Luft hast, wäre das 918+ die perfekte Wahl. Mehr CPU Kerne, mehr Speicher, auf Dauer die bessere Wahl. Meiner Erfahrung nach wachsen mit der Zeit die Anforderungen und eventuell ärgerst du dich in 2-3 Jahren, 150€ gespart zu haben. Trotzdem ist das Backupszenario auch mit der 418 machbar.

Zu den Platten. Die Aufteilung in Platten ist nicht ratsam, das solltest du auf Volume- oder Ordnerebene machen. Denkbar wäre bei 4x2TB ein SHR Verbund aus drei Festplatten mit einer Hot Spare. Bedeutet, dass eine Festplatte ausfallen kann, die durch die Hot Spare sofort ersetzt wird und nach dem Rebuild kann noch eine aussteigen. Hohe Ausfallsicherheit bei überschaubarem Aufwand. Warum SHR und kein klassisches RAID? Weil man einen SHR Verbund dynamisch erweitern kann. Steigt der Speicherbedarf, kannst du sukzessive die Platten gegen größere ersetzen ohne den Verbund aufzulösen. Das ist bei einem klassischen RAID nicht möglich. Das muss man auflösen und alles neu konfigurieren.

Dennoch will ich die Konzeption aus 4x2 Platten mal in Frage stellen. Die Ausfallsicherheit ist zwar sehr groß, ob man das aber benötigt, ist so eine Sache. Denkbar wäre auch eine SHR Spiegelung aus 2x4TB. Speicherplatz gleich wie oben, dafür günstiger und noch zwei Einschübe frei. Steigt der Bedarf, steckst du noch eine weitere 4TB dazu und hast gleich 8TB. Ich würde das bevorzugen, weil es flexibler ist.

Meist wird die Ausfallsicherheit überschätzt. Nur dann, wenn dein Geschäft sofort zum Erliegen gebracht wird, wenn auch nur eine Minute das NAS offline geht, würde ich auf maximale Ausfallsicherheit gehen. Sollte eine Platte doch mal aussteigen, kann man sich innerhalb von maximal 48h eine neue Platte shoppen. Denn im Zweifel hat man ja das Backup.

Das sollte nicht im NAS stattfinden, sondern außerhalb und das mindestens mit zwei Platten. HyperBackup ist okay, kann Versionierung und Verschlüsselung, ist aber manchmal recht lahm und etwas seltsam zu bedienen. So kann man keine zwei Platten an einen Job konfigurieren, sondern muss für jede Platte einen eigenen bauen. Wenn man die Platten dann tage- oder wochenweise wechselt, führt das immer zu besonders schönen Fehlermeldungen, weil immer eine Zielfestplatte fehlt. Doof. Funktioniert aber trotzdem.

Wähle die Größe der externen Platten mit Bedacht. Wenn du mehrere Versionen vorhalten willst (und das willst du!), dann steigt der Speicherbedarf schnell an (trotz Zuwachssicherung). Nimm gleich mindestens 2TB, besser 4TB Platten. Ich nehme gerne externe Intenso 2,5" Platten, da man diese zur Not auch ausbauen kann und direkt per SATA anschließen kann. Zudem gehen sie zuverlässig in den Standby. Manch eine Platte schafft das nicht und so drehen die Dinger 24 Stunden am Tag durch und verbrauchen Strom.

Eine der Platten bleibt immer am NAS, die andere wird möglichst außer Haus geschafft. Da HyperBackup auch verschlüsselt, sollte man das gleich anwählen. Sicher ist sicher. Die wichtigsten Daten sollten in einem eigenen Backupjob gesichert werden. Warum? Weil HyperBackup eine Zuwachssicherung ist. Je größer das Backup, desto höher die Wahrscheinlichkeit von Fehlern und desto größer der Fehlerfall. Wie oben geschrieben muss ein Job pro Platte erzeugt werden. Die Sicherungen der Rechner und / oder der Time Machine kommen in einen weiteren Job. Aktiviere die Benachrichtigungen für die Sicherung, dann kriegst du jeden Tag eine Meldung per Email, ob das Backup gelaufen ist.

Testen musst du das Backup trotzdem. Alle paar Monate sollte man probeweise Dateien aus dem Backup wiederherstellen und auf Integrität prüfen. Ich spiele meine wichtigsten Dateien dabei zurück und überprüfe per Free Filesync auf Vollständigkeit.

Ein Backup in die Cloud kann praktisch sein, aber man sollte sich genau überlegen, was es bringt. Synology wäre dabei meine erste Wahl. Preiswert, Versionierung, direkt integriert. Doch was bringt ein Backup aus der Cloud? Im schlimmsten Fall musst du 200GB aus dem Netz laden und erst dann kannst du weiter arbeiten. Geht das mit deinem Anschluss überhaupt? Wenn man nur 16Mbit hat, sind 200GB eine Sache von Tagen. Hat man hingegen 200MBit, wird es interessant. Als Hauptbackup würde ich die Cloud nicht empfehlen, als Notnagel für alle Fälle ist es eine Überlegung wert.

Auf dem NAS selbst sollten die Snapshots unbedingt eingeschaltet werden. Sie schützen vor unbeabsichtigtem Löschen oder Cryptotrojanern. Wählt man den Speicherplatz von Anfang an großzügig, kann man noch nach Monaten Dateien wiederherstellen. Ist ein gutes Gefühl.

Wenn das NAS dann am Ende läuft, kann man sich auch mit anderen Diensten beschäftigen. Persönliche Cloud, Zugriff von außen, VPN oder ein Medienserver? Alles machbar mit wenig Aufwand.

Eines aber solltest du noch wissen. Die Inbetriebnahme eines NAS mit Dateifreigabe und Backup ist kein Hexenwerk, ein wirklich solides und zuverlässiges System erfordert aber viele Stunden Konfiguration. Es lohnt sich aber.
 
  • Gefällt mir
Reaktionen: dideldei
Nur mal als Beispiel, ich habe folgendes in der Firma umgesetzt.
Nach einem Gewitter war eine Platte im RAID5 und der RAID Controller gegrillt.
Server schon über 10 Jahre alt, RAID Controller nur noch per eBay gefunden...

Aber naja, das war dann Grund genug, dass ich den Chef endlich von einem Backup überzeugen konnte.

Also Server läuft weiterhin mit RAID5.
Zusätzlich wurde ein Bandlaufwerk angeschafft, welches jetzt täglich eine komplette Sicherung macht.
Hier gibt es einige Dinge zu bedenken. Bei Bandlaufwerken wird mit einer konstanten Datenrate geschrieben, bei unserem LTO6 waren es so um die 300 MB/s. Die liefert eine klassische Festplatte nicht. Das Band muss also immer angehalten und zurück gespult werden, wenn der Puffer leer ist. Das kann zu Überhitzung führen.
Viel RAM kann hier helfen.

Des weiteren existierte schon eine Glasfaserverbindung zwischen Firmengebäude und Chefs Privatgrundstück.
Dort also einen zweiten Server/NAS platziert und täglich per rsync die Daten abgeglichen.

Letzteres kann man natürlich auch per VPN über das Internet abbilden, das mache ich mit meinem privaten Server zu Hause.
 
stabile schrieb:
Wichtiges Thema, mal meine Gedanken dazu.

Wow, erstmal wirklich vielen herzlichen Dank für Deinen sehr ausführlichen und enorm hilfreichen Beitrag - Du hast mir wirklich Lust am Thema gemacht (das ist ein Themenfeld, das ich irgendwie seit jeher meide) und bist indes sehr verständlich und detailliert auf meine Fragen eingegangen. Ich weiß Deine Mühe und vor allem die investierte Zeit wirklich sehr zu schätzen, sowas erachte ich keineswegs als selbstverständlich :)

Bzgl. Deiner Kaufberatung wurde von unserer Seite leider viel zu voreilig bestellt. Ich hätte auch viel lieber ein wenig mehr investiert und die DS918+ besorgt, aber leider ist die DS418 jetzt schon auf dem Weg :/ Ich überlege evtl. zu fragen, ob wir das nicht nachträglich noch eintauschen können, obwohl unsere Nutzung des Servers wirklich überschaubar ist und wenn es mal eine Sekunde länger dauert, ist das auch halb so wild.

stabile schrieb:
Denkbar wäre bei 4x2TB ein SHR Verbund aus drei Festplatten mit einer Hot Spare. Bedeutet, dass eine Festplatte ausfallen kann, die durch die Hot Spare sofort ersetzt wird und nach dem Rebuild kann noch eine aussteigen. Hohe Ausfallsicherheit bei überschaubarem Aufwand. Warum SHR und kein klassisches RAID? Weil man einen SHR Verbund dynamisch erweitern kann. Steigt der Speicherbedarf, kannst du sukzessive die Platten gegen größere ersetzen ohne den Verbund aufzulösen. Das ist bei einem klassischen RAID nicht möglich. Das muss man auflösen und alles neu konfigurieren.

Super Erklärung! Kurze Frage: Wenn man die Kapazität nicht beachtet, sind RAID5 und RAID1 doch eigentlich ähnlich oder?

stabile schrieb:
Dennoch will ich die Konzeption aus 4x2 Platten mal in Frage stellen. Die Ausfallsicherheit ist zwar sehr groß, ob man das aber benötigt, ist so eine Sache. Denkbar wäre auch eine SHR Spiegelung aus 2x4TB. Speicherplatz gleich wie oben, dafür günstiger und noch zwei Einschübe frei. Steigt der Bedarf, steckst du noch eine weitere 4TB dazu und hast gleich 8TB. Ich würde das bevorzugen, weil es flexibler ist.

Meist wird die Ausfallsicherheit überschätzt. Nur dann, wenn dein Geschäft sofort zum Erliegen gebracht wird, wenn auch nur eine Minute das NAS offline geht, würde ich auf maximale Ausfallsicherheit gehen. Sollte eine Platte doch mal aussteigen, kann man sich innerhalb von maximal 48h eine neue Platte shoppen. Denn im Zweifel hat man ja das Backup.

Genau das dachte ich mir auch anfänglich. Ich denke ich entscheide mich für 2x4TB als SHR Spiegelung. Wenn ich Deine SHR-Erklärung korrekt verstanden habe, könnte ich doch auch nachträglich durch das Hinzufügen einer Platte auf SHR-1 (Raid5) umsteigen, ohne großartigen Aufwand betreiben zu müssen oder?
Unsere Arbeit kann auch durchaus mal einen 24h Serverausfall verkraften. Wobei da meine Frage wäre: Angenommen ich habe 2x4TB SHR Spiegelung und eine Platte fällt aus - kann ich dann immer noch ohne Unterbrechung weiterarbeiten, ohne ein "Rebuild" machen zu müssen? Und angenommen es fallen beide Festplatten der SHR Spiegelung aus, wie wäre da das vorgehen, dass man schnell auf das Backup der externen Festplatte zugreifen kann? Muss dann erst der NAS mit neuen Festplatten ausgestattet und dann das Rebuild gemacht werden oder kann man direkt wichtige Daten vom Backup auf den Rechner ziehen? Hoffe, meine Frage ist einigermaßen verständlich :D

stabile schrieb:
Das sollte nicht im NAS stattfinden, sondern außerhalb und das mindestens mit zwei Platten. HyperBackup ist okay, kann Versionierung und Verschlüsselung, ist aber manchmal recht lahm und etwas seltsam zu bedienen. So kann man keine zwei Platten an einen Job konfigurieren, sondern muss für jede Platte einen eigenen bauen. Wenn man die Platten dann tage- oder wochenweise wechselt, führt das immer zu besonders schönen Fehlermeldungen, weil immer eine Zielfestplatte fehlt. Doof. Funktioniert aber trotzdem.

Wähle die Größe der externen Platten mit Bedacht. Wenn du mehrere Versionen vorhalten willst (und das willst du!), dann steigt der Speicherbedarf schnell an (trotz Zuwachssicherung). Nimm gleich mindestens 2TB, besser 4TB Platten. Ich nehme gerne externe Intenso 2,5" Platten, da man diese zur Not auch ausbauen kann und direkt per SATA anschließen kann. Zudem gehen sie zuverlässig in den Standby. Manch eine Platte schafft das nicht und so drehen die Dinger 24 Stunden am Tag durch und verbrauchen Strom.

Meinst Du mit außerhalb des NAS, nicht in einem der Slots/Bays? Also wäre eine externe Festplatte, welche am NAS per USB verbunden ist? Im Falle eines Blitzeinschlags überlebt diese Platte auch nicht oder?
Und ich habe nicht ganz verstanden, was Du meinst wenn Du vom Job sprichst. Könntest Du "So kann man keine zwei Platten an einen Job konfigurieren, sondern muss für jede Platte einen eigenen bauen" bitte erläutern?
Ich habe mich auch nicht zuletzt wegen Deiner Kaufberatung aber auch wegen der Stromversorgung über USB für eine Intenso 2,5" 4TB entschieden - mit der Marke habe ich stets gute Erfahrungen gemacht!
Das mit den mehreren Versionen läuft dann normal mit HyperBackup nehme ich an?! Das wäre mir nämlich sehr wichtig, falls mal versehentlich etwas gelöscht oder bearbeitet wird!

stabile schrieb:
Eine der Platten bleibt immer am NAS, die andere wird möglichst außer Haus geschafft. Da HyperBackup auch verschlüsselt, sollte man das gleich anwählen. Sicher ist sicher. Die wichtigsten Daten sollten in einem eigenen Backupjob gesichert werden. Warum? Weil HyperBackup eine Zuwachssicherung ist. Je größer das Backup, desto höher die Wahrscheinlichkeit von Fehlern und desto größer der Fehlerfall. Wie oben geschrieben muss ein Job pro Platte erzeugt werden. Die Sicherungen der Rechner und / oder der Time Machine kommen in einen weiteren Job. Aktiviere die Benachrichtigungen für die Sicherung, dann kriegst du jeden Tag eine Meldung per Email, ob das Backup gelaufen ist.

Also am besten tagsüber auf einer externen Platte morgens das Backup machen und dann abends mit nach Hause nehmen und die andere externe dauerhaft am NAS lassen.
Leider habe ich hier Deinen Ratschlag mit dem Backupjob wieder nicht ganz verstanden. Ist damit gemeint, dass ich auf einer externen Festplatte die Serverinhalte backuppe (Job1) und auf einer anderen externen Festplatte dann die TimeMaschine Backups backuppe (Job2)? Oder ist Job eine Art Partitionierung der Backup Platte?
Die Benachrichtigung per Mail ist ja grandios! Wusste nicht, dass es das gibt. Aktiviere ich diese dann über Hyperbackup einfach während der Konfiguration?

stabile schrieb:
Testen musst du das Backup trotzdem. Alle paar Monate sollte man probeweise Dateien aus dem Backup wiederherstellen und auf Integrität prüfen. Ich spiele meine wichtigsten Dateien dabei zurück und überprüfe per Free Filesync auf Vollständigkeit.

Das klingt außerordentlich wichtig, vielen Dank für diese Anregung. Wie läuft Dein Check für gewöhnlich ungefähr ab? Ist Free Filesync ein Package von Synology und wie spielst Du deine Dateien zurück/wie kann man Funktionalität des Backups garantieren?

stabile schrieb:
Ein Backup in die Cloud kann praktisch sein, aber man sollte sich genau überlegen, was es bringt. Synology wäre dabei meine erste Wahl. Preiswert, Versionierung, direkt integriert. Doch was bringt ein Backup aus der Cloud? Im schlimmsten Fall musst du 200GB aus dem Netz laden und erst dann kannst du weiter arbeiten. Geht das mit deinem Anschluss überhaupt? Wenn man nur 16Mbit hat, sind 200GB eine Sache von Tagen. Hat man hingegen 200MBit, wird es interessant. Als Hauptbackup würde ich die Cloud nicht empfehlen, als Notnagel für alle Fälle ist es eine Überlegung wert.

Genau, hätte einige unabdingbare Daten (max. 50GB) in der Cloud als Absicherung. Wenn es zu dem Fall kommt, dass ich das Cloud Backup benötige, kann ich notfalls auch mal einen Tag warten. Meinst Du Synology C2? Hatte da was drüber gelesen, aber ohne Erfahrungen. Ich habe sowieso noch bei keinem Hoster Cloudspeicher gekauft, wieso nicht gleich die Synology Variante nehmen. Die wird vermutlich am besten auf Synology zugeschnitten sein haha. Jetzt hast Du mir den DS918+, die Intenso und die Synology Cloud angedreht - ich hoffe, Du erhältst eine angemessene Prämie pro Verkauf :D Spaß bei Seite, vielen Dank nochmal für Deine Empfehlungen und das Teilen Deiner Erfahrungen, das war wirklich außerordentlich hilfreich!
Deine Kenntnisse scheinen versiert, ich nehme jeden Ratschlag dankend an :)

stabile schrieb:
Auf dem NAS selbst sollten die Snapshots unbedingt eingeschaltet werden. Sie schützen vor unbeabsichtigtem Löschen oder Cryptotrojanern. Wählt man den Speicherplatz von Anfang an großzügig, kann man noch nach Monaten Dateien wiederherstellen. Ist ein gutes Gefühl.

Das wäre mit Abstand am wichtigsten. Snapshots können bei der Konfiguration der Platten am Anfang einfach auswählt werden oder? Eine ähnliche Funktion bietet Hyperbackup dann mit der Versionierung beim Erstellen von Backups, wenn ich das richtig verstanden habe. Die Chaoten im Büro haben nicht gerade selten Dateien gelöscht oder versehentlich bearbeitet, die danach nicht mehr zu retten waren - sehr sehr ärgerliche Situation.

Hast Du allg. noch einen Vorschlag was man mit den 2 freien Slots des NAS außer Erweiterung der Kapazität oder Umsteigen auf Raid5/6 sonst noch schlaues machen könnte? Ist es sinnvoll einen Slot als zusätzlichen Backup zu nutzen? Denke ich steige mit der Zeit eher auf mehr Speicherplatz um, aber in der Zwischenzeit kann man sie ja evtl. anderweitig nutzen.

Also nochmals Danke für Deine Antwort und Deine aufmunternden Worte. Du hast meine "Angst" vor der Verantwortung ein wenig gedämmt und mir die schönen Seiten der Technologie aufgezeigt.
Sorry für meinen ellenlangen Post wieder, aber ich frage immer lieber 2mal nach, bevor ich etwas missverstehe und dann am Ende der Ärger groß ist...

Liebste Grüße
jbd
 
  • Gefällt mir
Reaktionen: dideldei
methtical schrieb:
Super Erklärung! Kurze Frage: Wenn man die Kapazität nicht beachtet, sind RAID5 und RAID1 doch eigentlich ähnlich oder?

RAID 1 ist Spiegelung der Daten auf zwei gleichartige Platten. Die Daten werden parallel geschrieben und gelesen, wobei eine Platte aussteigen darf. Ein RAID 1 kann man bedenkenlos auflösen, es läuft danach ganz normal weiter. Denn die Daten sind ja jeweils genau gleich.

Bei einem RAID 5 hast du mindestens 3 Platten, wobei die Kapazität n-1 beträgt, sprich 3-1=2. Bedeutet, dass aus 3x4TB = 2x4TB Nutzdaten werden. Die Daten werden auf alle Platten gleichberechtigt geschrieben. Die Paritätsdaten zur Wiederherstellung befinden sich auf allen Platten, so dass eine beliebige aussteigen kann. Danach ist das RAID aus den verbliebenen Platten allerdings höchst fragil. Fällt eine weitere Platte aus, sind auch die Daten der letzten Platte komplett weg. RAID 5 Systeme sind beliebt, weil man mit ihnen nicht so viel Platz verliert, allerdings benötigen die notwendigen Lese- / Schreibzyklen aufgrund der Paritätsberechnungen mehr Zeit.

methtical schrieb:
Wobei da meine Frage wäre: Angenommen ich habe 2x4TB SHR Spiegelung und eine Platte fällt aus - kann ich dann immer noch ohne Unterbrechung weiterarbeiten, ohne ein "Rebuild" machen zu müssen? Und angenommen es fallen beide Festplatten der SHR Spiegelung aus, wie wäre da das vorgehen, dass man schnell auf das Backup der externen Festplatte zugreifen kann?

Ja. Fällt bei der SHR Spiegelung eine Platte aus, läuft das NAS ganz normal weiter (wenn man vom abschaltbaren Piepen abshieht).

Fallen beide Platten aus, kannst du entweder das Backup per HyperBackup Explorer wiederherstellen oder bei Einbau neuer Platten über die GUI des NAS.

methtical schrieb:
Meinst Du mit außerhalb des NAS, nicht in einem der Slots/Bays? Also wäre eine externe Festplatte, welche am NAS per USB verbunden ist? Im Falle eines Blitzeinschlags überlebt diese Platte auch nicht oder?
Und ich habe nicht ganz verstanden, was Du meinst wenn Du vom Job sprichst. Könntest Du "So kann man keine zwei Platten an einen Job konfigurieren, sondern muss für jede Platte einen eigenen bauen" bitte erläutern?
Ich habe mich auch nicht zuletzt wegen Deiner Kaufberatung aber auch wegen der Stromversorgung über USB für eine Intenso 2,5" 4TB entschieden - mit der Marke habe ich stets gute Erfahrungen gemacht!
Das mit den mehreren Versionen läuft dann normal mit HyperBackup nehme ich an?! Das wäre mir nämlich sehr wichtig, falls mal versehentlich etwas gelöscht oder bearbeitet wird!

Wichtig ist das Trennen des Backupmediums vom Quellmedium. Nur eine physische Trennung garantiert, dass Blitzschlag, Softwarefehler, Schadsoftware, ... das Backup nicht beschädigen. Klar, eine USB Platte am NAS kann bei einem Blitzschlag kaputt gehen, aber dafür immer noch besser als wenn sie im NAS selbst wäre.

Die Versionierung des HyperBackup Jobs kannst du beliebig bestimmen, da begrenzt nur die Plattengröße.

methtical schrieb:
Also am besten tagsüber auf einer externen Platte morgens das Backup machen und dann abends mit nach Hause nehmen und die andere externe dauerhaft am NAS lassen.
Leider habe ich hier Deinen Ratschlag mit dem Backupjob wieder nicht ganz verstanden. Ist damit gemeint, dass ich auf einer externen Festplatte die Serverinhalte backuppe (Job1) und auf einer anderen externen Festplatte dann die TimeMaschine Backups backuppe (Job2)? Oder ist Job eine Art Partitionierung der Backup Platte?
Die Benachrichtigung per Mail ist ja grandios! Wusste nicht, dass es das gibt. Aktiviere ich diese dann über Hyperbackup einfach während der Konfiguration?

Ein Backupjob beschreibt eine einzelne Sicherungsaufgabe. Bei einer Festplatte kannst du beliebig viele Jobs anlegen. Ich würde die wichtigsten Daten mit einer einzelnen Aufgabe sichern, weil man diese dann feiner steuern kann. So will man vielleicht für die wichtigen Daten eine Versionierung für einige Monate, wohingegen man die Time Machine Backups sicher maximal ein paar Wochen aufheben will.

Die Benachrichtigung stellst du zentral im NAS in der Systemsteuerung ein.

methtical schrieb:
Das klingt außerordentlich wichtig, vielen Dank für diese Anregung. Wie läuft Dein Check für gewöhnlich ungefähr ab? Ist Free Filesync ein Package von Synology und wie spielst Du deine Dateien zurück/wie kann man Funktionalität des Backups garantieren?

Free FileSync ist eine freie Synchronisationssoftware für die meisten Betriebssysteme. Ich nutze es unter Windows. Damit kannst du schnell riesige Mengen von Daten vergleichen. Ich mache das dann so. HyperBackup Daten in ein Verzeichnis zurück sichern, Free Filesync starten und dann die Daten auf dem Netzlaufwerk damit vergleichen. Im Idealzustand sagt dir Free Filesync nachher, dass beide Verzeichnisse gleich sind. Eine echte Überprüfung mit Checksummen ist das nicht, aber so stelle ich zumindest sicher, dass wirklich gesichert wurde.

methtical schrieb:
Genau, hätte einige unabdingbare Daten (max. 50GB) in der Cloud als Absicherung. Wenn es zu dem Fall kommt, dass ich das Cloud Backup benötige, kann ich notfalls auch mal einen Tag warten. Meinst Du Synology C2?

Jep. Nutze ich auch für meine Kerndaten (ca. 300GB). Läuft direkt mit HyperBackup und kostet mich in der größten Variante knapp über 80€. Wobei man trefflich darüber streiten kann, ob so ein Cloud Backup sinnvoll ist, wenn man 2 oder 3 Platten zum Sichern nutzt und diese auch außer Haus lagert.

methtical schrieb:
Das wäre mit Abstand am wichtigsten. Snapshots können bei der Konfiguration der Platten am Anfang einfach auswählt werden oder? Eine ähnliche Funktion bietet Hyperbackup dann mit der Versionierung beim Erstellen von Backups, wenn ich das richtig verstanden habe. Die Chaoten im Büro haben nicht gerade selten Dateien gelöscht oder versehentlich bearbeitet, die danach nicht mehr zu retten waren - sehr sehr ärgerliche Situation.

Die Snapshots stellst du pro Ordner ein. Wenn dein Speicherplatz ausreicht, kannst du damit monatelang Dateien sichern ohne diese zu verlieren. Für mich ein absolutes Killerfeature.

methtical schrieb:
Hast Du allg. noch einen Vorschlag was man mit den 2 freien Slots des NAS außer Erweiterung der Kapazität oder Umsteigen auf Raid5/6 sonst noch schlaues machen könnte? Ist es sinnvoll einen Slot als zusätzlichen Backup zu nutzen?

Die Slots sind vor allem sinnvoll für Erweiterung und Wartung. Ich empfehle meinen Kunden immer ein 4 Bay System, auch wenn man nur zwei Bays nutzt. Es ist später sehr viel einfacher so ein System um Speicherplatz zu erweitern oder es im Fehlerfall zu warten. Der Mehraufwand ist doch recht gering und man bekommt einfach eine größere Flexibilität.

Bei Fragen schreibe hier rein. Ich nutze die Synology Kisten seit Jahren und kenne mich auch mit den Ecken und Kanten ganz gut aus. Die Dinger sind auch nicht immer perfekt, aber sie laufen phänomenal gut für den Preis.
 
Zurück
Oben