Firmennetzwerk - Aufbau (Windows Server)

Die höheren Komplexität darf hier eigentlich kein Argument sein, denn sind wir mal ehrlich, für einen ITler der sich damit auskennt ist Virtualisierung heut zu Tage nicht mehr kompliziert. Gerade wenns nur um zwei VMs geht.
Es ist nur Komplex weit der TE sich nicht damit auskennt aber hier sollte auf jeden Fall ein Profi ran.

@Numo: Wo in Deutschland befindet sich diese Firma denn? Wenn ihr aus Rheinland-Pfalz kommt (oder nicht weit davon entfernt) schreib mir mal eine PM dann lass ich dir meine Daten zukommen.
 
Masamune2 schrieb:
für einen ITler der sich damit auskennt ist Virtualisierung heut zu Tage nicht mehr kompliziert
Mein Reden. Natürlich ist das für jemanden vom Fach nicht das Problem. Das ist ja gerade der Punkt..
 
Wow, ich danke erstmal alle für die Beiträge. Sehr interessante und rege Posts!


Masamune2 schrieb:
Ja natürlich geht es auch günstiger. Es gibt zahlreiche Firewalldistributionen die du in eine VM installieren kannst die nichts kosten. z.B. pfsense und dessen Fork opnsense. Oder halt die erwähnte Sophos UTM Home Edition.


Was versprichst du dir davon? Es gibt in dieser Größenordnung keinen Grund diese beiden Dienste von einander zu trennen. Welche Software kommt denn noch zum Einsatz? Habt ihr eine Branchensoftware?


Ok du hast irgendwie nicht verstanden was die Virtualisierung bedeutet und was mit den zwei Windows VMs gemacht werden könnte. Bitte richte die Umgebung nicht alleine ein sondern hole dir Hilfe von jemandem der das kann.


Dann gibt es wie gesagt noch z.B. pfsense als komplett kostenlose Alternative.

Ja es wird eine Art Branchensoftware für die Verwaltung/Pflege der Daten verwendet.
Für eine Virtualisierung hat mich die Ausführung und das Szenario von @Bambaataa22 überzeugt. Klingt sinnvoll.


Raijin schrieb:
Ich würde das Setup bei dieser Größenordnung sowieso möglichst simpel gestalten. Zur Zeit kommt ja bereits ein NAS zum Einsatz, da sehe ich keinen zwingenden Grund für einen Fileserver.

Du musst immer bedenken, dass es mit der Ersteinrichtung nicht getan ist. Installieren, konfigurieren, niewieder anfassen gibt es nicht. Je komplexer du das System machst, umso mehr Arbeit hast du am Ende mit der Wartung. Sofern es keinen handfesten Grund gibt, das NAS abzulösen, würde ich es daher beibehalten sofern es sich um ein adäquates Gerät handelt.

Du musst versuchen, deine eigenen Fähigkeiten diesbezüglich möglichst objektiv zu beurteilen. Je mehr Fragen du hast und je mehr Hilfe du aus Foren, Tutorials und youtube Videos brauchst, umso dicker muss man die Empfehlung nach einem Profi unterstreichen.
Eine semi- oder gar professionelle Firewall will nämlich auch ordnungsgemäß eingerichtet werden. Auch wenn es da ebenfalls Wizards und Hilfen gibt, haben sie alle eines gemein: Sie setzen ein gewisses Mindestmaß an KnowHow voraus. Sophos, pfSense und Co können nämlich deutlich mehr als zu 99% in Hardware gebrannte 08/15 Firewalls in Heimroutern, bei denen Portweiterleitungen schon das höchste der Gefühle sind.

Was die Branche betrifft: "Dienstleistung" kann auch viel bedeuten. Da können wir nicht beurteilen wie sensibel die Kundendaten sind. Das soll aber nicht das Thema sein, das musst du schon selbst einschätzen ;)

Ja es kommt bereits ein NAS in Einsatz. Es gibt meiner Meinung nach zwei Optionen/Konfigurationen, die in dieser Konstellation Sinn ergeben:
1. Den NAS als Backup nutzen (Veeam) und die Daten auf den (File-) Server zu portieren.
2. Den NAS, wie bisher, als "Fileserver" nutzen bzw. in Windows Server einbinden und Backups mittels einer Cloud-Lösung realisieren.

Bambaataa22 schrieb:
Ich kann @t-6 nur beipflichten.
Keine Server-Installation mehr ohne Virtualisierung.
Selbst wenn unsere Kunden nur einen einzigen Server brauchen wird der virtualisiert.

Es kostet nix extra und man gewinnt enorm an Komfort und Flexibilität.

Kleines Bsp. aus der Praxis: Kunde mit 8 Mitarbeitern, Server 2012R2 (Gast) auf Server 2012R2 (Host) auf etwas älterer Hardware.
Der Server stürzte alle 10-15 Min. mit BOSD ab (Mainboard defekt wie sich später rausstellte).

Lösung: Hab nen handelsüblichen PC eingepackt, Server 2012R2 installiert, Hyper-V-Rolle und Altaro VM Backup installiert, aus dem letzten Backup die VM wiederhergestellt, Netzwerk-Einstellungen nen bissl angepasst, fertig.

Dauer: knapp über 2 Stunden und der Laden lief wieder.

Konnten dann in aller Ruhe nen neuen Server anschaffen.

Was war das dagegen früher fürn Krampf...

Da hat man sich mit Acronis Universal Restore rumgeärgert, Treiberprobleme ohne Ende wenn man auf anderer Hardware wiederherstellen musste.. nie wieder!

Gerade wenn der einzige Server in der Firma alles macht, also DC, DNS, DHCP, File-, Application-, und Printserver muss man den ja komplett wiederherstellen. Da kann man ja nicht eben nen neuen Server aufsetzen und nur die Daten zurücksichern...

Und: für bis zu 2 VMs gibts Altaro VM Backup als Free-Version (mit kleinen Einschränkungen), wieder Lizenzkosten gespart.

Hab bestimmt noch was vergessen, aber soviel erstmal dazu von mir.

LG Bam

Danke dir! Sehr informativer und hilfreicher Beitrag!
 
Von was für einem NAS reden wir denn?

Prinzipiell würde ich dann wohl die Daten auf dem (virtualisierten) Fileserver vorhalten und mit einem geeigneten Backup-Plan auf das NAS sichern.

Backup-Strategie:

Je nach Art der Daten empfiehlt sich das Generationenprinzip. Grob erklärt wird dabei in regelmäßigen Abständen - zB alle 4 Wochen - ein Vollbackup gemacht und für x Monate als Historie abgelegt. Jeden Tag macht man ein inkrementelles Backup, das demnach nur die seit dem letzten Backup veränderten Daten sichert. Einmal pro Woche sammelt man diese inkrementellen Backups in einem Differentiellen Backup. Das ist also in etwa vergleichbar mit einer 3-stelligen Zahl. Täglich werden die Einer hochgezählt (tägliches, inkrementelles Backup) und wenn die voll sind, kommt der Zehner und die Einer werden zurückgesetzt. Die Zehner zählt man hoch bis dann die Hunderter kommen und die Zehner zurückgesetzt werden.

Diese Methode hat den Vorteil, dass einerseits vergleichsweise sparsam mit dem Speicherplatz umgegangen wird und andererseits schnell veränderliche Daten zeitnah gesichert werden. Die Zeiträume und die Anzahl der jeweiligen Versionen (zB 1 Monatsbackup, 2, 4 oder von mir aus auch 6) müssen natürlich an die eigenen Bedürfnisse angepasst werden. Die Faustregel lautet: Je veränderlicher die Daten, umso öfter müssen sie gesichert werden und umso wichtiger wird die Versionierung.

Sind also 99% der Daten statisch, muss man sich nicht täglich immer und immer wieder sichern, weil man im Prinzip ja immer nur ein und dieselbe Kopie mehrmals erstellt. Werden die Daten aber permanent verändert, täglich, stündlich, minütlich, müssen sie auch adäquat gesichert werden. Dabei muss man abwägen wie viele Daten sich in Zeitraum X ansammeln und was der Verlust dieser Daten bedeutet. Extrembeispiele wären eine Bank (stark veränderliche Daten) und zB ein Malerbetrieb (fast ausschließlich statische Daten).

Welche Strategie du beim Backup fährst, musst du dir daher gut überlegen. Man kann auch verschiedene Strategien parallel fahren. So habe ich beispielsweise einen Ordner auf meinem Server, den ich täglich sichere. Da habe ich wichtige Dokumente drin, Steuersachen, Versicherungen und so'n Zeug. Meine Film- und Musik-Sammlung hingegen sichere ich nur sporadisch - hier wär ein Verlust .. .. schade, aber kein Weltuntergang.
 
Raijin schrieb:
Von was für einem NAS reden wir denn?

Prinzipiell würde ich dann wohl die Daten auf dem (virtualisierten) Fileserver vorhalten und mit einem geeigneten Backup-Plan auf das NAS sichern.

Backup-Strategie:

Je nach Art der Daten empfiehlt sich das Generationenprinzip. Grob erklärt wird dabei in regelmäßigen Abständen - zB alle 4 Wochen - ein Vollbackup gemacht und für x Monate als Historie abgelegt. Jeden Tag macht man ein inkrementelles Backup, das demnach nur die seit dem letzten Backup veränderten Daten sichert. Einmal pro Woche sammelt man diese inkrementellen Backups in einem Differentiellen Backup. Das ist also in etwa vergleichbar mit einer 3-stelligen Zahl. Täglich werden die Einer hochgezählt (tägliches, inkrementelles Backup) und wenn die voll sind, kommt der Zehner und die Einer werden zurückgesetzt. Die Zehner zählt man hoch bis dann die Hunderter kommen und die Zehner zurückgesetzt werden.

Diese Methode hat den Vorteil, dass einerseits vergleichsweise sparsam mit dem Speicherplatz umgegangen wird und andererseits schnell veränderliche Daten zeitnah gesichert werden. Die Zeiträume und die Anzahl der jeweiligen Versionen (zB 1 Monatsbackup, 2, 4 oder von mir aus auch 6) müssen natürlich an die eigenen Bedürfnisse angepasst werden. Die Faustregel lautet: Je veränderlicher die Daten, umso öfter müssen sie gesichert werden und umso wichtiger wird die Versionierung.

Sind also 99% der Daten statisch, muss man sich nicht täglich immer und immer wieder sichern, weil man im Prinzip ja immer nur ein und dieselbe Kopie mehrmals erstellt. Werden die Daten aber permanent verändert, täglich, stündlich, minütlich, müssen sie auch adäquat gesichert werden. Dabei muss man abwägen wie viele Daten sich in Zeitraum X ansammeln und was der Verlust dieser Daten bedeutet. Extrembeispiele wären eine Bank (stark veränderliche Daten) und zB ein Malerbetrieb (fast ausschließlich statische Daten).

Welche Strategie du beim Backup fährst, musst du dir daher gut überlegen. Man kann auch verschiedene Strategien parallel fahren. So habe ich beispielsweise einen Ordner auf meinem Server, den ich täglich sichere. Da habe ich wichtige Dokumente drin, Steuersachen, Versicherungen und so'n Zeug. Meine Film- und Musik-Sammlung hingegen sichere ich nur sporadisch - hier wär ein Verlust .. .. schade, aber kein Weltuntergang.

Super! Dankeschön für die verständliche und gute Erklärung. Es wird ein Synology NAS DS415+ mit zwei ca. 4 TB HDDs verwendet.
Welche Software würdest du für das Backup nach Generationsprinzip empfehlen?
 
Da kann ich dir leider wenig weiterhelfen, weil mein Server mit Linux läuft und ich die Backups mit selbst geschriebenen Scripten bzw. Cronjobs (=Taskplaner) laufen lasse. Windows-Backups habe ich ehrlich gesagt meistens rudimentär mit robocopy gemacht. Geht auch, aber es gibt sicher zig bessere Alternativen.
 
Das Generationen-Prinzip haben wir früher bei der "klassichen" Sicherung mit Acronis verwendet. (Allerdings meistens nur differentiell und Vollbackup).

Bei den "modernen" VM-Backuplösungen (z.B. Veeam, Altaro) kümmern wir uns nicht mehr so drum und überlassen das der Software.

Bei Altaro legst du z.B. nur fest, wielange du ein Backup aufheben willst. z.B. 6 Monate.
Die Software kümmert sich dann selbst um alles und verbraucht durch Kompression und Deduplizierung nur äußerst wenig Speicherplatz.


Hier mal ein Bsp:

altaro.JPG

Grau: Acronis-Backup-Dateien von 1 Monat
Blau: Altaro-Backup-Dateien von 1 Monat


Dabei ist es unerlässlich, die Backups zu verifizieren und zu testen!
Über das Ergebniss der Backups und der Tests sollte man sich täglich informieren lassen!
Nichts ist schlimmer, als ein Backup welches man nicht nutzen kann weil defekt oder beschädigt oder unvollständig...

@Numo ich würde dir die Altaro Free Version empfehlen

P.S. Ich arbeite nicht für Altaro falls hier der Eindruck entsteht ;-)
Das Produkt hat mich aber gerade für kleinere Umgebeungen voll überzeugt.

Lg Bam
 
Bambaataa22 schrieb:
[..] haben wir früher bei der "klassichen" Sicherung [..] verwendet.

[..]

Bei den "modernen" VM-Backuplösungen [..]
Na danke! Jetzt fühle ich mich alt.. :stock:

Hehe.. Ne, aber hab mir schon gedacht, dass es da heute bessere Alternativen gibt. Solange die Software das dann auch vernünftig macht und man ähnlich dem "klassischen" Generationenprinzip auch entsprechende Versionierung hat, um zB den Stand von letzter Woche Donnerstag wiederherzustellen, ist das sicherlich ne feine Sache. Vielleicht guck ich mir Veeam und Altaro auch mal an. Wobei.. mein "klassisches" Konzept mag aus der Mode sein, aber es funktioniert immer noch :cool_alt:
 
Im Prinzip ist das ja immer noch ein Generationen-Backup.
Es wird erst ein Voll-Backup angelegt und dann inkrementell weiter gesichert.
Wenn dann die Zeit ran ist, wo das Vollbackup zu alt ist, kümmert sich die Software selbstständig darum die vorhandenen Backups zusammenzuführen und den Speicherplatz freizugeben.

Du kannst natürlich die Daten aus jedem gelaufenen Backup wiederherstellen.
Also bspw. Backups werden 14 Tage aufgehoben, 2 Backups pro Tag, dann kannst du aus 28 Zeitpunkten wählen um deine Daten wiederherzustellen.

Von Veeam gibts übrigens einen kostenlosen Client für Standalone PCs!

Den hab ich privat jetzt schon zig mal installiert.
Größter Vorteil für mich: Man kann dem Client sagen, dass er das Backup starten soll wenn das Sicherungsziel (externe HDD) angeschlossen wird und danach den Datenträger auswerfen soll.

Weil bei "Oma Erna" ist es ja so: Es gibt kein NAS. Und eine dauerhaft angeschlossene USB-Festplatte ist kein geeignetes Sicherungsmedium (z.B. Gefahr durch Crypto-Trojaner)
Oma Erna vergisst auch die Festplatte anzuschließen wenn man ihr sagt: Sonntag 18 Uhr läuft die Sicherung.

Ich habe allen eingebläut: Wenn euch eure Daten wichtig sind, regelmäßig mal die externe anschließen!

Dann läuft das Backup automatisch durch, die HDD wird ausgeworfen und kann wieder in die Schublade.

Sehr praktisch und dazu kostenlos!

LG Bam
 
  • Gefällt mir
Reaktionen: Raijin
Zurück
Oben