Betriebssystem vorinstallieren

lordg2009

Lt. Commander
Registriert
Apr. 2009
Beiträge
1.503
Hi,

ich würde meinen Homeserver gern komplett neu aufsetzen. Nur soll die Ausfallzeit der cloud, des Medienservers, ... so gering wie möglich ausfallen. Als Speicher soll eine neue SSD dienen. Als Betriebssystem soll debian herhalten
Mein Plan:
Auf meinem Windows Rechner über VirtualBox den Server aufsetzen, anschließend das vdi-image in ein raw umwandeln, dann per "dd if=*.raw of=/dev/SSD auf die SSD kopieren, dann die Partition auf volle größe erweiteren und fertig ist die geschichte.

Sollte das prinzipiell machbar sein habe ich noch ein paar Fragen:

  1. das vdi image wir auf einer HDD erstellt und anschließend auf eine SSD kopiert. Muss ich bzgl. des alignment irgendwas besonderes beachten?
  2. Hardware bei installation wird logischerweise eine ganz andere sein, als bei späterer Nutzung -> Problem?
  3. Ich möchte einige VMs betreiben, der Server wäre ja aber bei Einrichtung bereits virtualisiert. Kann man in virtualisiertern Umgebungen virtualisieren? (KVM möchte ich benutzen)
  4. sonst irgendwelche Probleme, die ich nicht beachte?

Vielen Dank für eure Hilfe
 
Wenn du vorher ordentliche Backups machst und dir die benötigten configs usw sicherst, dann bist du mit ner Neuinstallation deutlich schneller. Die Installation von Debian (basic) dauert ja nur ein paar Minuten mit einer SSD, noch Backups der benötigten Dienste einspielen und den Rest kannst du dann ja nebenher machen.
Ansonsten macht man sowas dann halt am Wochenende/Abend, die 2-3h sollten für eine wichtige Wartung kein Problem sein.
 
Liegt das Serverzeug ohne virtualisierung auf dem OS? Kann man gleich mal ändern, z.B. mit Docker ;)
 
Zuletzt bearbeitet:
Also wenns dir wirklich auf ultra-hohe Verfügbarkeit (aber bei einem Home-Server?!) ankommt, würde ich ja den anderen Weg wählen:

Festplatte aus dem Server ausbauen, in den PC einbauen und in VirtualBox als Festplatte einrichten. Dann VirtualBox benutzen und von der Server-Festplatte booten (Google 'VirtualBox Raw Hard Disk Access'). In der Regel kommen die Linux-Systeme auch mit wechselnder Hardware zurecht (außer es sind spezielle Module im initramfs eingebunden, dann gibt es aber in der Regel wie z.B. unter Arch einen Fallback-Modus).

Danach kannst du in aller Ruhe auf einer neuen Festplatte dein OS installieren.
 
Es geht mir nicht um ultrahohe Verfügbarkeit. Allerdings würde ich gern ein paar neue Sachen ausprobieren und neben der Arbeit brauche ich dafür Tage, vlt. sogar Wochen bis wieder alles läuft, daher der Wunsch, das System extern zu konfigurieren.

'VirtualBox Raw Hard Disk Access' klingt gut. Das werde ich wahrscheinlich probieren.

Docker kannte ich noch gar nicht. Das klingt tatsächlich sehr interessant. Wenn ich es richtig verstehe liegt der Vorteil in erster Linie in der vereinfachten Migration. Wie sieht es aber mit der Sicherheit. An VMs gefällt mir die Trennung verschiedener Systeme. Laut wikipedia kann ein Docker Container ebenfalls nicht auf die Resourcen eines anderen Containers zugreifen. Wie sieht es nach einem root exploit auf einen Dienst aus. Besteht dann Zugriff auf das Host System, oder sind die Container ebenso wie die VMs isoliert?

Zuletzt noch mal die Frage: Funktioniert Virtualisierung in einer virtualisierten Umgebung?

Vielen Dank für eure Hilfe
 
lordg2009 schrieb:
Docker kannte ich noch gar nicht. Das klingt tatsächlich sehr interessant. Wenn ich es richtig verstehe liegt der Vorteil in erster Linie in der vereinfachten Migration. Wie sieht es aber mit der Sicherheit. An VMs gefällt mir die Trennung verschiedener Systeme. Laut wikipedia kann ein Docker Container ebenfalls nicht auf die Resourcen eines anderen Containers zugreifen. Wie sieht es nach einem root exploit auf einen Dienst aus. Besteht dann Zugriff auf das Host System, oder sind die Container ebenso wie die VMs isoliert?
Also Docker-Container sind zwar in gewisserweise isoliert, da sie quasi ihr eigenes virtuelles Dateisystem usw. haben (konkret werden cggroups benutzt und Namespaces [angelehnt an den Namespaces die man aus dem Betriebssystem Plan 9 kennt]), aber das dient in erster Linie dazu der darin laufenden Anwendung eine definierte Umgebung zur Verfügung zu stellen, in die man alles reinwirft was das Programm benötigt, um es z.B. weiter geben zu können ohne das auf dem Zielsystem spezielle Bibliotheken usw. vorgehalten müssen, weil das alles im Docker-Container ist.

Dies ist aber kein Security-Feature in dem Sinne, dass es für Ausbruchssicherheit gebaut ist. Es soll nur vom Hauptsystem oder anderen Containern so weit trennen, dass diese sich möglichst nicht gegenseitig stören/beeinflussen, weil sie z.B. eine private Sicht aufs Dateisystem haben und Du fröhlich /etc löschen kannst ohne das es das System oder andere Container interessiert, ums mal salopp zu formulieren.

Man hat zwar vor die Isolation durch Docker noch weiter zu entwickeln, dass sie sicher ist. Aber im Augenblick ist das (soweit mir bekannt ist) noch nicht der Fall.

lordg2009 schrieb:
Zuletzt noch mal die Frage: Funktioniert Virtualisierung in einer virtualisierten Umgebung?
Prinzipiell ja. Die Frage ist hier auch nicht ob oder ob nicht, sondern mit welcher Performance. Wenn also eine Virtualisierungssoftware mit "nested virtualization" wirbt, dann hat dies meist den Hintergrund, dass noch spezielle Vorkehrungen getroffen werden, um das auch performant zu ermöglichen.
Zudem enthalten neuerere x86-CPUs auch bestimmte Hardwarefeatures, um das halt auch auf Hardwareebene nochmals zu unterstützen.
 
Zuletzt bearbeitet: (Ergänzung)
Zurück
Oben