Debian: RAID10 nachträglich aufsetzen

Nö, sollte kein Treiberproblem geben.

Was OpenVZ angeht: Ich habs zum Rumtesten auf einen unserer Server installiert, der nach einer Migration übrig blieb. Administriert sich hübsch. In meinem Falle isses ein CentOS 6 jeweils als Host und Clients.

Und mir is grad was zu deinem ursprünglichen Problem mit nem Echtzeit-Wechsel auf Soft-RAID eingefallen... Es geht (aber eher nicht mit deinem RAID10). Bei Mirroring isses hingegen echt nicht weiter schwer. Mal sehen ob ich noch alles zusammen bekomm...

- mdadm & zugehörige Pakete installieren
- Partitionstabelle der aktuell benutzen Gesamt-Festplatte per dd in ein Image clonen
- mdadm-Struktur anlegen, neue (leere) Festplatte der Struktur zuordnen, Partitionstabelle auf die mdadm-Device anwenden
- reboot in den Root-Modus (read only), mdadm-Device mit Schreibrecht mounten, alle Dateien von der "echten" Festplatte in den halbfertigen RAID kopieren. Danach Mountpoint für / & co auf mdadm-Devices wechseln, inkl. GRUB-Einträge
- reboot (aber von der mdadm-Device), gucken ob alles an Ort und Stelle ist und sauber bootet
- alte Festplatte nullen, in mdadm-Struktur eingliedern und synchronisieren lassen
 
Daaron schrieb:
Und mir is grad was zu deinem ursprünglichen Problem mit nem Echtzeit-Wechsel auf Soft-RAID eingefallen... Es geht (aber eher nicht mit deinem RAID10). Bei Mirroring isses hingegen echt nicht weiter schwer. Mal sehen ob ich noch alles zusammen bekomm...

Cool danke! :)
Naja also OpenVZ kann leider nur Linux VMs hosten, da fällt meine Windows VM und meine pfSense (BSD) VM weg, Proxmox basiert auf OpenVZ also das gleiche Problem. Hyper-V will ich nicht weil das in ner Windows Umgebung laufen muss und mir da zu viele Sachen im Hintergrund Resourcen fressen, auch wenn ich nur Server-Core installiere ist mir das zu blöd.
Letztendlich bleibt mir eigentlich nur ESXi und da geht ja kein Software RAID.. und n HW-Controller kostet 15€ + Flexipack 15€ und das ist mir echt zu viel.. Würde der nur 15€ kosten würd ich sagen, gut haut rein.
Wenn ich immerhin für jede VM nen RAID1 erstell mittels des OS hab ich immerhin ja noch die VMDKs wenn die Systemplatte mal abraucht.

Sonst vielleicht Debian mit Virtualbox oder Xen, aber da ist mir ESXi doch lieber wegen des vSphere Clients.

Edit: Ich korrigiere meine Aussage, scheinbar kann man doch Windows VMs mit Proxmox aufsetzen, nur wie sieht es da mit der Performance im Gegensatz zu ESXi aus? Für mich scheint es als sei das eingeschränkte ESXi bei der Virtualisierung von Windows und Linux einfach das beste, ich muss am Host auch nicht viel machen, wozu auch. Ich kann mit VMware Workstation und mit dem vSphere Client drauf zugreifen, daheim hab ich eh nur ne Windows Maschine somit brauch ich auch keinen Crossplattform Manager für meinen Hypervisor.
 
Zuletzt bearbeitet:
./.
 
Zuletzt bearbeitet: (-- gestrichen, redundanter Eintrag. --)
Du bist dir der Ironie bewusst, dass du einen redundanten Eintrag in einem Thread über RAID gelöscht hast, oder?
 
Daaron schrieb:
Du bist dir der Ironie bewusst, dass du einen redundanten Eintrag in einem Thread über RAID gelöscht hast, oder?

Der war gut! :D

Hab grade mal bei uns in der IT nachgefragt, die nutzen XenServer. Jedoch haben die auch kein Windows 2012 R2 was von Xen nicht unterstützt wird. Die einzige andere Alternative zu ESXi wären zwei Systeme eins mit Hyper-V für die Win Guests und eins mit KVM/Proxmox für die Linux Guests, jedoch kann ich mir bei den Kosten dann gleich n Controller bei Hetzner dazu buchen. :p
Denke dann ist das ganze wohl geklärt, kein SoftwareRAID und auch kein anderer Hypervisor.

Danke für die Hilfe! :)
 
Na ja, Vorteil an der Hardware-Lösung: Es dürfte klappen, dass du einfach dem Controller sagst "nimm Daten von Platte A und spiegle ab jetzt auf B"
 
Daaron schrieb:
Na ja, Vorteil an der Hardware-Lösung: Es dürfte klappen, dass du einfach dem Controller sagst "nimm Daten von Platte A und spiegle ab jetzt auf B"

Nicht immer. Je nach Controller müssen die Platten erst einmal initialisiert werden, sprich Informationen zur Verwendung im Bootblock abgespeichert werden. Gilt vor allem für Adaptecs. Alte ICP sowie ein paar LSI-Controller halten diese Infos im userspace des Controllers, aber viele andere schreiben die Daten auf die Festplatten, was zur Folge hat, daß erst einmal alle Daten weg sind.

Auf jedem Falle aber gilt: Vor der Migration ein vollständiges Backup machen.
 
Ja leider sind mir 30€ draufzahlen zu viel, die Chance dass die Platte mit dem OS ausfällt steht 50 50 und im schlimmsten Fall muss ich nur ESXi neu installieren und die VMs kurz Konfigurieren, da ist der Zeitaufwand wesentlich günstiger.
Würde sich erst im RAID10 überhaupt lohnen aber da müsste ich Pro Platte nochmal 15€ drauf zahlen.
 
Was zahlst du denn aktuell überhaupt und was hast du, jenseits von TS, für Belastungen auf der Kiste?
Denn ganz ehrlich: Du solltest, gerade wenn eh wenig auf der Maschine los ist, einfach über einen Wechsel nachdenken. Plünder einfach die Serverbörse. Der hier klingt z.B. geil und ist so ungefähr die Leistungsklasse, die wir für Webhosting verwenden.


Intel Core i7 930
Hardwaredetails:
2x HDD 750 GB SATA
6x RAM 2048 MB DDR3
Zusätzliche Hardware:
RAID Controller 4-Port SATA PCI-E
- Adaptec 5405

Kostet aktuell 46€/Monat, Tendenz fallend
 
Wenn man nicht gerade so einen Müll wie esxi einsetzt, ist SW-RAID am Host für alle VM gar kein Thema.

RAID 1 nachträglich geht auch, ist halt ein wenig eklig. VM in einem Rettungssystem booten, mit der 2. (bislang leeren) Platte Partitionen und RAID 1 erstellen, Dateisysteme rübermigrieren (bei mkfs+rsync statt dd auch in fstab dann die UUID anpassen), chrooten, Grub installieren, kernel/initramfs updaten, und dann schauen ob die VM mit der 2. jetzt RAID-Platte bootet. Ist das der Fall, die 1. Platte zum RAID hinzufügen, Grub auch auf die 1. Platte installieren...

HW-Raid würde ich nie nehmen. Das ist genauso wie esxi. Du bist von irgendeinem Tool abhängig das nicht die Hälfte von dem macht, was du mit den Standard-Linux-Tools hinbekommen könntest.
 
Dafür ist HWR performanter und unabhängig vom OS. Nicht jedes OS ist so cool und kann mit mdadm rumspielen.
 
Daaron schrieb:
Dafür ist HWR performanter und unabhängig vom OS. Nicht jedes OS ist so cool und kann mit mdadm rumspielen.

Daneben gibt es auch noch RAID auf Dateisystem-Ebene wie z.B. bei ZFS. Auch das bietet einiges an Vorzügen gegenüber mdadm oder LVM2. Insbesondere im Rebuild/Verify. Aber das steht hier nicht zur Debatte.

Den Adaptec kann ich an sich empfehlen, habe hier sowohl einen 6805Q als auch einen 5805ZQ im Einsatz, sind beide bisher recht zuverlässig und auch fix. Insbesondere der 5805ZQ, der in meinem N54L vor sich hin schnurrt, hat sich durchaus bezahlt gemacht. Auch, wenn er separat gekühlt werden muß. Heiß werden beide Dinger, wenn der Luftstrom durchs Gehäuse zu gering ist: Nichts für silent-PCs oder Office-Rechner.
Aber durchaus eine gute, günstige Wahl. Auch für zu Hause.
 
Zuletzt bearbeitet:
Ich korrigiere meine Aussage, scheinbar kann man doch Windows VMs mit Proxmox aufsetzen
Und wie man das kann! Windows läuft per KVM wunderbar (virtIO Treiber gibts auch) und das Beste an der Sache, du hast kein propreitäres OS als Unterbau, sondern ein vollständig benutzbares Linux, mit dem du alles machen kannst, was ein Linux halt so kann. Falls dir die Weboberfläche von Proxmox nicht gefällt, installierst du dir ein Linux deiner Wahl und benutzt z.B. virtmanager für die Administration der VMs... oder die Kommandozeile.
 

Ähnliche Themen

Zurück
Oben