Homeserver - Redundanz (HA) sinnvoll?

GiggideGig

Cadet 3rd Year
Registriert
Sep. 2018
Beiträge
32
Liebe Community,

seit rund vier Jahren betreibe ich einen Homeserver auf einem Intel NUC 11 (i5, 32 GB RAM, 8 TB SSD, 2 TB NVMe, 8 TB HDD für Backups). Darauf laufen u. a. AdGuard, SWAG, Home Assistant, Syncthing, Paperless und Immich.
Performance und Stabilität sind bisher sehr gut, Backups erfolgen nach der 3-2-1-Strategie.
Perspektivisch würde ich das Setup gern weiter ausbauen – z. B. um einen selbst gehosteten Passwortmanager sowie zusätzliche eigene Services. Als Solution Architect und Entwickler reizt mich das natürlich technisch.

Mit zunehmender Anzahl kritischer Services steigt allerdings auch die Abhängigkeit von der Hardware. Ein Totalausfall wäre zwar durch Backups abgesichert, würde aber bedeuten, neue Hardware zu beschaffen und das System vollständig neu aufzusetzen – inklusive Restore und Konfiguration.

Daher überlege ich, eine redundante zweite Instanz aufzubauen, die kontinuierlich synchronisiert wird (z. B. via Syncthing) und im Fehlerfall als Failover übernehmen kann.

Mich würden eure Erfahrungen interessieren:
Habt ihr ein aktives/passives Setup im Homelab oder im Fall der Fälle einfach 48h kein Server?

Wie würdet ihr Daten- und Service-Synchronisation sauber lösen?

Würdet ihr eher auf Replikation auf Storage-Ebene oder auf Container-/VM-Ebene setzen?

Gibt es bewährte Architekturen oder Tools, die sich im privaten Umfeld als praktikabel erwiesen haben?

Ich freue mich auf eure Einschätzungen und Best Practices.

Viele Grüße
Sören
 
Proxmox?!!

Ob ich privat zwei davon nutzen würde? Ich glaube nicht. Selbst wenn mal was ausfällt verkrafte ich ein paar Tage, ohne dass der Server läuft. Ist ja nicht wie im Business, dass dann kein Geld verdient werden könnte oder Menschen sterben…

Ich mache von meinen Containern/VMs Backups. So ist im Zweifel nach dem Restore alles wieder wie vorher, falls der Server ausfallen sollte.
 
  • Gefällt mir
Reaktionen: TheHille, Azghul0815, Flaimbot und eine weitere Person
Kann man machen, richtiges Failover läuft aber erst ab drei Instanzen korrekt. 2 Überstimmen den 1 Fehlerhaften (Split-Brain).
Coldspare geht auch, wenn von den virtuellen Maschinen und Cointainer Imgs vorhanden sind. Wenn es um die Neugierde und Wissensaufbau geht. Why not, wenn der Beutel stimmt.

@cfreak84 Je nach dem wie groß z.b. die HomeAssistent Integration im Eigenheim ist kann das schon vorteilhaft sein, drei Tage lang Licht und Rolläden steuern etc kann schon nerven ;).

Müssen ja am Bsp HomeAssistant keine Server mit 3x12 Cores sein...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eigsi124 und madmax2010
Mein Proxmox-Cluster besteht aus 2 Nodes. Wenn einer ausfällt, kann ich die Container einfach aus dem Backup auf dem anderen starten. Mit ein paar Ausnahmen, z.B. der NAS-VM, da die auf den durchgereichten Disk-Controller angewiesen ist.

GiggideGig schrieb:
Wie würdet ihr Daten- und Service-Synchronisation sauber lösen?

Ich habe nur 2 Services, die immer erreichbar sein müssen, auch wenn ich mal einen Node neu starte. AdGuard und mein Dashboard. Deshalb habe ich da Redundanz gebaut. Die beiden Container laufen auf beiden Nodes, AdGuard wird via AdGuardHome sync synchron gehalten und die Yaml-Files fürs Dashboard einfach via Rsync Job. keepalived kümmert sich drum, dass die IP-Adresse dann auf der anderen Instanz landet.

GiggideGig schrieb:
Gibt es bewährte Architekturen oder Tools, die sich im privaten Umfeld als praktikabel erwiesen haben?

Wenn du wirkliches HA willst, dann mindestens 3 Proxmox-Nodes mit verteiltem Speicher via Ceph.
 
  • Gefällt mir
Reaktionen: GiggideGig, madmax2010 und AB´solut SiD
Wenn alles Docker Container sind, würde ich die Services in der Cloud zusätzlich hosten hinter einem VPN.
 
Ahh wichtiger Info vergessen. Ich nutze unraid da weniger Stress bei Updates.

Proxmox Cluster mit drei Instanzen... ja im Business sicher, aber privat?

Meine Gedanken gingen an ein raspi oder was kleines das denn Hauptteil abfängt, Home Assistant und Passwortmanager z.b.

Edit: typo
 
Zuletzt bearbeitet:
Ich habe meine heim Dienste inklusive LLMs und spracherkener auf einem single board computer.

Alle tools darauf schreiben ihre backups auf einen lokalen Stick und eine storage box bei hetzner.
Wenn der kleine stirbt, brauche ich nur die Backups zu importieren.
Geraer home assistant macht das sehr einfach.
Failovern finde ich hier ein bisschen Overkill.

Mach worauf du technisch Lust hast,lernt man immer was bei. Ich will den Kram daheim minimal und einfach zu betreiben halten
 
  • Gefällt mir
Reaktionen: TheHille
Man könnte die wichtigsten Dienste auf einem Raspi oder so ebenfalls einrichten.
adguard ist ja wie PiHole ein DNS und da kann man sowieso mehrere im Netzwerk betreiben.

Syncthing kann vermutlich auch auf mehrere Ziele replizieren.

Die anderen komplexeren Dienste eher nicht.

Da ist dann echtes Aktiv/Passiv Failover mit echtzeit Storage Replikation notwendig damit beim Ausfall die VM auf nem anderen Host hochgefahren werden kann.

Ein richtiges HA mit Failover ist bisschen overkill zuhause aber klar machbar (Proxmox etc.). Zudem sollten dann alle Hosts möglichst gleich performant sein und idealerweise gleiche Hardware zwecks Kompatibilität.
 
Ich hab privat einen 3 Node Proxmox Cluster mit Ceph shared Storage. Als Hardware nutze ich 3 Optiplex 3050 (i5-6500T, 16GB RAM, 128GB SATA SSD für OS und 512 NVME SSD für Daten). Ich hab die Nodes sehr günstig bekommen und mich deshalb für den Cluster entschieden. Auf den 3 Nodes laufen 4 VMs die auf ein separates NAS gesichert werden. Größter komfortgewinn m.M. nach ist nichts runterfahren zu müssen, wenn man die Proxmox Nodes aktualisiert, sondern nur die VMs "jongliert". Und natürlich hat mich der Aufbau interessiert, wobei das im Nachhinein eher langweilig war, weil der Cluster inkl. Ceph in unter einer Stunde eingerichtet war....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AB´solut SiD, Col. Jessep und CoMo
@Ticke aber auch 3x Strom und Platzverbrauch.
Das muss nicht jedem gefallen.

Das Netzwerk sollte dementsprechend auch Resilient sein.

Und wenn so ein Cluster mal Ärger macht ist es auch so ne Sache
 
Danke für den vielen input.

Mit Raspi ARM macht vermutlich wenig Sinn wenn ich auf x86 primär unterwegs bin mit dem Server.

Meine Idee wäre ein zweiter Nuc oder zumindest ähnliche Hardware (Intel) und darauf die Kritischen VM und Container synchronisiert halten.

Ob AdGuard läuft ist nicht kritisch, aber homeassistant und vaultwarden schon.

Fraglich ist ob z.B. die Matter Geräte weiter laufen wenn der zweit Server übernimmt.

Ziel wäre bei einem Ausfall entspannt zu sein sodass die Familie nicht die Krise bekommt.
 
Sichere die docker volumes per integriertem Backup oder noch besser per restic. Die docker compose packst du in ein gitea in Docker.
 
Platz ist absolut kein Problem im Keller. Über Strom hab ich mir auch Gedanken gemacht. Aber ich hab mal grob nachgerechnet, uns so Wild ist auch wieder nicht. Alle VMs würden eh nicht auf einem Node laufen, ich bräuchte entweder einen stärkeren Node oder wieder einen zweiten.

Netzwerk ist ganz normal ein Gigabit Switch, an dem auch der Rest hängt. Aber HA war bei meinem Aufbau ja auch nicht erste Prio.

Bis jetzt läuft der Cluster absolut unauffällig, ohne einen einzigen Ausfall. Kommt automatisch nach einem Stromausfall automatisch wieder hoch(inkl. VMs). Diverse Updates von Proxmox und Ceph haben auch ohne Probleme funktioniert.

Klar, ist das nicht für jeden was, aber ich fahr echt gut mit der Kombi. Wer Bock auf ein Homelab hat, mit all seinen Vor- und Nachteilen, dem kann ich so einen Aufbau nur empfehlen. Natürlich gehts auch bei den meisten auch mit einem Node.
 
GiggideGig schrieb:
Proxmox Cluster mit drei Instanzen... ja im Business sicher, aber privat?
High availibility... ja im Business sicher, aber privat?
Merkste selbst, oder?

GiggideGig schrieb:
Habt ihr ein aktives/passives Setup im Homelab oder im Fall der Fälle einfach 48h kein Server?
Der große Vorteil an Proxmox ist, dass es notfalls sogar auf einem Reiskocher läuft.

Ich nutze den PBS Host i.d.R. so, dass ich ihn auch als VM Host verwenden könnte. Braucht halt genug RAM. CPU ist ziemlich egal.
 
  • Gefällt mir
Reaktionen: madmax2010
Hmm meine Backup+ / Redundanz besteht eher aus unabhängigen lokalen ESP32 Systemen parallel.

HA wird natürlich auch automatisch mehrfach auf unabhängige Systeme gesichert sobald die Server angehen.

Aber instant Redundanz funktioniert z.b. per Sensor Direktzugriff über kleine Panels auf Schalter / Steckdosen / Heizung / Garagentore / Rollläden mach ich mal auch noch Dadurch dass alles die gleichen Sensoren nutzen synchronisiert sich das auch von alleine

Das zumindest für uns im Haus bequem und Backup zugleich und wird auch an manchen Stellen "ständig" genutzt. Selbst wenn HA - oder dier Infrastruktur um den HA Server herum - komplett ausfällt und nicht gleich gefixt werden kann hat man Basisfunktionen - und das finde ich am Wichtigsten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GiggideGig und madmax2010
Uzer1510 schrieb:
kann hat man Basisfunktionen - und das finde ich am Wichtigsten.
+1
ich habe hier ein handy liegen, dass bookmarks auf alle Shelly / Tasmota und ESPs hat um nackt darauf zuzugreifen.
Dazu je soweit es geht noch kleine Apps die die geraete automatisch finden
 
Ich nutze dafür so Multicolor Buttons die gibt es ja günstig auf ali sogar mit rgb Dann kann man sich auch den Status anzeigen lassen z.b. hier Blau = heizung aus rot = an

Raum Temperaturregelung erfolgt bei uns jetzt über die Heizungsanlage da war mein Heizungsbauer eher semi begeistert :stock: als ich so nebenbei sagte ich regel das über das Thermostat / Gradtemp :D :D seither nutze ich einfach Ventilstellung + Raumzieltemp pro Heizkreis - weil die Heizung selber ganz viel sonst permanent nachregelt wegen ihrer eigenen Sensorik.

ESP32 c++ Platform.IO Sachen lass ich inzwischen meist zu 90% AI machen einfach weil die ausreichend gut darin ist. Das coole ist halt die AI ist so gut inzwischen, dass ich sag so implementier mal Gerät XY mit den Statusfarben => ich kann über die Weboberfläche den Buttons dann eine Funktion zuweisen. Ohne dass ich in Datenblättern für API etc kramen muss.

Aber finde ein "Backup" von HA ist halt für mich vor allem Redundanz und der Weiterbetrieb - und Buttons sind einfach super bequem.

Hehe Jo Fotolinse muss ich glaub mal wieder reinigen xD
 

Anhänge

  • 20260219_025130.jpg
    20260219_025130.jpg
    375,3 KB · Aufrufe: 38
  • 20260219_025116.jpg
    20260219_025116.jpg
    259,6 KB · Aufrufe: 38
  • 1771467143143.png
    1771467143143.png
    56 KB · Aufrufe: 35
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Col. Jessep, xammu und madmax2010
Hmm allerdings gilt halt das Backup muss auch jemand dann zeitnah einspielen.

Das kommt halt dann drauf an ob der TE immer dann daheim ist wenn das andere nutzen wollen und das nicht geht - z.b. weil der HA Server durch ist oder spinnt etc.
 
HA halte ich für Overkill. Es ist bei mir nichts was so wichtig ist, dass es nicht mal ein paar Tage ausfallen kann.

Der Wegfall vom Nextcloud wäre nervig weil mein Passworttresor dann nur noch lokal gecached und nicht mehr synchronisiert wäre, aber auch das kann kurzzeitig auf z.B. OneDrive umgelagert werden.
Mein privater Kalender läuft da auch drüber, aber auch das ist nervig, nicht tödlich.

Das nervigste wäre das Einspielen der Backups, aber ich bin so oder so nicht bereit, in ausreichend redundanten Storage zu investieren bei den Preisen für SSDs. Raid 0 (2x Micron 5210 ION 7,68TB) und mehrere Ebenen an Backups auf HDD muss reichen :D
 
Zurück
Oben