Home Server - Überlegung

myaccount

Cadet 4th Year
Registriert
Juli 2012
Beiträge
99
Hallo,

und stelle erstmal ein paar Überlegungen an (bzw versuche laut zu denken),
welche Hardware es sich lohnt, und ob es sich lohnt alles davon zu Hause zu selber zu hosten oder auf einem Cloud vServer (mieten).

Vielleicht könnt ihr ja mit laut denken :-)


Ich wollte mir einen HomeServer zusammenbauen, für folgende UseCases (später kommen sicher noch weitere):

Bereitstellen von Videos und Fotos für meine Devices (PC, Handy, TV, ...)
Docker Container
Confluence
Grafana
Datenbanken (PostgreSQL/MySQL)
Dev (Java, Nginx, Spring)
Regelmäßige Backup Cronjobs (z.B. verteilt in OneDrive, GoogleDrive, DropBox)
Home Automation
VPN
NAS


Ok, es gibt jetzt verschiedene Möglichkeiten:
a) man baut sich einen Server zu Hause, z.B. in einem kleinem Rack oder TowerGehäuse
b) man mietet sich einen vServer z.B. bei Hetzner
c) gemischt, einige Sachen zu Hause, einige in Cloud gemietet


Die Kosten-Überlegung ist folgende:

Wenn ich mir die Mietpreise bei Hetzner anschaue ( https://www.hetzner.com/de/cloud ),
da sieht man, dass schon für ca. 19€/Monat einen CX41 (4 CPU Kerne, 16 GB Ram, 160 GB SSD) bekommt.

Wenn ich mir zu Hause die gleiche Maschine bauen würde (Anschaffungspreis für Hardware erstmal aussenvor lassen),
sondern nur auf die Stromkosten schauen (0,26€/kWh), würde das bedeuten, dass mein Server zu Hause maximal 100 Watt sein dürfte,
um die Kosten von 19€/Monat nicht übersteigen. Dazu kommt aber evtl noch Wartung von Komponenten, etc.

So, die nächste Frage ist, ob man diese Leistung für 100W sich zusammenbauen kann zu Hause, wird schwierig.
Was würdet ihr machen ?

Und ob ungefähr diese Ressourcen für oben aufgezählte UseCases ausreichen würde.

Für privaten Server spricht natürlich, dass man die Maschine auch nicht für alle diese UseCases 24h laufen lassen muss,
sondern nur bei Bedarf einschalten, dann wären die Stromkostne kleiner.

Wobei z.B. für NAS, HomeAutomation, Grafana, Confluence, Backups, die immer verfügbar sein sollten.

Meine nächste Überlegung wäre also, ob man einige von diesen UseCases auslagern könnte, z.B. auf einen RasperyPi, der im Schnitt mit 5 Watt dabei wäre.
Für NAS und Backup sich eine fertige Station wie Synology ds218+ holt mit Stromverbrauch im Schnitt 10 Watt.

Dann könnte man für ein paar restlichen Sachen einen viel kleineren Server bauen oder mieten.

Der enthusiastischer Reiz ist natürlich da, das alles selber zu Hause zu bauen, aber es geht mir in erster Linie um sinnvolle Umsetzung.

Was haltet ihr davon und wie macht ihr das ?
 
"Bereitstellen von Videos und Fotos für meine Devices"

das sehe ich als den Knackpunkt hier reden wir wahrscheinlich über TB oder? Un nun schau mal was wenige TB bei Hetzner kosten- mit den 160gb ssd kommst da nicht weit.

Wenn du keinen Speicher brauchst (keine Filme und Fotos dort speichern willst) ist Hetzner bestimmt günstiger.

Ich selbst hab seit fast 20 Jahren einen privaten Server - der einzige Grund ist, das da ca 15-20TB Filme und Fotos drauf sind. Da läuft einfach 'Windows drauf - das war am Ende das Einfachste da ich mit remote Desktop sehr leicht drauf kann.
Es läuft Kodi drauf und er ist direklt am Fernseher (steht dahinter) angeschloassen. Ein paar Dienste - Spielereien und Docker läuft auch drauf. ICh denke nur wegen der vielen _Datenm ist es günstiger als gehostet.
 
Schaue Dir mal die "Lenovo Think Centre Tiny" oder "Dell OptiPlex Micro" Modelle an. Habe hier nen Think Centre M700 mit ner I5-6500T CPU + 16GB Ram am laufen und der zieht unter ESXI mit 3 aktiven VMs im Idle unter 10W. Gleiches für den OptiPlex 3050 Micro hier neben mir. Neuere modelle sollten im Idle noch sparsamer sein. Man kann bei beiden jeweils ein 2,5" Laufwerk und ne NVMe SSD verbauen. Den Rest ggf. in ein NAS auslagern. Die Kisten gibt es teilweise für ~100€. Mit Windows als Host-OS liegen die Kisten bei ~7W im Idle. Soll ESXI eingesetzt werden auf die NIC achten. Lenovo verbaut gerne Intel NICs und somit laufen die ohne gebastel selbst unter ESXi 7 problemlos. Dell verbaut meist Realtek.
 
Klingt für mich nach vielen Sachen die ich durchaus trennen würde.
VPN über eine Raspberry-Pi 4, der kann entspannt 24/7 laufen, ohne die Stromrechnung nennenswert zu beeinflussen. Home Automation kannst du da dann auch gleich laufen lassen.
Ich denke es ist blöd, wenn du dein Licht Nachts nicht mehr ausschalten kannst weil dein Hetzner Server gerade Probleme hat.
 
Die 160GB vom Hetzner Server sind nichts, da werden Zusatzkosten auf dich hinzu kommen. Die verlinkte Seite bietet erstmal nur SSD-Speicher für 50€/TB monatlich an.

Ein Backup deiner Daten ist bei 19€ auch nicht bei, das kostet nochmal 20% auf den Paketpreis drauf.

Würde ich meinen Heimserver mit 4 CPU-Kernen, 32GB RAM und 3,5TB Nutzdaten in die Cloud verlegen wollen würde mich das bei Hetzner inkl. Backups 240€/Monat kosten.
Aber mit 20TB Traffic und winzigem aber schnellem Speicherplatz sind die Server auch eher darauf ausgelegt, Websites zu hosten...

myaccount schrieb:
So, die nächste Frage ist, ob man diese Leistung für 100W sich zusammenbauen kann zu Hause, wird schwierig.
Das wird extrem einfach. Ich habe die Hardware vom alten Gaming-PC übernommen -> core i5-6600 auf MSI H170 PC Mate, das braucht ~30W im Idle und ein Heimserver ist zu 95% der Zeit nur im Idle. Kosten waren 0 weil ich (abgesehen von den Festplatten) vorhandene Hardware genommen hatte.

(Gut, die hätte ich gebraucht verkaufen können, aber...)

myaccount schrieb:
Meine nächste Überlegung wäre also, ob man einige von diesen UseCases auslagern könnte, z.B. auf einen RasperyPi, der im Schnitt mit 5 Watt dabei wäre.
Für NAS und Backup sich eine fertige Station wie Synology ds218+ holt mit Stromverbrauch im Schnitt 10 Watt.
Zu viele kleine Verbraucher und du verbrätst wieder viel Energie. Ich würde einen Hypervisor aufsetzen und dann die Dienste auf verschiedene VMs zerhackstückseln.
 
  • Gefällt mir
Reaktionen: Towatai
myaccount schrieb:
Bereitstellen von Videos und Fotos für meine Devices (PC, Handy, TV, ...)
NAS

Spricht fuer einen Heimserver.

Wenn ich mir die Mietpreise bei Hetzner anschaue ( https://www.hetzner.com/de/cloud ),
da sieht man, dass schon für ca. 19€/Monat einen CX41 (4 CPU Kerne, 16 GB Ram, 160 GB SSD) bekommt.
...
So, die nächste Frage ist, ob man diese Leistung für 100W sich zusammenbauen kann zu Hause, wird schwierig.

Sehe ich nicht als schwierig an. Ist natuerlich eine Frage, wieviel Last Du auf dem Server machst, aber ein System mit einem Core i3-9100 sollte mit <20W ohne Last laufen und mit Last vielleicht 100W erreichen, wenn's hoch kommt. Und wenn der Fernserver Deine Anforderungen nicht oder nur langsam erfuellen kann (und das vermute ich), ist er kein relevanter Vergleich.

Und ob ungefähr diese Ressourcen für oben aufgezählte UseCases ausreichen würde.

Mir sagen Deine Anwendungen nicht alle was, aber tendentiell wuerde ich zu mehr RAM greifen. Wir haben hier eine Maschine mit ein paar Docker-Containern, da sind im Moment 80GB/128GB belegt; wobei, als die Maschine noch 32GB hatte, hat sie auch funktioniert, auch wenn's da immer nach vollem Speicher ausgeschaut hat.
 
Wie gesagt, wenn du etwas vergleichbares 4 Kerne, 160 GB SSD wie bei Hetzner nimmst kommst du nicht mal annähernd an 100 Wh im 24h Durchschnitt. Wenn du vergleichst, muss es auch vergleichbar sein. Und wenn du dann ordentlich Speicher nimmst bleibt Hetzner erstmal teurer. Du scheinst aber eher einen voll ausgerüsteten Server mit dem abgespeckten vonHetzner zu vergleichen, aber das hinkt.
 
Ok, dann versuche ich ein bisschen genauer zu werden, da hier es auch gespaltene Meinungen gibt:

dermoritz schrieb:
"Bereitstellen von Videos und Fotos für meine Devices"

das sehe ich als den Knackpunkt hier reden wir wahrscheinlich über TB oder? Un nun schau mal was wenige TB bei Hetzner kosten- mit den 160gb ssd kommst da nicht weit.
Aktuell habe ich ca. 5 TB (aber gehen wir zukünftig von 10 TB aus).
Das ist klar, bei Hetzner wäre, was diese Menge der Daten angeht zu teuer, deswegen war die meine Idee als Hybrid-Lösung, diesen Teil lokal zu haben, sprich separates NAS-Gerät zu Hause, z.B. Synology ds218+

Rickmer schrieb:
Ein Backup deiner Daten ist bei 19€ auch nicht bei, das kostet nochmal 20% auf den Paketpreis drauf.
Von diesen 5 TB sind vielleicht nur 100 GB an Daten relevant, die ich sichern muss, der Rest ist Optional.
diese 100 GB könnte ich dann z.B. durch Cronjobs rotierend in OneDrive(1TB)/GoogleDrive sichern.


ZuseZ3 schrieb:
VPN über eine Raspberry-Pi 4, der kann entspannt 24/7 laufen, ohne die Stromrechnung nennenswert zu beeinflussen. Home Automation kannst du da dann auch gleich laufen lassen.
Das wäre auch meine Idee, vor allem wäre es sogar gut, dass es unabhängig von dem Rest ist, wenn man andere Sachen restarten muss oder sonstiges. Dann würde VPN und HomeAutomation nicht darunter leiden.

Towatai schrieb:
Schaue Dir mal die "Lenovo Think Centre Tiny" oder "Dell OptiPlex Micro" Modelle an. Habe hier nen Think Centre M700 mit ner I5-6500T CPU + 16GB Ram am laufen und der zieht unter ESXI mit 3 aktiven VMs im Idle unter 10W. Gleiches für den OptiPlex 3050 Micro hier neben mir.
Hört sich auch interessant an, was lässt du denn auf diesen VMs laufen ? Stelle es mir wirklich sehr langsam vor, wenn alle aktiv sind.

mae schrieb:
Mir sagen Deine Anwendungen nicht alle was, aber tendentiell wuerde ich zu mehr RAM greifen. Wir haben hier eine Maschine mit ein paar Docker-Containern, da sind im Moment 80GB/128GB belegt; wobei, als die Maschine noch 32GB hatte, hat sie auch funktioniert, auch wenn's da immer nach vollem Speicher ausgeschaut hat.
Was hast du denn alles für Docker-Container da laufen ? Damit ich ungefähr bei mir die Ressourcen abschätzen kann.


Wenn ich das alles jetzt kurz zusammenfasse, anhand der bisherigen Kommentaren im Schnitt.
Würde ich echt dann besser auf einen HomeServer, anstatt von vHost (z.B. Hetzner) setzen.
Das wäre mir sogar lieber, wegen Bastellspass und mehr Kontrolle.

Die Fragen, die also noch offen sind, unterteile ich lieber alles in separate Geräte, wie z.B.:
- Bereitstellen der Daten -> NAS: Synology
- HomeAutomation -> RasperyPi
- VMs / Docker -> Tower/Rack-Server
- usw.
oder doch dann lieber alles in einen Server packen und dann sowas wie Unraid oder ähnliches laufen lassen.
 
myaccount schrieb:
Was hast du denn alles für Docker-Container da laufen ? Damit ich ungefähr bei mir die Ressourcen abschätzen kann.

Gitlab und Jitsi. Wobei Gitlab offenbar den Loewenanteil ausmacht.

Die Fragen, die also noch offen sind, unterteile ich lieber alles in separate Geräte, wie z.B.:
- Bereitstellen der Daten -> NAS: Synology
- HomeAutomation -> RasperyPi
- VMs / Docker -> Tower/Rack-Server
- usw.
oder doch dann lieber alles in einen Server packen und dann sowas wie Unraid oder ähnliches laufen lassen.

Ich wuerde eher einen Server machen, wenn's nicht gute Gruende fuer eine Aufteilung gibt (z.B. weil Du Dich nicht mit der NAS-Software auseinandersetzen willst).
 
mae schrieb:
Gitlab und Jitsi. Wobei Gitlab offenbar den Loewenanteil ausmacht.



Ich wuerde eher einen Server machen, wenn's nicht gute Gruende fuer eine Aufteilung gibt (z.B. weil Du Dich nicht mit der NAS-Software auseinandersetzen willst).

Welches Host-Betriebsystem auf dem Server verwendet ihr denn für Docker-Container ?

Und was spricht denn für einen "alles unter einem Dach" Server ?
(mit NAS Software kann ich mich gerne auseinander setzen, das wäre nicht das Problem)

Meine Einschätzung ist:
Pro
  • Stromverbrauch, nur ein Netzteil
  • Platzersparnis
Contra
  • Erweiterbarkeit schwieriger, z.B. wenn ich später die Anzahl der HDDs erhöhen muss, aber kein Platz im Gehäuse mehr zur Verfügung steht.
  • Wenn die Ressourcen für einen der UseCases nicht mehr ausreichen, muss ich die Hardware wechseln und so wären andere auch betroffen
  • Wie oben beschrieben, wenn irgendwas nicht läuft und System-Restarts erforderlich sind, dann sind alle Dienste betroffen, auch HomeAutomation unter anderem
 
Zuletzt bearbeitet:
Für so eine Hybridlösung (Daten zu Hause, Dienste in der Cloud) muss man auch bedenken, dass man eine entsprechende Internetverbindung braucht, wenn häufig große Mengen hin und hergeschoben werden sollen. Das ganze würde man dann natürlich über ein VPN Netzwerk lösen. (z.B. Wireguard, das ohne zentralen Server auskommt)

Bei einem Heimnetzwerk finde ich SnapRaid sehr interessant. Du kannst es ständig mit einzelnen Festplatten erweitern. Es ist egal wie groß die angeschlossenen Festplatten sind und sollte eine Festplatte ausfallen, sind nur die Daten, die auf dieser Festplatte waren weg.

Ansonsten unterschätzt du die aktuelle Lage der Virtualisierung wohl ein wenig. Ich würde selbst im Heimnetzwerkbereich auch darauf setzen, da man so einfach viel flexibler ist. Selbst auf einer ausrangierten Workstation mit halbwegs aktueller CPU laufen problemlos zig VMs mit ein paar % Leistungseinbußen. Hier würde ich in dem Zuge auch noch Proxmox erwähnen, da es eine OpenSource-Lösung für KVM Virtualisierung mit Enterprise-Niveau ist.
 
myaccount schrieb:
Welches Host-Betriebsystem auf dem Server verwendet ihr denn für Docker-Container ?

Debian 10.

Contra
  • Erweiterbarkeit schwieriger, z.B. wenn ich später die Anzahl der HDDs erhöhen muss, aber kein Platz im Gehäuse mehr zur Verfügung steht.
  • Wenn die Ressourcen für einen der UseCases nicht mehr ausreichen, muss ich die Hardware wechseln und so wären andere auch betroffen
  • Wie oben beschrieben, wenn irgendwas nicht läuft und System-Restarts erforderlich sind, dann sind alle Dienste betroffen, auch HomeAutomation unter anderem

  • Erweiterbarkeit: Das gleiche potentielle Problem hast Du auch bei separierten Geraeten.
  • Hardwarewechsel: Da ist was dran. Ist halt die Frage, wie oft das passiert, und ob Du deshalb die Nachteile der Aufteilung in Kauf nehmen willst.
  • Unabhaengigkeit der Dienste: Wenn bei uns der File server (NAS) steht, steht mehr oder weniger alles, also so unabhaengig sind die Dienste nicht voneinander. System-Restarts, weil ein Dienst nicht laeuft, gibt es nicht, da wird der Dienst neu gestartet, und gut ist's. Das machen wir auch ohne Docker, und mit Docker sind die Dienste noch staerker voneinander isoliert. Wenn sich die Maschine aufhaengt, hilft das natuerlich alles nichts, aber wenn alles auf einer Maschine ist, merkst Du es wenigstens gleich und hast alles mit einem Neustart erledigt, statt erst schauen zu muessen, wo das Problem ist. Andererseits, gegen sowas kannst Du Dich mit einem Watchdog absichern (bzw. einem pro Server bei mehreren Servern), machen wir aber nicht.

Trotz allem haben wir letztens wieder einen separaten File Server (NAS) gebaut, was vor allem daran liegt, dass auf dem File Server nur der Sysadmin einloggen darf, und auf anderen Servern diverse Leute. Und auch an der bestehenden Infrastruktur: Wir hatten vorher einen File Server, der ist eingegangen, also haben wir ihn durch einen File Server ersetzt, statt alles umzuorganisieren.
 
Zuletzt bearbeitet:
myaccount schrieb:
Erweiterbarkeit schwieriger, z.B. wenn ich später die Anzahl der HDDs erhöhen muss, aber kein Platz im Gehäuse mehr zur Verfügung steht.
Da liegt es an dir, von vorn herein für genügend Platz zu sorgen, im Gehäuse sowie groß genügende HDDs zu besorgen, das ist auch bei einem NAS nichts anderes.
myaccount schrieb:
Wenn die Ressourcen für einen der UseCases nicht mehr ausreichen, muss ich die Hardware wechseln und so wären andere auch betroffen
Ich kenne deine Programme jetzt nicht, aber für NAS, Heimautomation, VPN reicht eine Kartoffel ala RPi 3B ohne das sich dieser groß anstrengen muss (Ich gehe hier von privatem Nutzen aus, mit wenigen gleichzeitigen Nutzern). Was den Rest angeht, teste es in deinem aktuellen System in einer VM anhand dessen müsstest du ein Gefühl für kriegen. Im Idealfall hast du am Ende ein System was du die nächsten >5Jahre nicht mehr verändern musst.
myaccount schrieb:
Wie oben beschrieben, wenn irgendwas nicht läuft und System-Restarts erforderlich sind, dann sind alle Dienste betroffen, auch HomeAutomation unter anderem
Im Idealfall musst du dein Host-System nur ganz selten zu selbst gewählten Zeiten updaten/neustarten, die einzelnen Dienste laufen auf ihren jeweiligen VMs/Docker Containern und können darüber beliebig oft neu gestartet werden ohne das der Rest betroffen ist.
 
myaccount schrieb:
Contra
  • Erweiterbarkeit schwieriger, z.B. wenn ich später die Anzahl der HDDs erhöhen muss, aber kein Platz im Gehäuse mehr zur Verfügung steht.
  • Wenn die Ressourcen für einen der UseCases nicht mehr ausreichen, muss ich die Hardware wechseln und so wären andere auch betroffen
  • Wie oben beschrieben, wenn irgendwas nicht läuft und System-Restarts erforderlich sind, dann sind alle Dienste betroffen, auch HomeAutomation unter anderem

Ich war da vor 2-3 Jahren auch echt skeptisch, aber auf meinem Raspberry 3 laufen aktuell 5 Docker Container (Iobroker, Homebridge, Filezilla, Unifi Controller, Wireguard). Das läuft alles performant, wird jeden Abend gesichert und hat die Stromkosten (vorher lief ein Dell T20 24/7) gesenkt.
Für höhere Verfügbarkeit ginge sogar ein Kubernetes Cluster mit 2 Raspberries, das wird vermutlich mein Oster Projekt wenn Familie etwas Zeit überlässt...
Daten liegen noch per Xpenology auf dem Dell, den schalte ich aber nur noch per WoL an wenn wir wirklich mal etwas davon benötigen und das wird aufgrund der ganzen Streamingdienste/OneDrive immer weniger...
 
Bin auch gerade an einem ähnlichen Projekt am planen bei mir zuhause.

Überlegung ist :
Synology DS218+ wegen leistungsmangel weg.
Kleinen Server (ITX) hin.
Zwei Netzwerkkarten
Proxmox als Host
Dann VMs für Firewall, Storage und nen Linux Desktop
Docker über Protainer für UNIFI, Pihole, Bitwarden, etc.

Kann nur nicht klar abschätzen wie viele Kerne die Kiste haben sollte. RAM kostet im Vergleich nichts und kann ruhig ordentlich vorhanden sein.

Die Überlegung war bei mir auch ob ich ein Teil auslagere. Hier wäre auch das Hin und her rechnen zwecks Anschaffungskosten und Unterhaltskosten im Vergleich zu einem Mietpreis für nen Cloud Server oder dergleichen.
 
Zurück
Oben