Linux als Homeserver/NAS

mi2g

Lieutenant
Registriert
Apr. 2003
Beiträge
1.021
Hallo zusammen

Aktuell betreibe ich mein Homeserver mit Windows Server 2016 und virtualisiere ein Debian 8 (inkl. OpenMediaVault 3). Dieses Linux ist mein "NAS" und nutze folgende Services in verschiedenen Docker Containern:
Plex
Plexpy / Tautulli
Nextcloud, MariaDB, Nginx, Proxy, Letsencrypt
Sickrage
NZBget
Jdownloader

Werde demnächst neue Hardware kaufen und alles neu installieren. Als Hypervisor werde ich Windows Server 2019 nutzen und anschliessend ein Linux virtualisieren und die WD RED Festplatten direkt passthrough an die VM weitergeben.

OpenMediaVault benötige ich eigentilch nicht mehr und bin somit auch nicht mehr auf Debian angewiesen. Im grossen und ganzen bin ich zufrieden mit Debian, bin aber auch offen für andere Linux Distributionen. Z.B. CentOS oder Ubuntu. Oder was würdet ihr mir empfehlen?

Beim Festplattenverbund bin ich noch nicht ganz sicher, ob es ein Linux Software RAID5 (mdadm) oder ZFS on Linux werden soll. ZFS mit all den Enterprise Features finde ich interessant, aber vielleicht auch ein wenig übertreiben für ein Homeserver. Was sind Eure Erfahrungen / Empfehlungen?

Danke vielmals.

Gruss
 
wozu eigentlich windows als hypervisor, wenn du sowieso nur linux nutzt? dann kannst du linux doch gleich bare metal laufen lassen?

selbst wenn die services in VMs laufen sollen, würde ich z.b. freenas nehmen, damit der storage pool auf zfs läuft. würde dir die systemplatte sparen, freenas installiert man i.d.r. auf nen usb stick.
 
Ich verwende zu 90% in Linux VMs Debian. Das läuft stabil, die Paketauswahl ist ausreichend. Ist aber eine Geschmackssache und was man mal gelernt hat. Ich "kann" halt Debian und sehe keinen Grund auf CentOS umzusteigen.

In meinem NAS benutze ich ZFS, aber auf FreeBSD. ZFS ist schon sehr schön, aber hat einige Eigenheiten und Limitationen, die man sich vorher bewusst machen sollte. Beispielsweise skaliert die Geschwindigkeit deiner NAS ziemlich direkt mit mehr RAM. Am besten sollte man ZFS mal in einer VM ausgiebig testen, bevor man dem echte Dateien anvertraut.
 
Ich versteh das mit der VM auch nicht, würde das lieber nativ laufen lassen. FreeNAS ist noch ein wenig leistungsfähiger als OMV - aber Achtung: Mindestens 8 Gigabyte Arbeitsspeicher (besser mehr) erforderlich.

https://freenas.org/hardware-requirements/

Bei den geringen Preisen von kleinen SSDs würde ich aber eher auf eine SSD als Systemplatte setzen (wie dort empfohlen).
 
Neben meinem "NAS" habe ich noch andere VM's welche ich benötige. Z.B. eine Sophos Firewall als Virtual Appliance. Und zwei - drei Test VM's. Dies ist der Grund, dass ich ein Hypervisor benötige.
Bei Windows habe ich eine bessere Kompatibität als mit VMware ESXi. Und Windows Server 2019 soll auch gleich der Jumphost sein. Lizenz habe ich übrig von meinem MSDN Account.

Das ZFS relativ Memory-hungrig ist, habe ich auch schon mitbekommen. Also 8GB für ZFS und noch ein wenig Overhead für OS und meine Services. Also mit 16GB sollte das anständig laufen?
 
Hier geht's gar nicht, ob Du einen Hypervisor brauchst, aber Windows als Unterbau für echte Serversoftware?
Da macht man sich einen Proxmox drauf, aber doch kein Software-as-a-Shit-OS.
 
@TechX
Das stimmt nicht. Ich benutze kein HyperV, aber habe es getestet. Windows Server und HyperV sind durchaus ausgereifte Systeme.
Gerade dein Gegenbeispiel Proxmox ist "nur" ein Frontend für Debian.
 
Klar basiert Proxmox auf Debian - deshalb ist, deiner Meinung nach, ein Debianunterbau schlechter als ein Windowsunterbau, damit man virtualisierte Linux-Maschinen laufen lässt?

HyperV als produktive Virtualisierungslösung würd ich mir nicht ans Bein binden lassen.
 
Ich habe nie behauptet, dass ein Debianunterbau schlechter sei. Ganz im Gegenteil würde ich ebenfalls Proxmox verwenden. Alleine schon aufgrund von ZFS. Proxmox ist auch nicht mehr als ein Klicki-Bunti für KVM.

Aber die Aussage, dass HyperV als Hypervisor schlechter sei als KVM ist quatsch. Und ein deutlich größere Anzahl an Unternehmen hat sich HyperV anstatt Proxmox "ans Bein gebunden". In einer Produktivumgebung zählen dann doch noch andere Werte als ein pauschales "Software-as-a-Shit-OS".

Wenn er HyperV bereits verwendet und es beherrscht, gibt es keinen Grund umzusteigen.
 
memmex schrieb:
Ich habe nie behauptet, dass ein Debianunterbau schlechter sei. Ganz im Gegenteil würde ich ebenfalls Proxmox verwenden. Alleine schon aufgrund von ZFS. Proxmox ist auch nicht mehr als ein Klicki-Bunti für KVM.

Aber die Aussage, dass HyperV als Hypervisor schlechter sei als KVM ist quatsch. Und ein deutlich größere Anzahl an Unternehmen hat sich HyperV anstatt Proxmox "ans Bein gebunden". In einer Produktivumgebung zählen dann doch noch andere Werte als ein pauschales "Software-as-a-Shit-OS".

Wenn er HyperV bereits verwendet und es beherrscht, gibt es keinen Grund umzusteigen.

Seh ich auch so.

Gestern habe ich noch einige Guides zu ZFS gelesen und unter anderem auch die Aussage gesehen, dass 8GB RAM minimum ist und pro TB Speichplatz man 1GB Memory hinzufügen sollte.
Ich werde 3x 8TB Harddisks verbauen. Gilt diese Regel für den RAW oder Usable Space? Würde bei mir bedeuten.
RAW: 32GB RAM (nur für ZFS)
oder
Usable: 24GB RAM (nur für ZFS)

Ist schon ne Hausnummer für einen "Homeserver". :-) Werde wohl ein gewöhnliches Software RAID5 mit ext4 einsetzen.
 
ZFS ist vorallem erstmal für Produktivumgebungen in Firmen und Rechenzentren gedacht. Die Memoryanforderungen sind daher auch für diese Zielgruppe formuliert und müssen "zu Hause" nicht eins zu eins umgesetzt werden.
Vorausgeschickt stimmt, dass je mehr RAM du hast, desto schneller läuft das Dateisystem. ZFS verwendet RAM zum Cachen von Dateien und je mehr RAM zur Verfügung steht, desto mehr Dateien lassen sich cachen.
Ein stabiles System wirst du bereits mit 8 GB RAM erreichen, aber von der 1TB ~ 1GB RAM kann man dann abweichen. Ich verwalte bei mir beispielsweise ~75TB mit 32GB RAM. Davon sind ein relevanter Teil Medien, die mehrere GB groß sind. Ein RAM-Cache macht für sie keinen Sinn, da auf sie meist nur einmal sequentiell zugegriffen wird. Hast du aber eine Datenbank auf einem ZFS-Dateisystem, die in den RAM passt, kann die Geschwindigkeit deutlich gesteigert werden.
Der RAM, oder sogar noch mehr, wird auf jeden Fall benötigt, falls man Deduplication verwendet. Das würde ich niemandem empfehlen
 
memmex schrieb:
In einer Produktivumgebung zählen dann doch noch andere Werte
Unstrittig - und dann ist man idR mit VMWare o. Citrix gut bedient.

W unter L zu virtualisieren - jederzeit, andersrum höchstens als Labor.
 
Zurück
Oben