Neuer Netzwerkspeicher - Kaufberatung

Neuralgia

Cadet 1st Year
Registriert
März 2016
Beiträge
14
Guten Morgen in die Runde,

ich spiele schon seit geraumer Zeit mit dem Gedanken die vorhandene QNAP durch eine potentere Lösung zu ersetzen, dies soll nun endgültig in die Tat umgesetzt werden.

Ausgangssituation:
Vohranden ist eine QNAP TS-230 mit 2x 12 TB HDD. Auf der QNAP laufen Plex, und inzwischen auch 2-3 Docker Container.
Die HDDs sind im Raid 1.

Problem:
Bedingt durch Plex und die Docker Container torkelt die kleine QNAP eher als dass sie vernünftig läuft, der kleine ARM stößt hier recht schnell an seine Grenzen.

Vorstellung:
Perspektevisch soll die neue Lösung mindestens platz für 4 HDDs bieten, der Plan ist die vorhandenen 2 Festplatten vorerst zu übernehmen, und irgendwann später dann von RAID1 auf RAID5 mit 4 HDDs umzusteigen.

Der Bedarf an Ressourcen ist imho. eher im überschaubaren bereich, konkret soll die neue Lösung Docker Container bereitstellen, konkret JellyFin, PiHole, Passwortserver, UniFi Controller, ... Videotranskodierung wird nicht benötigt.

Ich habe nun nach einiger Recherche drei potenzielle Lösungsansätze und bin mir etwas unsicher welcher nun für meinen Bedarf die sinnvollste Lösung darstellt.

Option 1) Neue QNAP/Synology mit Intel CPU kaufen -> Fertigbau, vermutlich die einfachste Lösung aber auch entsprechend kostenintensiv.

Option 2) NAS im Eigenbau -> Hier wäre vermutlich TrueNAS Core mein Mittel der wahl, obwohl ich natürlich für alle anderen Vorschläge offen bin :). Allerdings tue ich mir mit der Auswahl an Hardware relativ schwer...das Netz spuckt natürlich diverse Anfragen, Guides und co. mit ähnlichen Themen aus, allerdings weichen die Anforderungen da meistens doch stark von meinen ab.
Ein möglicher Vorschlag für die Hardware:
Board: https://geizhals.de/asrock-n100m-90-mxbk80-a0uayz-a2953079.html
RAM: https://geizhals.de/crucial-dimm-16gb-ct16g4dfra32a-a2326635.html
Gehäuse: https://geizhals.de/fractal-design-node-804-fd-ca-node-804-bl-w-a1087232.html
NT: https://geizhals.de/be-quiet-system-power-9-400w-atx-2-4-bn245-a1765560.html
Zusätzlich dann noch eine PCIE Erweiterungskarte für mehr S-ATA Ports und 2x SSDs als OS Speicher.
Hier wären die Fragen zum einen, ob die Konfiguration für meinen Bedarf überhaupt Sinn macht, oder schon over the Top ist, und insbeseondere ob das Netzteil die richtige Wahl ist, oder ob hier ggf. ein Pico Netzteil ausreichend ist?


Option 3) Altes NAS behalten, und alle Dienste (Docker-Container, Plex,etc.) auf Intel NUC auslagern, NAS fungiert dann als reines Datengrab.
Ich vermute das wäre, was die Kosten betrifft, die effizienteste Lösung, allerdings bin ich mir zum einen unsicher, weil RAID5 in diesem Szenario natürlich nicht realisierbar ist, außerdem wäre die Folgefrage welches OS auf dem Client/Server dann Sinn machen würde ?



Puh..bitte entschuldigt den nun doch etwas ausufernden Text, aber ich wollte nach Möglichkeit alle Gedankengänge die ich zum Thema habe unterbringen.

Vorab schonmal vielen Dank für etwaige Tipps, Hinweise, Ratschläge und co. und beste Grüße!
 
  • Gefällt mir
Reaktionen: Tr0nism
Neuralgia schrieb:
2x 12 TB HDD. Die HDDs sind im Raid 1.
Ist das die richtige Strategie? Nehmen wir an die QNAP macht das Dateisystem kaputt. Oder du führst einen Verschlüsselungstrojaner aus usw...

Sind die Daten dann weg? Wenn du dann doch noch ein Backup hast, wozu dann Raid 1?
 
aluis schrieb:
Ist das die richtige Strategie?

Danke erstmal für die Rückmeldung.

Ehrlich gesagt erschließt sich mir der Sinn deiner Frage nicht so ganz...letztlich geht es in allen nachfolgenden Zeilen ja darum dass genau dieses Konstrukt aufgelöst werden soll, ich war davon ausgegangen dass die Fragestellung impliziert, dass RAID 1 nicht die richtige bzw. sinnvollste Strategie ist.
 
  • Gefällt mir
Reaktionen: Tr0nism
Meine Fragestellung an dich ändert sich bei RAID5 nicht. Was ist denn dein Backupstrategie für dein NAS? Raid ist kein Backup. Da du gerade alles neu machen möchtest, würde ich mal drüber nachdenken.
 
  • Gefällt mir
Reaktionen: alexx_pcfreak
Guten Morgen,

ich würde auch eher auf die 3. Option mit 2 Geräten greifen.
Lass das NAS Datensachen machen und hol dir für deine Dienste irgendeinen kleinen gebrauchten Thinkcentre von Lenovo ein ML710 mit i3 und 16gb ram sowie einer SSD.
Ich nutze den für Smarthome und einige weitere Dienste über Docker und als wichtiges 2. Backup, was nur Leserechte hat.
 
Guten Morgen,

welches OS nutzt du denn für den Client, und womit verwaltest du deine Container?
Das wären bei dieser Variante ehrlich gesagt noch zwei Fragezeichen für mich.

Besten Dank :)

aluis schrieb:
Meine Fragestellung an dich ändert sich bei RAID5 nicht. Was ist denn dein Backupstrategie für dein NAS? Raid ist kein Backup. Da du gerade alles neu machen möchtest, würde ich mal drüber nachdenken.

Mir ist durchaus bewusst, dass Raid kein Backup ist. Alle wichtigen Daten liegen deshalb auf zwei externen Festplatten (zentral und dezentral), dennoch finde ich den Gedanken eine Parität zu haben, für den Fall eines HDD ausfalls, angenehm und peile deshalb RAID5 an.
 
Bei mir läuft inzwischen unraid auf einem "HomeServer" (Selbstbau NAS, lief vorher TrueNAS Core, dann Scale und nun unraid drauf und bin nun absolut zufrieden damit). Es ist so das Typ Datengrab mit unterschiedlichen Festplattengrößen + große Community für Apps & Docker und VMs (in meinem Fall Windows & Home Assistant) werden auch unterstützt.

Hardware ist bei mir ein i3 Gen8, 64 GB Ram ECC und eine paar m2 & HDDs (siehe Signatur). Für Plex achte auf eine CPU mit QuickSync - auch wenn du sagst transcoding ist nicht nötig - haben ist besser als brauchen.

Bei meiner Mutter habe ich ein DELL OptiPlex 7050 mit Proxmox für HomeAssistant, der macht die Backups der VM auf ein Synology Datengrab, wo auch meine wichtigen Daten hingesichert werden (via site 2 site VPN).
 
Zuletzt bearbeitet:
Neuralgia schrieb:
Problem:
Bedingt durch Plex und die Docker Container torkelt die kleine QNAP eher als dass sie vernünftig läuft, der kleine ARM stößt hier recht schnell an seine Grenzen.

Vorstellung:
Perspektevisch soll die neue Lösung mindestens platz für 4 HDDs bieten, der Plan ist die vorhandenen 2 Festplatten vorerst zu übernehmen, und irgendwann später dann von RAID1 auf RAID5 mit 4 HDDs umzusteigen.

Der Bedarf an Ressourcen ist imho. eher im überschaubaren bereich, konkret soll die neue Lösung Docker Container bereitstellen, konkret JellyFin, PiHole, Passwortserver, UniFi Controller, ... Videotranskodierung wird nicht benötigt.
Warum nicht NAS lassen und das alles auf einem NUC laufen lassen? So hast du eine Trennung und NAS muss keine 24/7 laufen, wenn nicht notwendig. Und auch bessere Performance.
 
Neuralgia schrieb:
Zusätzlich dann noch eine PCIE Erweiterungskarte für mehr S-ATA Ports und 2x SSDs als OS Speicher.
Also bei 2x SSD als OS Speicher (vermutlich auch als RAID1?) wäre TrueNAS bei mir raus und ich würde auf unraid setzen.
Da liegt die ganze config auf dem Stick und lässt sich easy sichern.
oicfar schrieb:
Warum nicht NAS lassen und das alles auf einem NUC laufen lassen?
Dafür würde sogar ein alter Pi 3B reichen.

Weitere alternative wäre ein altes Notebook aus so einem Deal:
https://www.mydealz.de/deals/lenovo...-usb-c-thunderbolt-refurbished-laptop-2260373
und dann das als ultra-low-power Hypervisor verwenden. Da bastel ich auch grade dran und bin bei ~8W Idle.
Wenn du ein NAS betreibst, brauchst du ja auch im Virtualisierungshost keine Unmengen an Storage Kapazität.

und bezüglich Backup, ich würde tatsächlich auch überlegen eine HDD aus dem NAS zu entfernen und z.B. am neuen Virtualisierungshost zu betreiben. Das RAID1 schützt dich quasi nur gegen Festplattenausfall.
Die QNAP Software evtl. noch per Versionierung gegen versehentliches Löschen/überschreiben.

Da hätte ich lieber ein sauberes Backup und würde dafür in Kauf nehmen, dass bei einem HDD Defekt das NAS mal 2 Tage nicht verfügbar ist.
Das UGreen 50422 leitet einen Spindown ein, wenn kein Zugriff auf die HDD besteht und ist damit ideal für offline-like Backups.
https://de.ugreen.com/products/ugre...usb-3-0-kabel-und-12v-2a-netzteil-werkzeuglos

EDIT:
Neuralgia schrieb:
und warum das riesige 804 für ATX Boards statt dem 304 für ITX?
 
Zuletzt bearbeitet:
So..erstmal vielen Dank für die ganzen Rückmeldungen.

Der weitere Fahrplan wäre jetzt dediziertes Blech als Server anzuschaffen, und die Docker-Dienste auf diesen auszulagern.
Frage: Diese Hardware https://www.ram-koenig.de/Lenovo-ThinkCentre-M720q-Tiny-PC-Core-i5-8400T-6x33GHz-8GB-PC4-256GB-Win11 sollte meinen Anforderungen doch souverän genügen, oder übersehe ich etwas?

Vermutlich werde ich im Zuge des Umzugs die QNAP auf RAID0 umbauen, und die Daten dann auf externe Festplatte(n) sichern.
 
Ein wenig mehr Speicher (RAM) "kann nicht schaden".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azghul0815
Mind. 32GB. Wenn man Linux kennt, dann weiß man, dass man mehr RAM geben sollte.
 
Linux auf meinen NUC mit 32GB freut sich:

Code:
$ free -m
               total        used        free      shared  buff/cache   available
Mem:           31704        6689        1601        2007       23413       22858
Swap:           4095           0        4095

aktuell ca. 23GB als Buffer/Cache. Drauf habe ich u.a. auch PostgreSQL 16 am Laufen, die bis 8GB haben kann. Insgesamt laufen die Tools, die drauf sind flüssig. Und das trotz Intel Pentium Silver J5005. Ich hatte den NUC die ersten Monate mit 8GB (max. laut Intel Seite) am Start. Ost swapping und nicht so flüssig. Und nun mit 32GB RAM ein Traum.

Ich hatte vor paar Monaten eine Linux Performance Analyse Schulung und erst dann habe ich verstanden, wieso mehr RAM vom Vorteil ist. Ich habe dadurch meine rsync Skripte Richtung NAS so umgebaut, dass ich mit den über Tage aufgebauten Cache nicht kaputt mache.
 
Bei der Mischung aus NAS und VMs macht mehr RAM immer sinn.

Meine Synology, die nur als NAS benutzt wird (VMs laufen bei mir auf Mini-Server) habe ich auch 2+16GB RAM.
 
@Azghul0815 es geht nicht darum, dass man den RAM mit den Tools ausnutzt. Bei mir (habe ich oben gepostet) werden von den 32GB ca. 7GB (Stand vorhin) von den Tools genutzt. Den Rest nimmt sich Linux für's Caching. Das ist der Vorteil von mehr RAM. Auch mit den 32GB habe ich 4GB Swap. Noch vor meiner Vertiefung in Linux Internals wurden ca. 500MB bis 1GB von Swap nach 1-2 Wochen genutzt. Das ist erstmal nicht schlimm. Nun sieht es anders aus. Auch wenn man viel RAM hat, bedeutet es nicht automatisch, dass es gut genutzt wird. Hier muss man sein System beobachten und schauen, welche Schrauben in Linux oder den Tools/Skripten man anpassen muss. Da bin ich noch dabei. Die ersten Anpassungen haben eine Verbesserung gebracht. Am Ende will ich, dass mein 24/7 flüssig läuft und dabei wenig Ressourcen verbraucht.

Ist eine kleine Erklärung. Weil man hier bei CB oft die Fragen sieht: "Wozu braucht man so viel RAM?".
 
  • Gefällt mir
Reaktionen: Azghul0815
Zurück
Oben