News QNAP TS-332X: 10-Gigabit-NAS für 3 HDDs und 3 M.2-SSDs

Die FritzBox kann quasi gar nichts was ein brauchbares NAS ausmacht. Ein USB Gerät im Netzwerk ist noch meilenweit von den Featuresets der etablierten Hersteller entfernt.
Und da geht’s nicht nur um Software, CPU und Performance. Sondern auch um die Hardware.
Das ist nicht einfach nur irgendein Gehäuse, ein paar einschübe für Festplatten und ein Netzteil.
Und auch die Software ist nicht einfach nur irgendein Linux mit ein paar installierten Paketen.
Die anderen Hersteller haben da auch große Teams mit vielen Jahren Erfahrung hinter stehen.
Wenn’s so einfach wäre, würde sich hier im Forum niemand ein fertig NAS kaufen.
AVM soll bei halbwegs ordentlichen Routern bleiben. Das können sie gut.
 
  • Gefällt mir
Reaktionen: Mcr-King und CS74ES
Wattwanderer schrieb:
Kennst du denn so potente SOCs die passiv gekühlt werden können?

Pentium Silver und Pentium Gold
Aber selbst Microsoft kühlt im Surface Pro 2017 eine Intel Core i5-7300U passiv, dann erwarte ich das man das im Gehäuse mit mehr Volumen erst Recht kann. Zumindest wenn man die TDP konfigurieren kann. Indem der NAS Hersteller den Turbo reduziert oder die IGP runtertaktet.

Einen NUC mit i5-5300U kühle ich auch passiv, verbaut ist sogar ne M.2 NVME SSD und die Maschine läuft 10h+ am Tag bei 50% Last.

unRAID, FreeNAS, OpenMediaVault etc. alles ist leider noch eine Bastellösung für Leute die da Bock drauf haben, leider läuft das QNAP OS einfach perfekt. Nur die Hardware gefällt mir seit Jahren nicht mehr.
 
Zuletzt bearbeitet:
Schön, dass es mit 10 Gbit langsam vorwärts geht, jetzt noch von Synology mit 2x4 TB für ~400 Euro und ich würde überlegen
 
  • Gefällt mir
Reaktionen: Kleiner69
@AlanK

Haben sie wirklich genug Wumms um 10 GBE durchzuschieben?

Meinem i5-5xxx NUC würde ich das nicht zutrauen und hier kursierte ja eine Zahl von um 8 GBIT/s mit einem ausgewachsenen Xeon.

Mein 3 GHz i5-8xxx stemmt 10 GBE auch nicht immer.
 
Zuletzt bearbeitet:
hroessler schrieb:
Schön, dass sich endlich in der Richtung was tut und 10 GBit im Consumerbereich Einzug hält. Fehlen nur noch die (preislich) passenden Switches dafür :)

greetz
hroessler
Das ist eine widersprüchliche Aussage. Abgesehen von der fast völligen Absenz von 10G LAN auf
Consumerboards unter 150€ und im herkömmlichen Discounter PC. Auch werden die meisten keine
10G fähigen LAN Kabel zuhause haben. Abgesehen davon, dass man wie erwähnt einen sauteuren
10G Switch braucht. Und dann noch die Antwort auf die Frage, was man so dringend mit mehr als
120Mb/s regelmäßig aufs NAS beamen muss dass sich der massive Aufpreis rentiert.
Teaming ist eigentlich näher an der Praxis als 10G. Das übrigens außerhalb von Fileservern auch
in der Industrie (ich arbeite im Industrie PC Vertrieb) noch weit weg von Standard ist. 9 von 10
Switchen die wir verkaufen, haben 100 oder 1000Mbits, ganz einfach weil man abgesehen von
großen Datenmengen ganz andere Sachen wichtig sind (Administrierbarkeit, klonen von Settings,
Remotezugriff, Wide Temp Support, POE).
 
  • Gefällt mir
Reaktionen: Mcr-King
AlanK schrieb:
im Surface Pro 2017 eine Intel Core i5-7300U passiv,
Steht doch im Link selbst... das ding kostet 280$
So ne ARM cpu kostet wohl was zwischen 7 und 15$

borizb schrieb:
Auch werden die meisten keine
10G fähigen LAN Kabel zuhause haben.
Gerade vor 2 Wochen noch nen 20m Cat 6a gekauft. Sollte eigentlich 10gbit tauglich sein....
 
@borizb

Ist aber schon traurig, dass das immer noch alles so teuer ist. Zu Zeiten wo es noch nicht schnelleres gab wie 1 Mbit Internet, war 1 Gbit schon Standard bei Mainboards, selbst gängige Festplatten konnten mit da nicht mithalten. Heute haben wir 1 Gbit Internet und SSDs mit mehreren GB/s und eiern immer noch auf 1 Gbit LAN rum, als ob es künstlich "verknappt" wird. Wieso muss es außerdem gerade Kupferkabel sein? Warum nicht Glasfaser?
Ich meine das sind doch alles so "Genies", warum kann man das nicht komfortabel umsetzen?
 
Zuletzt bearbeitet von einem Moderator:
@borizb:
Ich glaube das fast jeder 10G fähige Kabel zuhause hat. Cat5e ist so ziemlich der Standard und für 20m 10Gbit sollte das locker reichen.
Inzwischen gibt es auch schon bezahlbare Switches, Netgear hat da was für ca. 170€ im Angebot. Für knapp 100€ auch schon Netzwerkkarten.

Noch ist es nicht in dem Preisbereich das 10Gbit demnächst flächendeckend verfügbar wird. Und zumindest bei High-End Mainboards würde ich gerne mehr 10Gbit Technik sehen.

Inzwischen ist es aber zumindest zu einem verträglichen Preis für den zu haben der es gerne hätte. Und gerade NAS sind ja die Anwendung schlechthin für schnelles Netzwerk. Viele Daten für viele Geräte nutzbar gemacht. Und wenn ich dann mal wieder ein Vollbackup davon fahre würde ich mich über 10Gbit sehr freuen, meine Festplatten würdens hergeben.

Leider habe ich aber nur 2x1Gbit, mehr war zum Kaufzeitpunkt bei NAS nicht im erschwinglichen Bereich zu bekommen. Und gerade die 2x1Gbit halte ich für wenig praxisgerecht, ich brauch schon mindestens ein managed Switch, über den normalen Router den man zuhause hat gehts nicht. Will ich dann die volle Bandbreite von einem Endgerät nutzen brauche ich auch dort wieder eine Teaming fähige Netzwerkkarte, und selbst dann kann ich häufig nicht die volle Geschwindigkeit des NAS nutzen.

Deswegen würde ich heute auf 10Gbit achten. Was mich hier an dem NAS aber stört ist das SOC, das ist doch viel zu langsam oder nicht? Wird davon wenigstens 256bit AES in Hardware unterstützt?

Grüße
Alexander
 
Bei Amazon gibt's doch neben SFP+TP ("direct attach") Modulen auch SFP+ 10G optische Transceiver für günstige 20..25€ ? Sicher auch welche für 200 ..

Preiswerte Switches hab ich aber auch noch nich gesehn. Weder SFP+ noch TP .. Seh auch nicht warum da jemand was entwickeln sollte - rein prof. Markt - und die Raten >10G sind bereits interessanter ?

Aber 10G wo TB3 bei 40G angekomen ist - und Ethernet das eher mäßig zu USB-C paßt weil's einen Chip zum Protokoll umsetzen bräuchte statt gleich die native Transfers von USB-C oder TB3 für den Netzwerkverkehr zu nutzen (wie es TB3 networking wohl tut) - und TP oder optische Verbindungen ohne Power over irgendwas - und bei optischen Verbindungen auch noch einen Doppelstecker - besonders klobig in der Wandeinbauvariante.

Bäh. Vorsintflutlich. Völlig ungeeignet für Consumer. Mist wegschmeißen, nochmal neu entwickeln.

Am besten gleich 60+G optisch mit Power in einem Kombisteckerchen (nennen wir es mal USB-D) und rein passiven (billigen) "Switches" und Kabeln. Für den Hausgebrauch braucht niemand (anfangs sauteure) N-port-Switches mit N x Portdatenrate als Backplane Geschwindigkeit - da reicht auch 60G auf Port und Backplane (sprich alle Geräte im Netz bzw. die zu Haus 1 oder 2 aktiven Verbindungen teilen sich die 60G) .. bis dann ein zwei Jahre später die nächste Gerätegeneration mit 120G kommt .. und der "alte" passive "Switch" und Kabel (sprich das Hausinventar) passen dann immer noch .. Und die Kostenextrapolation: 10G für 25€, 40G für 100€ je Port - und die "Switches" und Kabel werden passiv billig. Also bereits nach heutigen profiPreisen nicht wirklich teurer als 10GbE.
 
Zuletzt bearbeitet:
AMDprayer schrieb:
hab Tranceiver für 10GBase-T für um die 150€ gefunden
Da ist ja eine einfache 10GBASE-T Karte wie die ASUS XG-C100C deutlich günstiger.
Luthien schrieb:
RAID5? Wird davon nicht schon seit Jahren abgeraten?
Nur von Leuten die keine Ahnung haben und nicht wissen was die UBER bedeutet und welche Relevanz sie bei dem Thema hat.
stoeggich schrieb:
ab so 8TB wirds langsam schwierig mit raid 5 je nach Platte.
Wieso? Ich babe ein RAID 5 mit 7 10TB Platten mit einer UBER von 1:10^15 und damit ergibt sich eine theoretische Chance von fast 60% für ein erfolgreiches Rebuild.
Wattwanderer schrieb:
Aktuell mehr oder weniger einzig verfügbarer 10 GBE Chip ist der von Aquantia und der throttelt trotz ordentlichem Kühlkörper auch bei guter Belüftung durch Überhitzung.
Das macht meine ASUS XG-C100C komischerweise nicht und bei anderen dürfte es ähnlich sein, wenn die Lüftung wirklich ausreichend gut ist.
borizb schrieb:
Abgesehen von der fast völligen Absenz von 10G LAN auf
Consumerboards unter 150€ und im herkömmlichen Discounter PC.
Bis die 10GbE in dem Segment angekommen ist, dürfte es noch dauern, Gigabit Ethernet ist ja auch nicht sofort im Budget Segment angekommen, aber man erkennt doch bei den High-End Board schon eine klare Tendenz zu Multi Gigabit Ethernet und immer mehr Boards haben nicht mehr nur den kastrierten AQC108, sondern zunehmend den AQC107 der auch 10GBASE-T kann, wie Supermicro beim C9X299-PG300.
borizb schrieb:
dass man wie erwähnt einen sauteuren
10G Switch braucht.
Einen Switch braucht man nicht, wenn man nur einen PC mit einem NAS/Heimserver mit den 10GbE verbinden will um die Daten schnell dort hochladen zu können oder das Backup das PCs zu machen.
borizb schrieb:
Teaming ist eigentlich näher an der Praxis als 10G.
Teaming ist doch eine Krücke und wie viele Ports soll man denn verbinden um auf den gleichen Durchsatz zu kommen. Ein schnellere Link ist der Krücke Teaming auf jeden Fall vorzuziehen.
 
Wattwanderer schrieb:
Kennst du denn so potente SOCs die passiv gekühlt werden können?
Mit dem richtigen Gehäuse kannst du auch eine 65 Watt TDP CPU passiv kühlen. Streamcom zeigt wie es geht. Das Gehäuse selbst ist der Kühler. Sowas ließe sich sicher auch als kompakte NAS bauen. Nur um die Festplatten mache ich mir etwas sorgen, aber dafür gibts sicher auch Möglichkeiten zumal die Abwärme von Festplatten vergleichsweise gering ist.

@Holt:
wasd bringt dir denn eine 10GBase-T Karte wenn die NAS dies nicht unterstützt. Von der PC-Seite habe ich gar nicht gesprochen. Die Idee von YforU ist aber besser, die NAS einfach direkt mit LWL anbinden da SFP+-Karten und SR Tranceiver günstiger zu haben sind. Schlecht nur wenn man vorverlegte CAT7 Kabel nutzen will.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Ray1979 schrieb:
Warum, kannst Du das genauer erläutern? Danke!
Es wird nicht von RAID5 an sich abgeraten. RAID5 ist nur unter bestimmten Umständen nicht mehr ausreichend. Dafür gibt es zwei Gründe:
zum einen das von @Holt angesprochende Rate der nicht korrigierbaren Fehler. Diese werden von den Plattenherstellern angegeben und liegen bei guten Platten im Prosumer-Bereich bei 1:10^15 also 1 Fehler pro 10^15 Bits. Bei einfacheren Consumer-Modellen liegt sie nur bei 1:10^14 (ein Fehler pro 12,5 TB) Du hast dann also eine gewisse Wahrscheinlichkeit, dass auf jeder der im RAID beteiligten Festplatte irgendwo Bits liegen können, die nicht korrigierbar sind. Im Normalfall kann die Information über die Paritätsinformation des RAID5 wiedergewonnen werden. Fällt nun aber eine der Platten aus, kann dies nicht mehr sauber geschehen. Das betrifft aber statistisch nur wenige Daten des RAIDs.
Der andere (schwerwiegendere) Faktor ist, dass die Festplatten viel größer geworden sind, ohne dass sie im gleichen Verhältnis auch schneller geworden sind. Damit dauert ein Rebuild einer großen ausgefallenen Platte viel länger und in diesem Zeitraum sind die Platten stärkerer Belastung ausgesetzt, womit wiederum die Ausfallwahrscheinlichkeit einer weiteren Platte steigt, vor allem wenn sie alle mehr oder weniger gleichzeitig am Ende der Badewannenkurve der Ausfallwahrscheinlichkeit angekommen sind. Fällt eine weitere Platte während des Rebuilds aus, sind alle Daten weg.

Für den Privatbereich sind das aber strenggenommen keine Showstopper, den ein Backup der Daten sollte in jedem Fall ausserhalb des RAIDs vorhanden sein. Im Unternehmenseinsatz, wo korrumpierte Daten oder das komplette Wiedereinspielen Zeit und Aufwand kosten, setzt man aber auf RAID6, um diese Fehlerquellen deutlich zu reduzieren bzw. zu eliminieren.
 
  • Gefällt mir
Reaktionen: washieiko
Um Bit-Fehlern im RAID vorzubeugen gibt es z.B. von QNAP die Anwendung RAID-Scrubbing im QTS, was regelmäßig angewendet per Cron-Job (z.B. 1 x pro Monat) diesen beschriebenen Fehlern vorbeugen soll.
 
Ja, bei Synology müsste es auch sowas geben und Consistency Check heissen. Da bei dieser Funktion aber alle Daten gelesen werden müssen, stresst es die Platten natürlich etwas, weswegen man es auch nicht zu oft machen sollte.

Leider hilft Scrubbing nicht beim den zweiten Problemblock (Failure während rebuild).
 
Atkatla schrieb:
Du hast dann also eine gewisse Wahrscheinlichkeit, dass auf jeder der im RAID beteiligten Festplatte irgendwo Bits liegen können, die nicht korrigierbar sind. Im Normalfall kann die Information über die Paritätsinformation des RAID5 wiedergewonnen werden. Fällt nun aber eine der Platten aus, kann dies nicht mehr sauber geschehen.
Bei einem Rebuild eines RAID 5 kann dies nicht nur "nicht mehr sauber geschehen" geschehen, sondern gar nicht, weil es in dem Moment einfach gar keine Redundanz mehr gibt. Wenn ein Sektore mehr Bitfehler hat als die ECC korrigieren kann, dann wirft die Platte einen Lesefehler aus statt korrupte Daten zu liefern. Die meisten RAID Lösungen brechen den Rebuild Vorgang dann ab, weil damit keine komplett Datenkonsistenz mehr garantiert werden kann, denn die Daten des betroffenen Sektors sind nun ja verloren und Datenkonsistenz kann nun nur noch durch das Zurückspielen des Backups erzielt werden.
Atkatla schrieb:
vor allem wenn sie alle mehr oder weniger gleichzeitig am Ende der Badewannenkurve der Ausfallwahrscheinlichkeit angekommen sind.
Dann hätte man die HDD aber längst wechseln sollen, denn entweder sind diese nicht für die Art des Einsatzes geeignet oder schon über die 5 Jahre vom Hersteller geplanter Nutzungsdauer hinaus.
Atkatla schrieb:
Im Unternehmenseinsatz, wo korrumpierte Daten oder das komplette Wiedereinspielen Zeit und Aufwand kosten, setzt man aber auf RAID6, um diese Fehlerquellen deutlich zu reduzieren bzw. zu eliminieren.
Oder eben auf Platten wie die mit 15k rpm die sogar eine UBER von 1:10^16 haben und bei Enterprise SSDs sind 1:10^17 normal.
computerbase107 schrieb:
Um Bit-Fehlern im RAID vorzubeugen gibt es z.B. von QNAP die Anwendung RAID-Scrubbing im QTS, was regelmäßig angewendet
Das ist bei RAIDs üblich, jedes normale Enterprise Linux wird automatisch einmal im Monat (jede ist übertrieben, man sollte auch das Workload Rating der Platten nicht schon mit dem Scrubbing überziehen) für ein md SW RAID einrichten. Aber Bitfehlern beugt man damit nicht vor, sondern man will diese nur möglichst rechtzeitig erkennen und beheben, denn wenn dabei einer auffällt wird der entsprechende Sektor auf der Platte überschrieben, eben bevor ein Rebuild erforderlich ist. Solche Probleme die dann in den S.M.A.R.T. Werten können z.B. durch unerwartete Spannungsabfälle während Schreibvorgängen passieren, wenn dann der Sektor nicht komplett geschrieben werden konnte und die Daten des Sektor nicht zur ECC dahinter passen. Oder wenn die Platte beim Schreiben einen Stoß oder Vibrationen (zumal wenn sie keinen ausreichenden Schutz vor Vibrationen hat) erlitten hat und daher die Köpfe aus der Spur gekommen sind und Daten auf der Nachbarspur überschrieben wurden. Auffallen werden solche Fehler nur, wenn der Sektor dann wieder gelesen wird und damit dies eben nicht erst beim Rebuild passiert, macht man eben regelmäßig Scrubbing.

Solche Sektoren bei denen die Daten nicht zur ECC passen, sind die die man bei Einzellaufwerken dann als schwebende Sektoren in den S.M.A.R.T. Werten sieht und die sieht man bei einem echten RAID mit Redundanz eben nicht, weil das RAID die Daten mit Hilfe der Redundanz eben wiederherstellt und den Sektor überschreibt, so dass der Controller der Platte die "neuen" Daten nach dem Schreiben prüft, wenn die nicht lesbar sind dann wird ein Reservesektor an dessen Stelle verwendet und danach ist der Sektor auf jeden Fall nicht mehr schwebend.
 
Holt schrieb:
Dann hätte man die HDD aber längst wechseln sollen, denn entweder sind diese nicht für die Art des Einsatzes geeignet oder schon über die 5 Jahre vom Hersteller geplanter Nutzungsdauer hinaus.
Gerade im Consumerbereich werden sich aber viele darüber keine Gedanken machen und die Platten durchaus länger betreiben. Durch die großen Platten reicht der Platz für viele relativ lang, den nicht jeder sammelt da drauf BluRays o.ä.
Jetzt wo ich so drüber nachdenke... ich müsste mir jetzt auch erstmal die Rechnung raussuchen, wie alt die Platten in meinem NAS sind ... :confused_alt:
 
Atkatla schrieb:
Gerade im Consumerbereich werden sich aber viele darüber keine Gedanken machen
Das ist leider richtig und solche Leute haben dann Probleme, die sie auf die Hardware schieben über die sie dann meckern. Unwissenheit schützt aber bekanntlich nicht vor Strafe und diese Strafe ist meist Datenverlust.
 
Zurück
Oben