News QNAP TS-932X: ARM-basiertes NAS mit 2× 10GbE für 9 Festplatten

Der Preis sieht schon sehr attraktiv aus.
Da stellt sich natürlich die Frage, ob die CPU auch ausreicht für 9 Platten mit mehreren RAID5 oder RAID6 an 2x 10Gbit.
Da muss man wohl erst mal auf ein paar Tests und Reviews warten.
 
Interessantes Gerät aber ob QNAP es schafft bei der Vielfalt an Geräten noch den Überblick zu behalten?

Hoffentlich sehen wir zur nächste Messe in Taiwan auch die Antwort von Synology. Passend SOCs scheinen ja mittlerweile verfügbar zu werden.

Andererseits Frust, dass NAS Hersteller den 10 GBE Vorreiter geben muss. Intel, bau mal ein schönes NIC. :)
 
Keine x86 CPU und 9HDDs, dürfte damit wohl auch eher ein Nischenprodukt bleiben.
 
Wieso nicht 6 statt 5 3,5er? Dann könnte man wenigstens Raid6 machen mit 6 Platten, was imo sinnvoll wäre.
5 ist halt ne doofe Zahl: Für ein Raid5 viel zu riskant, für ein Raid6 schlechte Nettokapazität.
 
ARM-SoCs und ZWEI 10GbE.
Kann mir jemand sagen, ob die Dinger denn tatsächlich in der Lage sind, das 10 GbE zu sättigen? Ich hab mit ARM-SoCs sooo schlechte Erfahrungen gemacht... ich trau dem ganzen nicht. Das läuft doch eher so: die SoCs kriegen gerade so (und nur bei Zugriff mehrerer Nutzer) eine Datenrate über Normal-GbE hin, sagen wir mal 220 MB/s (insgesamt über alle User), und der zweite GbE-Port ist dann nur noch für Fail-Over da bzw. Redundanz oder eben wie-auch-immer-gearteten Konstellationen des Netzwerks.

Im Single-User-Case als Backup/File-Hosting/Workflow-Medium wird das Ding doch eh maximal 150 MB/s liefern.

Wann, oh wann, gibt es endlich bezahlbare 10GbE-Hardware, die den Namen auch verdient. Oder von mir aus auch mit dem 5GbE-Zwischenschritt, wenn 10GbE sooooo teuer ist. Aber seit beinahe 20 Jahren hängen wir als Normalsterbliche auf Gigabit-Netzen rum, die an jeder Stelle krächzen unter der Last. Das war noch einigermaßen tolerabel als die meisten Leute HDDs verbaut hatten, aber da ja dort nun auch der Wechsel zu SSDs ansteht ... ist die Netzwerktechnik einfach nur völlig outdated. Da hilfts mir auch nicht, wenn ich 10GbE-Hardware kaufe, die im Optimalfall 20 oder 30% des Interfaces in der Praxis nutzen kann.

Ist ja nicht so, als ob man wirklich etwas neu erfinden müsste. Seit mittlerweile 8 Jahren gibt es auch die Hardware für 40GbE (auch über Kupfer) ... es wäre nur mal an der Zeit, dass die Preise für 10GbE purzeln, damit die Verbreitung steigen könnte. (und dass es natürlich anschließend mit Hardware kombiniert wird, die diese Datenraten auch liefern kann...)
 
Zuletzt bearbeitet:
komm vielleicht nicht drauf aber für was der Lautsprecher...
 
AndrewPoison schrieb:
ARM-SoCs und ZWEI 10GbE.
Kann mir jemand sagen, ob die Dinger denn tatsächlich in der Lage sind, das 10 GbE zu sättigen?

Wann, oh wann, gibt es endlich bezahlbare 10GbE-Hardware, die den Namen auch verdient.

Ich halte es für ausgeschlossen, dass das Gerät 22 GBIT/s umsetzen kann. Selbst 10 GBIT/s dürfte eine Hürde sein die das Gerät nicht nehmen wird.

Mit etwa 150 EUR pro Port (Switch+NIC) halte ich 10 GBE mittlerweile für durchaus bezahlbar auch wenn ein niedrigerer Preis wünschenswert wäre. Der Knackpunkt ist der aktiv gekühlte Switch. Der Umstieg scheitert momentan daran, dass es keinen passiv gekühlten Switch mit mehr als 2 x 10 GBE Ports gibt.
 
AndrewPoison schrieb:
ARM-SoCs und ZWEI 10GbE.
Kann mir jemand sagen, ob die Dinger denn tatsächlich in der Lage sind, das 10 GbE zu sättigen? Ich hab mit ARM-SoCs sooo schlechte Erfahrungen gemacht...

10GBe zu sättigen sollte kein größeres Problem sein. Es braucht halt schnelle Laufwerke und je ausgefallener deine Wünsche der Raidkonfiguration, Crypto bei Speicher und Transport sind sowie beim Protokoll desto eher wird die Performance abfallen.

Das gibt QNAP aber auch halbwegs transparent an:
https://www.qnap.com/en/product/ts-932x

Ohne Crypto knapp 2GB/s lesend und reichlich 0,8GB/s schreibend und mit Crypto liegt man bei der Hälfte.
 
Zuletzt bearbeitet:
Bogeyman schrieb:
Wieso nicht 6 statt 5 3,5er? Dann könnte man wenigstens Raid6 machen mit 6 Platten, was imo sinnvoll wäre.
5 ist halt ne doofe Zahl: Für ein Raid5 viel zu riskant, für ein Raid6 schlechte Nettokapazität.
Warum ist ein RAID aus 5 Platten für RAID V deiner Meinung nach zu riskant? 1 von 5 Platten kann im laufenden Betrieb ausfallen. Erst wenn 2 von 5 Platten ausfallen, bevor die erste defekte Platte wiederhergestellt wurde, hat man ein Problem. Die Wahrscheinlichkeit, dass 40 % der Platten in diesem kleinem Zeitfenster gleichzeitig ausfallen, ist doch recht gering.
 
https://www.zdnet.com/article/why-raid-5-stops-working-in-2009/

Das Problem ist dass die Platten immer größer geworden sind, die URE aber weitesgehend immer noch identisch ist. Ergo hast du eine sehr hohe Warscheinlichkeit dass der Rebuild deines Raid5 aus 5 HDDs scheitern wird.
Würde Raid5 nur noch mit 3 maximal 4 Platten machen. Bei 6 Platten bietet sich wie gesagt Raid6 an, nur 5 Slots ist unpraktisch, entweder 4 oder 6.
Die Chipsätze werden mit Sicherheit eh mehr Sata Ports bereitstellen können, warscheinlich wollte man einfach nur das Gehäuse nicht breiter bauen für den 6. 3,5er Slot.
 
Zuletzt bearbeitet:
Das Gerät sollte am besten garkein mehr Raid 5 unterstützten nur Raid 50 bzw Raid 6 oder 60 und Raid 10.
Ich hoffe das kommt bald mal. Wobei bei 9 Platten eigendlich nur noch Raid 6 überbleibt

Kommt halt drauf an welche Platten man verwendert 10^14 oder 10^15 oder 10^16 bis zum fehler
 
Zuletzt bearbeitet:
Solche pauschalen und absoluten Aussagen finde ich irritierend.

Für temporäre Dateien die superschnell sein sollen, muss da Redundanz sein? Was ist mit Cold Data bei denen man mit Zugriffszeiten von ein, zwei Tagen tolerierbar sind?

Nicht immer bedeutet eine Unterbrechung der Verfügbarkeit gleich den Konkurs einer Firma.

Machmal staune ich, dass man für die eigene Filmsammlung zu x-fachen Redundanz greift, womöglich noch mit Hot-Spare obwohl die Kiste keine 10 m weit weg steht und einige HDDs im Regal es auch tun würden. Meine Welt würde nicht untergehen wenn meine Filmsammlung einige Tage nicht zur Verfügung stünden.
 
Bogeyman schrieb:
Das Problem ist dass die Platten immer größer geworden sind, die URE aber weitesgehend immer noch identisch ist. Ergo hast du eine sehr hohe Warscheinlichkeit dass der Rebuild deines Raid5 aus 5 HDDs scheitern wird.
OK, das gilt für große Platten mit 5, 6 oder gar mehr Plattern. Wenn ich aber 5 "schmale" Festplatten mit je maximal drei Plattern verwende, sollte ein RAID 5 noch im Bereich des "Erträglichen" sein (meine Meinung).;)
Ergänzung ()

stoeggich schrieb:
Das Gerät sollte am besten garkein mehr Raid 5 unterstützten nur Raid 50 bzw Raid 6 oder 60 und Raid 10.
Ich hoffe das kommt bald mal. Wobei bei 9 Platten eigendlich nur noch Raid 6 überbleibt

Kommt halt drauf an welche Platten man verwendert 10^14 oder 10^15 oder 10^16 bis zum fehler
Werden RAID 50 und 60 tatsächlich produktiv in großen Serverfarmen eingesetzt? Die Fehlerwahrscheinlichkeit eines RAID 50 ist jenseits von Gut und Böse. Wenn, dann allerhöchstens RAID 60. Allerdings: Wenn man eh schon 10 oder mehr Festplatten in einem (schnellen) RAID 6 mit PCI-E-Anbindung einsetzt, dann nützt das zusätzliche RAID 0 doch kaum noch was, weil die Geschwindigkeit eh in Richtung Schnittstellenlimitierung geht. Oder nicht?
 
Zuletzt bearbeitet:
@Weyoun
In der freien Wildbahn wird dir alles an Konfigurationen begegnen und wenn du mit Glück die Dokumentation findest wirst du alles Mögliche an Begründungen finden.

Im Storagegeschäft an sich ist aber eigentlich Software Defined Storage gerade eine der Dinge die vermarktet wird. Da braucht man mitunter keine Raids mehr. mann kann Datensätze ja auch "einfach so" auf verschiedene HDDs verteilen inkl. Redundanzen.
 
Zurück
Oben