News NAS-Festplatten: WD Red nun mit 6 TB und als „Pro“

Keine Fragen es gibt einige, die es nutzen. Will ich gar nicht bestreiten.
 
Crowbar schrieb:
ich las vor kurzem die these, dass die red lediglich eine "andere firmware" besäße, aber eigentlich jede green mit reds baugleich sei. wenn man nas-marketing und ein jahr zusatzgarantie ignoriert also auch die einige € günstigere greens kaufen kann. ist da was dran?
Das kann stimmen, es kann aber auch sein, dass dort Teile mit anderen Spezifikationen verbaut sind und wenn es nur das Öl der Lager ist was besser auf die Anwendung ausgelegt ist.

Aber selbst wenn es stimmt, so habe ich auch gelesen, dass man im Zuge der Einführung der Red die FW der Green um die Möglichkeiten der Einstellung des LLC Timers beschnitten hat. Das alleine wäre dann schon ein Argument für die Red, bei denn bei der WD Red kann man immerhin den LLC Timer einstellen (Hier der Link zu wd5741, welches statt WDIDLE3 dafür zu verwenden ist).

Bzgl. der Default Einstellung hat WD die wohl Ende 2013 geändert und zwar mindestens auch für die 3TB, denn wie gesagt war eine meiner 5 im November 2013 gekauften Red auf 8s eingestellt und ausgerechnet die mit der höchsten Seriennummer. Ob und welche Modelle nun aktuell mit dem Timer auf 8s ausgeliefert werden, weiß ich aber nicht, nur sollte jeder mal in den S.M.A.R.T. prüfen ob der LLC bei ihm sehr schnell steigt und wenn ja, den Timer dann ggf. umstellen. Sicht alleine darauf zu verlassen, dass die Red 3TB den nicht aktiviert hätte nur weil das so im Netz steht, könnte sonst schiefgehen, wenn die Platte ebenfalls erst nach Erscheinen der 4TB gekauft wurden, denn das muss ungefähr der Zeitpunkt gewesen sein, als die Werkseinstellung geändert wurde.

Mr.Seymour Buds schrieb:
Gibt es doch schon lange. Wenn sie wirklich stark belastet werden, zb sowas.
Das ist dann aber keine 6TB. Da würde ich die UltraStar He6 nehmen, die kostet inzwischen ja auch nur noch 431€.
 
Welch Ironie, ich stand kurz vor dem Kauf der WD Red 4TB für ein 8Bay NAS und nun überlege ich ob die Pro Variante oder mehr Kapazität nicht besser wäre um mehr Luft für später nach oben zu haben. Gut, in einem Netzwerk zwecks streamen bringen mir 7200rpm nun nicht sehr viel aber mehr Platz wäre nicht verkehrt. 100,-€ mehr für 1GB mehr ist halt schon recht happig. Die 4TB haben eine gute P/L es sei denn, die fallen ein wenig im Preis. Das es einem so schwer gemacht wird, treibt mich noch in den Wahnsinn! - Drückt einfach mal den Preis damit man gescheit einkaufen kann.
 
Holt schrieb:
Das ist dann aber keine 6TB. Da würde ich die UltraStar He6 nehmen, die kostet inzwischen ja auch nur noch 431€.

Das stimmt natürlich. Jedoch gibt es bei WD bisher nicht größeres und ich hatte nur dort auf die schnelle geschaut.
 
Bzgl. der immer grösser werdenden Festplatten:

Also wenn ich das richtig angeschaut habe, so liegt die Wahrscheinlichkeit (laut WD), dass bei einem kompletten Rebuild eines RAIDs ein "unrecoverable read error" auftritt, bei jedem Drive bei rund 50%. Das ist mittlerweile schon kaum noch vertretbar.
 
Eggcake schrieb:
Also wenn ich das richtig angeschaut habe, so liegt die Wahrscheinlichkeit (laut WD), dass bei einem kompletten Rebuild eines RAIDs ein "unrecoverable read error" auftritt, bei jedem Drive bei rund 50%.
Ja und deshalb ist die WD Red mit nur 1:10^14 auch Mist, die hätte 1:10^15 haben müssen, damit es Sinn macht.

akron1980 schrieb:
Welch Ironie, ich stand kurz vor dem Kauf der WD Red 4TB für ein 8Bay NAS
Die kosten ab 142€, 8 Stück also €1136 und da Du dann ein RAID6 nehmen müsstest (wegen Rebuild, s.o.) hast Du 24TB netto, also 47,33€ pro TB. Wenn die Du die HGST Ultrastar He6 6TB nimmst die es ab 431€ gibt, dann kommst Du auf 3448€ für 8 St., aber da die eine UBER von 1:10^15 hat, kannst Du ein RAID 5 bauen und kommst damit auf 42TB netto, also auf 82,10€ pro TB. Die WD Red 6TB ist gerade mit 244€ im Preisvergleich aufgetaucht und damit sind das 1952€, aber wegen der UBER wäre ein RAID 6 anzuraten. Man hat also nur 36TB netto und die kosten dann je 54,22€. Die 6TB Seagate habe ich mal ausgelassen, die Enterprise sind teurer als die HGST und außerdem haben eine recht hohe Leistungsaufnahme, die HGST ist da wegen der He-Füllung deutlich sparsamer.

Rechnet man nun 800€ für ein 8bay NAS dazu, so kommt man auf:
Red 4TB: (1136€ + 800€) / 24TB = 80,67€/TB
Red 6TB: (1952€ + 800€) / 36TB = 76,44€/TB
He6: (3348€ + 800€) / 42TB = 98,76€/TB

Die neue Red 6TB rechnet sich also schon jetzt, zum ersten Preis zu dem sie gelistet ist. Vergessen sollte man aber nicht, dass ein RAID kein Backup ersetzt! Es war eben noch nie billig große Datenmengen sicher aufzubewahren!

Das sollten sich auch alle ansehen die sehen, dass es HDDs mit 3TB für unter 90€ gibt, also für weniger als 30€ pro TB und die denken, sie könnten dann auch 30TB für 900€ speichern. :evillol:
 
Zuletzt bearbeitet:
Diese Rechnungen für RAID 5 gibt es schon seitdem Kapazitäten über 5 tb erreicht wurden, was nun schon etliche jahre her ist. Seitdem kenne ich nicht einem einzigen Bericht, dass ein rebuild angeblich aufgrund eines lesefehlers gescheitert ist und das obwohl speichermengen über 10 tb im heimbereich längst keine Seltenheit mehr sind.
Von daher halte ich die ganze Diskussion für rein theoretischen quatsch.
 
Sehe ich auch so. Ich mein klar es _kann_ passieren aber da müssen denke ich viele kombinationen zusammen kommen.
 
Ja. Das liegt sicher daran, dass wir hier letztlich nur mit Wahrscheinlichkeiten rechnen.

Man rechnet sie fröhlich mit der Datenmenge hoch, multipliziert sie mit der Anzahl der Laufwerke usw., was mathematisch gesehen durchaus legitim ist, aber die Frage ist, wie sinnvoll solche Rechnugnen sind, wenn die Ausgangsgröße vielleicht selbst nur eine auf eine Größenordnung angegebene Hausnummer ist. Dann multiplizieren sich Fehler gleich in ganz andere Dimensionen.

Ist die Fehlerwahrscheinlichkeit bei so einer "Prosumer"-Festplatte wie den Red wirklich 10x höher als bei einer bei einer Enterprise-Platte? Und wie will man das überhaupt nachprüfen können, ohne hunderte Platten in unzähligen, langwierigen Testdurchläufen zu schrotten?

Würde mich nicht wundern, wenn sich nicht mal die Festplattenhersteller wirklich die Mühe machen, die Fehlerwahrscheinlichkeiten mit realen Tests zu ermitteln, sondern sich aus irgendwelchen Tabellen mit durch verschiedenen Faktoren beinflussten Näherungswerten bedienen.

Wie gesagt, wenn man dann auch Grundlage solcher Zahlen Berechnungen anstellt, dann müssen die Ergebnisse nicht unbedingt viel mit der Realität zu tun haben, selbst dann, wenn man rechnerisch alles richtig gemacht hat.

Solange sich in Foren nicht die Meldungen über fehlgeschlagene RAID5-Wiederherstellungen mit großen Platten häufen, würde ich mir nicht allzu sehr den Kopf zerbrechen. Aber man sollte sich halt der theoretischen Risiken bewusst sein.

Wirklich relevant werden solche Risikobetrachtungen auch nur dann, wenn es wirklich auf 100% Verfügbarkeit ankommt und z.B. ansonsten eine Fertigungsstraße in der Fabrik steht oder Termine für lebenswichtige Projekte platzen usw. Dann muss man halt vom schlimmsten, theoretischen Fall ausgehen und in entsprechend sichere, höhere RAID-Level investieren.
 
Herdware schrieb:
Wirklich relevant werden solche Risikobetrachtungen auch nur dann, wenn es wirklich auf 100% Verfügbarkeit ankommt und z.B. ansonsten eine Fertigungsstraße in der Fabrik steht oder Termine für lebenswichtige Projekte platzen usw. Dann muss man halt vom schlimmsten, theoretischen Fall ausgehen und in entsprechend sichere, höhere RAID-Level investieren.

Wobei man da eh nichts mehr selber macht. Wenn es so wichtig ist wird da eine Externe Firma eingeschaltet eben weil die Daten so wichtig sind --> Geht was schief hat man ein schuldigen.
 
@Holt
Ich meinte auch nicht das es pro TB teuer ist sondern in der Anschaffung. Da Festplatten vorbereitet werden müssen und ich nicht unbedingt im nachhinein zu einem bestehenden System später Festplatten hinzufügen möchte, weil dann irgendein Fehler passiert oder es zu Problemen führt von denen ich jetzt noch nichts weiss, wollte ich von Anfang an eine Vollbestückung. Es sei denn es gibt ein Verfahren wo das problemlos gewährleistet.

Die Rechnung ist in meinem Fall unnötig denke ich, denn ich brauche Platz und will lediglich eine Kapazitätserweiterung. Das Backup bilden dann die vorhanden externen Festplatten wo alles drauf sein wird. Was mich noch stört ist halt das es kein Verfahren gibt (oder ich kenne es nicht), wo die Festplatten lediglich zusammengefaßt dargestellt aber als einzelne Festplatten behandelt werden. Raid 0 oder JBOD = Ausfall einer Platte, alles futsch. Ich hätte nämlich gerne das im Falle eines Ausfalls von einer Platte, andere erreichbar sind nur eben ohne die Dateien von dieser einen Platte. Dann wird nur diese Platte getauscht und neu bespielt. Geht sowas irgendwie?
 
Holt schrieb:
Das sollten sich auch alle ansehen die sehen, dass es HDDs mit 3TB für unter 90€ gibt, also für weniger als 30€ pro TB und die denken, sie könnten dann auch 30TB für 900€ speichern.

Dann sollte man die als "robuster" vermarkteten Platten aber nur kaufen, wenn man auch wirklich robuste Platten braucht. Nur so als Hinweis. Denn auch die normalen Endverbraucherplatten können schon einiges ab. Ich habe damals noch vor dieser Flut in Thailand Platten gekauft, nicht weil ich sie brauchte, sondern weil es schweine billig war. 2x2 TB (für RAID-1) zu, ich meine nur wenige Euros über nem Fuffi je Stück. Den genauen Preis habe ich leider nicht mehr im Kopf. Dann kam diese Flutkatastrophe und die Preise waren für 2 Jahre auf Höhenflug.
 
akron1980 schrieb:
Was mich noch stört ist halt das es kein Verfahren gibt (oder ich kenne es nicht), wo die Festplatten lediglich zusammengefaßt dargestellt aber als einzelne Festplatten behandelt werden. Raid 0 oder JBOD = Ausfall einer Platte, alles futsch. Ich hätte nämlich gerne das im Falle eines Ausfalls von einer Platte, andere erreichbar sind nur eben ohne die Dateien von dieser einen Platte. Dann wird nur diese Platte getauscht und neu bespielt. Geht sowas irgendwie?
Ja das geht mit Ordner Aggregation. Hier ein Link wie das QNAP löst:
http://www.qnap.com/i/de/trade_teach/con_show.php?op=showone&cid=57
Dabei einfach jede Platte als Einzel Laufwerk konfigurieren und wie in der Anleitung das jeweilige Stammverzeichnis der HD integrieren. Das geht mit Platten im NAS und mit allen anderen Netzwerkfreigaben die auch Remote sein können. Cloud, Clients, weitere NAS.

Solltest du nur von einem Client aus zugreifen müssen gibts noch die Möglichkeit über iSCSI ein VDD zu bilden. http://www.qnap.com/i/de/trade_teach/con_show.php?op=showone&cid=33
 
Zuletzt bearbeitet:
Herdware schrieb:
Ist die Fehlerwahrscheinlichkeit bei so einer "Prosumer"-Festplatte wie den Red wirklich 10x höher als bei einer bei einer Enterprise-Platte? Und wie will man das überhaupt nachprüfen können, ohne hunderte Platten in unzähligen, langwierigen Testdurchläufen zu schrotten?

Hab ich ja schon erwähnt. Ansonsten gehts nicht ums "schrotten", denn diese Lesefehler sind Teil der korrekten Funktion. Erst Fehlerraten drüber (mal nachweisen...) gehen gegen die Spezifikationen und sind prinzipiell reklamierbar.
Alle ZFSler werden den scrub kennen, und hin und wieder ist da ein Häppchen dabei, das resilvert (aus den übrigen Daten rekonstruiert UND auf die fehlerhafte Platte zurückgeschrieben) wird. Ob das nun solche nicht vermeidbaren Lesefehler, "Bit Rot", oder sonstige Störungen auf Platter, Laufwerkselektronik, Kabel, Controller oder Mobo (exklusive RAM) sind, ist mir egal...hauptsache es wird gefunden und repariert, bevor etwas mit den Daten passiert. Und eine erhöhte Menge an solchen Fehlern deutet auf nen bevorstehenden Ausfall hin, weit bevor SMART Alarm schlagen könnte.
 
Holt schrieb:
Das ist bei denen inzwischen aber auch anders. Von den 5 3TB Red die ich im November letzten Jahres gekauft habe, war der Time bei 4 deaktiviert, aber bei der mit der höchsten Seriennummer auf 8s eingestellt, genau wie es bei den Green üblich ist. Ich habe den dann mit WDIDLE3 umgestellt, aber es gibt ja nun ein neues Tools dafür für die Red, WDIDLE3 soll man angeblich nicht für die Red nehmen und bei den neueren Green soll es auch nicht mehr funktionieren.
Solche Produktionsschwankungen sprechen aber auch nicht gerade für sich. Am schlimmsten war es bei einer Mobilen Platte (Scorpio Blue 1TB) die nach 2 Sekunden geparkt hat. Da sie neben einer SSD (im ODD Schacht) betrieben wurde gab es ständig beim Datenzugriff Verzögerungen weil sie wieder anlaufen musste. Dazu kommt dann dass WD eben maximale Park/Anlaufzyklen angibt bezüglich lebensdauer. Hier sollte dem Kunden mehr Freiheit gewährt werden mit entsprechenden Tools. WIDLE3 war mit der Scorpio leider nicht kompatibel und das Abschalten der Energiesparfunktionen ging nur temporär. Mit einem Script hatte ich es sogar geschaft diese bei Systemstart zu deaktivieren, das Script wurde aber nur bei Systemstart ausgeführt und die Einstellungen waren beim Energiesparmopdus (vom Notebook)I wieder dahin. Bei den Greens wollte ich es dann gar nicht erst drauf ankommen lassen und hab mich unter anderem genau deswegen für die Reds entschieden.
 
Herdware schrieb:
Ja. Das liegt sicher daran, dass wir hier letztlich nur mit Wahrscheinlichkeiten rechnen.

...

Ist die Fehlerwahrscheinlichkeit bei so einer "Prosumer"-Festplatte wie den Red wirklich 10x höher als bei einer bei einer Enterprise-Platte? Und wie will man das überhaupt nachprüfen können, ohne hunderte Platten in unzähligen, langwierigen Testdurchläufen zu schrotten?
Da war der Soldat neben der Kiste Handgranaten, die laut Hersteller 5s nach Abziehen des Abzug explorieren sollen. Er meint, es dauert länger und setzt sich mit einer Stoppuhr in der einen Hand und einer Granate in der anderen an einen Abgrund um das zu prüfen. Also zieht er den Abzug, startet dabei die Stoppuhr und lässt die Granate nach genau 5s in den Abgrund fallen. Wie lange geht das gut? Na so lange bis er eine erwischt, die wirklich genau nach Herstellerangaben nach 5s explodiert. Würdest Du den Test auch machen wollen? Wohl kaum, also warum willst Du es Deinen Daten zumuten?

Herdware schrieb:
Würde mich nicht wundern, wenn sich nicht mal die Festplattenhersteller wirklich die Mühe machen, die Fehlerwahrscheinlichkeiten mit realen Tests zu ermitteln, sondern sich aus irgendwelchen Tabellen mit durch verschiedenen Faktoren beinflussten Näherungswerten bedienen.
Natürlich sind die Werte nicht 100%ig exakt ermittelt, das verhindert schon die Serienstreuung und die Tatsache, dass man die Werte ja auch einhalten muss. Es wird ja auch immer als <= angegeben, bessere Werte können immer vorkommen, sind dann aber sowohl von den Einsatzbedingungen als auch von dem Alter der Platte abhängig. Je älter eine Platte ist, umso fehleranfällig wird sie naturgemäß auch.

Herdware schrieb:
Wirklich relevant werden solche Risikobetrachtungen auch nur dann, wenn es wirklich auf 100% Verfügbarkeit ankommt und z.B. ansonsten eine Fertigungsstraße in der Fabrik steht oder Termine für lebenswichtige Projekte platzen usw. Dann muss man halt vom schlimmsten, theoretischen Fall ausgehen und in entsprechend sichere, höhere RAID-Level investieren.
Wenn also die Wiederherstellung eines RAID mit privaten Daten ansteht, dann ist es also egal bzw. wird die Platten dann gnädig sein und doch keinen Fehler aufweisen. :freak:
 
Zurück
Oben