Notiz Western Digital: Vierfacher Cache für die WD Red mit 6 TB

Neue WD RED,s sind lauter geworden, 3TB und 4TB Festplatten.

Da sollte WD nachbessern.
 
whiskascat schrieb:
Neue WD RED,s sind lauter geworden, 3TB und 4TB Festplatten.

Da sollte WD nachbessern.
Welche Modelle meinst du?
 
@Holt:
Zu deinem Post auf Seite 1: wenn nur ein Bruchteil des Caches für Userdaten verwendet wird wozu denn dann? Und wenn wie du sagst mehr Cache nix bringt, warum dann nicht wieder wie früher mikrige 8MB einbauen, statt 64MB oder gar mehr?
Ernstgemeinte Frage, das würde mich interessieren! Ich glaube mal gelesen zu haben, dass man für eine gewisse Gesamtspeicherkapazität der HDD eine gewisse Cache Größe braucht. Irgendwas mit "Verwaltung" oder so.

@Topic: Seagate ist seit den lauten, heißen, arg "kratz-klackernden" 3TB HDDs für mich tot, 2 Reds mit 1:10^14 kommen in ein USB3 Gehäuse als neue Backup HDDs fürn Server, aber daheim nur noch Toshiba 3,5" HDDs!
Die Austauschplatte für eben die kaputte Seagate 3TB ist ein Traum! So leise, ruhig, kühl war noch keine hdd (gut, ist auch eine 5400er vs die 7200er Seagate) und meine 8TB HDD in einem USB3 Gehäuse (Verzeiung, USB 3.2 2x2 gen 0 5Gbps mini-B auf Typ-A Stecker 👿 ) ist eine Toshiba NAS Platte (5400).

Was mir noch einfällt: mehr Cache lässt beim Kopieren den Windows (7, machts Win 10 besser?) Explorer Blödsinn anzeigen. Beim Starten vom Kopieren mir irrsinnigen Datenraten, die dann runter rechen und zum Schluss immer kurz atehen bleiben. Weil? Win nur den speed der ersten paar KB anzeigt die natürlich mit max speed über das Protokoll bzw die Schnittstelle (wurscht ob sata oder usb3) in den Cache gepumpt werden, und Win Expl das dann hochrechnet auf die zu kopierende Gesamtdatenmenge.

Bitte um Korrektur falls ich da einem Irrglauben unterliege oder Details anders oder unpräzise sind :)
 
Smartbomb schrieb:
warum dann nicht wieder wie früher mikrige 8MB einbauen
Vielleicht weil es diese kleinen DRAM Chip nicht mehr oder nicht mehr billiger als die größeren gibt? Außerdem ist die FW ja auch komplexer und dann braucht man auch mehr RAM um sie auszuführen.
Smartbomb schrieb:
Ich glaube mal gelesen zu haben, dass man für eine gewisse Gesamtspeicherkapazität der HDD eine gewisse Cache Größe braucht. Irgendwas mit "Verwaltung" oder so.
Das gilt vor allem für die SSDs, da ist für die Mappingtabelle die Größe des Caches proportional zur Kapazität und die haben i.d.R. 1GB RAM pro 1TB Kapazität, eben weil sie mehr LBAs zu verwalten haben. Wie weit dies auch bei HDDs der Fall ist, kann ich nicht sagen, die haben keine Mappingtabelle, außer vielleicht wenn sie einen OnDisk Cache besitzen, wie es bei denen von Seagate mit SMR der Fall ist, denn dann müssen sie ja auch obendrein die Daten der Spuren die beim Schreiben überschreiben werden, ebenfalls so lange im Cache speichern, bis sie dieser wieder geschrieben haben.
Smartbomb schrieb:
ist eine Toshiba NAS Platte (5400)
Welche soll das sein? Die NAS Reihe von Toshiba ist die N300 und die sind laut dem Preisvergleich alle mit 7200rpm.
Smartbomb schrieb:
mehr Cache lässt beim Kopieren den Windows (7, machts Win 10 besser?) Explorer Blödsinn anzeigen. Beim Starten vom Kopieren mir irrsinnigen Datenraten,
Das ist aber nicht der Cache der Platte, die paar MB fallen da nicht ins Gewicht, sondern der eigene Cache, denn der Explorer puffert beim Kopieren die Daten in sonst nicht belegtem RAM und zeigt aber die Kopiergeschwindigkeit auf Basis des gelesenen Datenvolumens an. Daher sieht man am Anfang der Lesegeschwindigkeit der Quelle und wenn die Zielplatte die Daten eben langsamer schreibt als sie gelesen werden und der Puffer voll ist, dann bricht die angezeigte Kopiergeschwindigkeit auf die Schreibrate ein, da ja dann nur noch so viele Daten gelesen werden können, wie auch weggeschrieben werden. Deshalb scheibt der Kopiervorgang auch nicht enden zu wollen, obwohl nichts mehr gelesen wird, denn am Ende muss ja noch der Inhalt des Puffers weggeschrieben werden, erst dann ist der Kopiervorgang beendet, auch wenn dann schon länger nichts mehr gelesen wurde. Ob dies Blödsinn ist, muss jeder für sich bewerten, es wäre aber vermutlich sinnvoller die Kopiergeschwindigkeit auf Basis der geschriebenen Datenvolumen anzuzeigen, dann würde dieser Effekt, der immer auftritt denn die Quelle die Daten schneller liefert als das Ziel sie schreibt, nicht mehr auftreten und nicht mehr so viele Leute würden glauben, dass die Schreibgeschwindigkeit des Ziellaufwerks plötzlich so einbricht.
 
Holt schrieb:
Außerdem ist die FW ja auch komplexer und dann braucht man auch mehr RAM um sie auszuführen.
Also die Firmware besitzen ja keine grafische Oberfläche, sondern dienen nur der "Verwaltung" der Lese- und Schreibzugriffe. Das sind, wenn die Entwickler nicht vollkommen unfähig sind, ein paar kB. Der Cache ist wohl eher dafür, Lese- und Schreibfehler bzw. schwankende Transferraten zu kompensieren, schätze ich.

Zum Sinn bestimmter Plattengrößen: Eigentlich braucht man darüber gar nicht zu diskutieren. Sie funktionieren genauso wie größere oder kleinere Platten, daher sind sie genauso sinnvoll wie jede andere Platte auch.

Dass gewisse Plattengrößen aussterben, hat andere Gründe, wie etwa der Gewinnoptimierung, indem man die Anzahl der unterschiedlich zu fertigenden Plattern reduziert. Gleiches macht AMD ja auch mit ihren 8-Kern-DIEs.
 
Steht eigentlich irgendwo klar, dass die neuen WD Red Modelle definitiv noch CMR benutzen und nicht SMR?
Darauf könnte ein größerer Cache ja auch hindeuten...

WD fährt da nämlich eine nicht gerade kundenfreundliche Informationspolitik: Hatte mir für einen neuen NUC die WD10SPZX bestellt. Im Datenblatt und auch sonst gab es keine offiziellen Infos dazu, ob SMR oder CMR zum Einsatz kommt. Eine Nachfrage beim Support ergab dann, dass WD diese Information normalerweise nicht mit seinen Kunden teilt (wieso eigentlich nicht?). Anhand der Seriennummer könne man mir aber ausnahmsweise bestätigen, dass bei meinem Modell SMR zum Einsatz kommt. Ich habe die HDD also ungeöffnet zurückgeschickt und die WD10JPVX bestellt. Im Anschluss wollte ich über den Support wissen, ob bei dem Modell definitiv CMR verwendet wird, erhielt aber diesmal nur den Hinweis, dass die erste Antwort bereits eine Ausnahme gewesen sei und man mir diese Frage nicht beantworten wird. Dabei ist es dann auch geblieben. :grr:
Frage mich echt, was die sich davon versprechen, wenn sie Ihren Kunden technische Informationen verschweigen. Ist ein ähnliches Thema wie die Anzahl der verbauten Magnetscheiben & Köpfe. Warum die Hersteller da nicht einfach eine vernünftige Informationspolitik betreiben ist mir völlig unverständlich.
 
Noxolos schrieb:
Ist ein ähnliches Thema wie die Anzahl der verbauten Magnetscheiben & Köpfe. Warum die Hersteller da nicht einfach eine vernünftige Informationspolitik betreiben ist mir völlig unverständlich.

da gebe ich dir recht. kleiner tipp: auf der seite einer firma die festplatten rettet, habe ich dazu eine ganz gute datenbank gefunden 😎 [Link]

edit: Die WD10SPZX hat z. B. 2 Köpfe und 1 Platter 🤓
 
Zuletzt bearbeitet:
@Noxolos du meinst sicher PMR oder? Also perpendicular magnetic recording oder SMR (shingled magnetic recording).
Grad gegooglet: ah, sie haben PMR in CMR umbenannt (daher jetzt Conventional magnetic recording) als Gegenpol zu SMR.

@Holt danke für die Infos! Ich denke aber auch, dass ein größerer Cache dazu da ist um - achtung - mehr zu puffern. ZM damit die Schreibrate bei kleinen Dateien nicht einbricht, damit für mehr Daten Platz ist, mit denen sich NCQ spielen kann.
Und grundsätzlich war mehr Cache noch nie "schlecht" ;)
Aber ja, vl gibts so kleine DRAM Chips nicht mehr, oder nicht mehr in der Stückzahl.

Dass mit dem Speed ist schon klar, aber ich dachte es wird wenigstens "gemessen" was durch die USB Schnittstelle auf die externe Platte kopiert wird (also wie schnell in den Plattencache gepumpt werden kann) und nicht wie schnell man die Daten in den RAM liest!
Ich mein, MS weiß das nicht erst seit gestern, und, was soll das überhaupt? Warum ein Fortschrittsbalken, der so abartiger Blödsinn ist?
Wenn ich intern von SATA SSD auf externe USB3 HDD kopiere, was interessiert mich wie schnell alles in den RAM geht? Und dass daraus die Vorausschätzung der Dauer der Datenübertragung abgeleitet wird.
Einfach Müll!
Ich mein, om, Win ist im RAM und Win kann vl checken, wie schnell was in den RAM kommt. Können die nicht angeben, wie schnell was an den USB controller gupumpt wird, der die Daten dann an die HDD rauschickt? Der USB controller wird wohl nicht viel Cache haben, wenn überhaupt. Der RAM ist ja der Cache, oder?
Btw, bei Kopieroperationen, wieviel RAM wird denn als Cache genommen?
Viel kanns nicht sein, oder ist das dynamisch, je nach Datenmenge oder Dateigröße, GesamtRAM oder freier oder noch nicht zugewiesener RAM?
 
Smartbomb schrieb:
Also perpendicular magnetic recording oder SMR (shingled magnetic recording).
Grad gegooglet: ah, sie haben PMR in CMR umbenannt (daher jetzt Conventional magnetic recording) als Gegenpol zu SMR.
SMR nutzt ja auch PMR als Aufzeichnungsverfahren, von daher stehen SMR und PMR nicht in einem Widerspruch. Schon seit langem nutzen alle derzeitigen HDDs nutzen PMR, der Vorgänger Longitudinal Recording ist bei HDDs längst nicht mehr in Benutzung und die "Nachfolger" wie HAMR und MAMR nutzen im Grunde auch das Prinzip vom PMR, dies beschreibt nämlich die Ausrichtung der Magnetisierung und die wird sich auch nicht mehr ändern, daher hat die Information das PMR verwendet wird, heutzutage im Grunde keinerlei Aussagekraft mehr, nachdem gar kein Longitudinal Recording mehr verwendet wird.
Smartbomb schrieb:
Ich denke aber auch, dass ein größerer Cache dazu da ist um - achtung - mehr zu puffern. ZM damit die Schreibrate bei kleinen Dateien nicht einbricht, damit für mehr Daten Platz ist, mit denen sich NCQ spielen kann.
Bei NCQ kann mehr Cache natürlich helfen.
Smartbomb schrieb:
vl gibts so kleine DRAM Chips nicht mehr, oder nicht mehr in der Stückzahl.
Oder eben nicht mehr zu attraktiven Preisen und wie man ja auch immer wieder im Forum sieht, ist mehr Cache durchaus verkaufsfördernd, denn viele User schauen auf die Größe des Caches und bevorzugen Modelle mit mehr Cache.
Smartbomb schrieb:
Warum ein Fortschrittsbalken, der so abartiger Blödsinn ist?
Frage Microsoft, ich kann nur beschreiben wie es ist und was man daher aus diesen Informationen ablesen kann und was eben gerade nicht.
Smartbomb schrieb:
Btw, bei Kopieroperationen, wieviel RAM wird denn als Cache genommen?
Soweit ich weiß eine ganze Menge von dem RAM welches sonst nicht belegt ist. Es macht ja auch Sinn möglichst viel zu nehmen, wenn man zwischen zwei Partitionen einer HDD kopiert, da dann nicht so viele Kopfbewegungen nötig sind. Wird zwischen unterschiedlichen Platte kopiert, würde ein kleinere Puffer eigentlich auch reichen, aber wenn dann andere Zugriffe auf die Quellplatte erfolgen, so wird das Lesen davon bei einer HDD deutlich langsamer werden und macht es auch wieder Sinn wenn gepuffert wird.
 
Hab noch 2x 3TB und 2x 4TB Reds hier. RaidZ2 und gut ist :). Ne USB (UASP!!) ssd als Cache dabei und fein. Schnell und gut für 24x7
 
Warum sollte das nicht funktionieren?
 
Naja, man hört ja hin und wieder: "Einen RAID nur mit identischen Platten (und am besten noch aus der selben Produktionslinie [und am aller besten noch bei gleicher Mondphase]) aufbauen.
Mir ist schon klar, dass man nicht unbedingt 6TB Platten von Toshiba mit WD und Seagate mischen sollte. Aber gibt es etwas, dass gegen ein RAID mit alten und neuen Platten einer Serie spricht?
 
Sendaba schrieb:
man hört ja hin und wieder: "Einen RAID nur mit identischen Platten (und am besten noch aus der selben Produktionslinie [und am aller besten noch bei gleicher Mondphase]) aufbauen.
Eigentlich nimmt man gerade keine Platten aus dem gleichen Fertigungslos, um das Risiko einen Serienfehlern geringer zu halten. Man kann aber ein RAID auch ohne Probleme aus unterschiedlichen HDDs bauen, der Nachteil ist dann allenfalls die verschenkte Performance, aber solange die Platten selbst für diesen Einsatz geeignet sind und der RAID Controller per FW auf bestimmte Modelle eingeschränkt ist (z.B. die mit dem passenden Stallgeruch), gibt es da eigentlich keine Probleme. Bei HW RAID Controller könnte es ggf. Probleme beim Auslesen der S.M.A.R.T. Werte geben, wenn die einzelnen Platten unterschiedliche S.M.A.R.T. Attribute haben, aber die einfachen Consumer NAS haben sowieso Linux und Software RAIDs und bei SW RAID da kann man die S.M.A.R.T. Werte der einzelnen Platten direkt auslesen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Sendaba
Zurück
Oben