News 6-TB-Festplatten von Seagate im 2. Quartal

Um mal zurück zum Thema zu kommen:

Ob auch diese 6TB Platte wirklich ihr Geld wert sein wird darf zumindest am Anfang bezweifelt werden. auch die HT Platte ist m.E. derzeit einfach zu teuer.
Ich denke aber, dass die Preise für die 4TB Platten dann fallen werden, was auch dingend notwendig ist. Gerade wenn man bei Seagate in den Enterprise Bereich geht (z.B. CS.3) ist man im oberen Preissegment dabei.

Aber auch selbst bei einem angemessenen Preis würde ich die Festplatte erst mal nicht einsetzen und auf die Ausfallraten warten.

Gibt es eigentlich Hinweise auf die konkrete Ausgestaltung der Platte (Segment, Garantie, usw.)?
Ergänzung ()

xyz- schrieb:
ich hab jetz 18 seagate und keine hatte einen defekt,
4 wd, 3 davon hatten fehler
Ich setze derzeit auch lieber auf Seagate. Trotzdem würde ich so kleinen Mengen keine relevant zuordnen. Insbesondere dann nicht, wenn die WDs in einer Lieferung bestellt bzw. geliefert wurden.
Ergänzung ()

Wattwanderer schrieb:
Bis auf das IBM Debakel der zum Tod der IBM Plattensparte führte kenne ich selbst keinen Fall von Platten von der ich explizit abraten würde. Trotzdem halte ich den Wechsel der Marke für durchaus sinnvoll. Wozu eine Platte kaufen bei dem man ein ungutes Gefühl hat selbst wenn es unbegründet sein sollte?
Doch die Seagate STx000DM000/1 Serie muss wohl (wenn man in diverse Foren schaut) recht schrottig gewesen sein. Die Firmware war wohl dermaßen fehlerhaft, dass es immer wieder zu Ausfällen gekommen ist.

Wie auch immer, es kann bei jedem Hersteller passieren, dass eine Serie einfach nichts taugt. Am besten fährt man m.E. zum einen durch Diversifikation insbesondere wenn Backup auf unterschiedliche Geräte gemacht werden (einfach Seagate und WD mischen) und dadurch, dass man kein "Early Adopter" ist.
 
Wattwanderer schrieb:
Das scheint mir ein Fall von der Hersteller hat nicht gut genug mit diversen SMART Tools Programmierern zusammen gearbeitet. Wenn ich mir ansehe welche abenteuerlichen Werte von diversen SMART Software für Platten verschiedener Hersteller angzeigt werden hätte ich nicht gedacht, dass jemand davon einen Kauf abhängig macht.
Warum sollte ein Festplattenhersteller mit SMART-Tools-Programmierern zusammenarbeiten? Was hat er davon? Gar nichts! Das geht denen am Arsch vorbei, was irgendein Tool mit irgendwelchen ausgelesenen Daten anfängt.

Wattwanderer schrieb:
Es gab Zeiten wo auf dem Etikett einer Platte fein säuberlich die defekten Sektoren aufgelistet waren. Wahrscheinlich hat man diese Praxis aufgegeben als die Platten immer größer wurden und wahrscheinlich ein Etikett in der Größe eines Kinoplakats gebraucht hätte um sie alle aufzulisten.
Das dürfte wohl eher an der Funktionsweise heutiger Festplatten liegen. Alte MFM-Platten konnte man als Endanwender noch selbst einer Low-Level-Formatierung unterziehen und musste das auch (teils mehrfach im Leben der HDD). Da war es durchaus von Vorteil die Anzahl und Lage bereits defekter Sektoren zu kennen, die man dabei eingeben musste.

Als mit dem Erscheinen der ATA/IDE-Festplatten der eigentliche HDD-Controller vom Host direkt auf das Laufwerk gewandert ist und die Ausnutzung des Speicherplatzes auf den Plattern durch das sogenannte Zone-Bit-Recordung (bedingt die geometry-translation; physical vs logical geometry) optimiert wurde, konnte man als Endanwender keine "echte" Low-Level-Formatierung mehr durchführen. Ergo war es nicht mehr notwendig die beim Herstellungsprozess gefundenen defekten Sektoren aufzulisten und dem Kunden mitzuteilen.

Wattwanderer schrieb:
Bis auf das IBM Debakel der zum Tod der IBM Plattensparte führte kenne ich selbst keinen Fall von Platten von der ich explizit abraten würde. Trotzdem halte ich den Wechsel der Marke für durchaus sinnvoll. Wozu eine Platte kaufen bei dem man ein ungutes Gefühl hat selbst wenn es unbegründet sein sollte?
"Pannen"-Serien gab es durchaus, auch bei anderen Herstellern. In jüngster Vergangenheit sind wohl noch die Firmware-Bugs in bestimmten Samsung und Seagate Festplatte-Serien in Erinnerung. Nur kommt zum einen nicht jede Panne beim Design oder der Herstellung von Festplatten ans Licht und nicht jede wird öffentlich so breit getreten, wie damals die der "DeathStar"-Serie von IBM.
 
Zuletzt bearbeitet:
Da die Platten wohl kaum günstig sein werden, dürfte Seagate wie HGST sie wohl zuerst im Enterprisesegment platzieren und sich auch preislich an der 6TB von HGST orientieren. Für Heimanwender lohnt sich eine 6TB Platte wohl noch für eine ganze Weile nicht, für Firmen vor allem dann, wenn man dadurch nicht nur ein paar Platten sondern vor allem gleich einen ganzen Server oder wenigstens einen Controller und ein Rack einsparen kann.
Ergänzung ()

Madnex schrieb:
Warum sollte ein Festplattenhersteller mit SMART-Tools-Programmierern zusammenarbeiten? Was hat er davon? Gar nichts! Das geht denen am Arsch vorbei, was irgendein Tool mit irgendwelchen ausgelesenen Daten anfängt.
Wieweit wer mit dem zusammenarbeitet weiß ich nicht, aber letztlich reicht es ja, wenn die Hersteller der Platten die S.M.A.R.T. Werte vernünftig dokumentieren und die Programmierer der Tools die die S.M.A.R.T. Werte auslesen, diese Daten dann auch regelmäßig einpflegen. Da gefällt mir CrystalDiskInfo am Besten, denn das wird regelmäßig gewartet und aktualisiert, obendrein ist es Open-Source.

Madnex schrieb:
"Pannen"-Serien gab es durchaus, auch bei anderen Herstellern. In jüngster Vergangenheit sind wohl noch die Firmware-Bugs in bestimmten Samsung und Seagate Festplatte-Serien in Erinnerung.
So ist es und die Seagate Barracuda 7200.11 war so ein Fall, bei dem es massiv Probleme gab. Wenn man sich mal durch die ganze Augaben der französischen Ausfallstatistik wühlt, dann stellt man bei den Harddisk schnell fest, dass sich die Ausfallraten der immer wieder ändert und ebenso die Reihenfolge der Hersteller. Ebenso verhält es sich mit den Ausfallraten einzelner Baureihen, da ist eine mal ganz mies und danach liegt sie weit vorne, was eben auch aufgrund der ständigen Weiterentwicklung der Produkte und Optimierung der Produktion liegt, aber auch mal in die andere Richtung gehen kann.

Es gibt eben keine 100%ig ausfallfreien Platten und ein Backup für alle wichtigen Daten bleibt weiterhin Pflicht, egal ob die Platte nun in der Statistik 1% oder 10% Ausfallrate zeigt, denn es kann eben auch immer die eigenen Platte dazugehören.
 
Holt schrieb:
Wieweit wer mit dem zusammenarbeitet weiß ich nicht, aber letztlich reicht es ja, wenn die Hersteller der Platten die S.M.A.R.T. Werte vernünftig dokumentieren ...
Welcher Hersteller macht das denn? Mir ist keiner bekannt, der umfassende und detaillierte Informationen über die SMART-Implementierungen in ihren Produkten veröffentlicht oder weitergibt. Das, was wir über die einzelnen Smart-Attribute wissen, stammt größtenteils aus Beobachtung und Schlussfolgerung. Einzig das End-To-End-Error Attribut ist gut dokumentiert, wobei hier HP federführend war (HP ist kein Festplattenhersteller). Dass für dieses Attribut eine Dokumentation existiert, bedeutet aber noch nicht zwangsweise, dass es von den einzelnen Festplattenherstellern exakt so implementiert wird.
 
Zuletzt bearbeitet:
Wie es bei den HDD Herstellern aussieht, weiß ich nicht und schau ich nun auch nicht nach, da tut sich ja auch wenig in der Richtung, aber bei den SSD seriöser Hersteller ist es nicht ungewöhnlich die Werte gut zu dokumentieren. Intel, die das Dokumentieren ja wohl auch erst schmerzlich mit dem Rechenbug im Pentium gelernt haben, macht das z.B. im Datenblatt für die 530er Reihe auf Seite 18. Bei Micron gibt es für die S.M.A.R.T. Attribute der m500 extra ein Dokument, wo auch die verschiedenen FW Version berücksichtigt sind. Seagate hat dagegen im Datenblatt der 600 und der 600 Pro zwar eine ausführliche Beschreibungen der Antwort auf das Identify Device command, eine Liste der unterstützen SATA Befehle und vieles mehr, geht aber nicht auf die Attribute ein, außer dem Hinweis, dass mit dem SeaTools diagnostic Software der Percentage Endurance Remaining Indicator ausgelesen werden kann.

Entweder haben die Programmierer da auf Standarddefinitionen und Erfahrungswerte zurückgegriffen, oder sie hatten doch einen etwas besseren Zugang zu Dokumentation der Hersteller als wir Normalsterblichen Internetnutzer. Hersteller von Tools wie z.B. CPU-Z, GPU-Z oder HWInfo haben den ja offenbar auch, sonst könnten sie nicht aus den gesendeten Codes die korrekten Bezeichnungen der HW ableiten und das teils selbst für HW die noch nicht einmal auf dem Markt erhältlich ist.
 
johnripper schrieb:
Ich setze derzeit auch lieber auf Seagate. Trotzdem würde ich so kleinen Mengen keine relevant zuordnen. Insbesondere dann nicht, wenn die WDs in einer Lieferung bestellt bzw. geliefert wurden.

es waren 2 red, 1 blue und 1 black, und die einzige die keine fehler hatte war 1ne red

aber mittlerweile kauf ich nur noch die c es.3 sind eh die einzigen mit 128mb cache
 
Zuletzt bearbeitet:
@Holt
Mag sein, dass die SSD-Hersteller transparenter mit diesem Thema umgehen, als die HDD-Hersteller ihrerseits. So detailliert, wie bei Intel und Micron, habe ich das jedenfalls noch bei keinem HDD-Hersteller gesehen. Von daher wundert mich die spartansiche Smart-Erklärung bei der SSD von Seagate kein bisschen. Mit der zunehmenden Bedeutung von Solid-State-Drives können sich die Hersteller vielleicht endlich mal zu einem einheitlichen, gut dokumentierten SMART-Industriestandard durchringen.

Dass die Programmierer von Smart-Monitoring-Tools besseren Zugang zu den Dokumentationen der HDD-Hersteller haben, glaube ich nicht. Dafür sind die Interpretationen der jeweiligen Programme zu unterschiedlich. Mit Programmen, die CPU/GPU-Informationen auslesen, ist das wohl kaum zu vergleichen.
 
Zuletzt bearbeitet:
xyz- schrieb:
aber mittlerweile kauf ich nur noch die c es.3 sind eh die einzigen mit 128mb cache

Ich auch. Gerade weil die WD RED für mich immer noch das LCC Problem haben und die CS.3 5 Jahre Garantie.
Ist halt klar eine andere Preisklasse. Ich hoffe dass die 6TB Platten die Preise dann drücken.
 
xyz- schrieb:
sind eh die einzigen mit 128mb cache
Und was bringt das? Die Größe des Caches ist doch bei HDDs total egal, das bringt in der Performance doch nichts, allenfalls für Benchmarks, die nur mit recht wenigen Schreibzugriffen die Random Performance oder Zugriffszeiten ermitteln und deren Ergebnisse damit dann noch mehr vom Cache verfälscht werden.

Das LCC Problem kann man zumindest bei den Red (und Green) mit dem Programm WDIDLE3 doch selbst umgehen und den Timeout selbst einstellen, auch auf NIE. Das ist also kein Argument, zumal die Seagate Platten auch zunehmen dieses Problem haben.
 
Holt schrieb:
Und was bringt das? Die Größe des Caches ist doch bei HDDs total egal, das bringt in der Performance doch nichts, allenfalls für Benchmarks, die nur mit recht wenigen Schreibzugriffen die Random Performance oder Zugriffszeiten ermitteln und deren Ergebnisse damit dann noch mehr vom Cache verfälscht werden.
Mindestens beim Schreiben von vielen kleinen Dateien
Holt schrieb:
Das LCC Problem kann man zumindest bei den Red (und Green) mit dem Programm WDIDLE3 doch selbst umgehen und den Timeout selbst einstellen, auch auf NIE. Das ist also kein Argument, zumal die Seagate Platten auch zunehmen dieses Problem haben.
Seagate hat auch seine Probleme, aber von LCC Problemen in diesem Umfang habe ich noch nichts gelesen.
Ergänzung ()

Helmpflicht schrieb:
Also meine 5 REDs haben noch ganz geringe LCCs.
Schön für dich und weiter!?!
 
Dann schau mal hin:

spinpoint_1tb_6004_stunden-png.395183


Nach 6000 Stunden wurden schon 17% der LLC verbraucht!

Hier schon 7% nach 3222 Stunden:

st3000dm001-1ch166_cdi_3222_stunden-png.395184


Morgen hänge ich noch ein krasseres Beispiel an.
 

Anhänge

  • Spinpoint_1TB_6004_Stunden.png
    Spinpoint_1TB_6004_Stunden.png
    112,1 KB · Aufrufe: 679
  • ST3000DM001-1CH166_CDI_3222_Stunden.png
    ST3000DM001-1CH166_CDI_3222_Stunden.png
    114,6 KB · Aufrufe: 685
Ich habe noch eine Segeate 7200.12 1 TB am laufen, und sie läuft seit 5 Jahren vollkommen problemlos! Ich würde immer wieder auf Segeate setzen!
 
johnripper schrieb:
Wie auch immer wird das jetzt ein Seagate Bashing Thread?
Nein, aber alle HDD Herstelle haben so ihren Probleme, ist es denn immer gleich Bashing, wenn man darüber redet? Etwas zu radikal, oder?
 
Öhm, ich hab mal spaßeshalber die HDD meines Laptop kontrolliert - ich schätze der Wert ist weniger gut:
Screenshot_256.png

So wie ich das verstanden habe, bezieht sich der Wert auf die Anzahl der Parkvorgänge, die der Hersteller garantiert - ist das richtig?

Ich mache mir aber keine Sorgen. In meinem Leben ist mir noch keiner Festplatte ausgefallen und eine 320GB Platte ist günstig zu ersetzen.
 
Wenn CrystalDiskInfo Zustand "gut" ausgiebt, dann braucht man sich in der Regel keine Sorgen zu machen.
 
@Mr.Seymour Buds
Generell kann man das so nicht sagen. CDI gibt auch ein "Gut" aus, wenn End-To-End-Errors vorliegen oder sogar der Schwellwert von diesem Attribut unterschritten wurde (was beides in diesem Fall hier nicht zutreffend ist). End-to-End-Errors sind fatal und bedeuten in der Regel immer eine defekte Festplatte.

Das nur als Beispiel, weshalb man sich nicht blind auf die Gesamtbewertung von CDI verlassen kann.
 
Zuletzt bearbeitet:
@Madnex

Jetzt lies noch mal ganz genau. :)

Wenn CrystalDiskInfo Zustand "gut" ausgiebt, dann braucht man sich in der Regel keine Sorgen zu machen.

Für besserwisserische "es gibt ja noch diese oder jene Ausnahme" oder "das ist gar nicht so", habe ich immer diesem idR Disclamer im Post. HF.
 
Kein Sorge, dein idR habe ich schon gesehen. Mit der Aufweichungstaktik der eigenen Aussage durch das Positionieren von idR, die ich auch hin und wieder anwende, kann man sich aber nicht gegen jegliche Kritik zu dieser Aussage absichern, sofern sie denn gänzlich falsch oder zu schwammig ist.

Ein bisschen Gegengewicht schadet nicht, um den Sachverhalt für andere besser verständlich zu machen. Mag sein, dass du mich deshalb als Besserwisser abstempelst. Was soll's ...
 
Zuletzt bearbeitet:
Zurück
Oben