Leserartikel Seagate Archive HDD - 5TB

Guter Erfahrungsbericht! Danke fürs teilen!

Ich warte auf die Seagate Archive HDD v2 8TB sofern es Seagate jemals schafft diese an die Händler zu liefern :(
 
Also zunächst mal ein Screenshot bezüglich "fsutil fsinfo ntfsinfo d:"
fsutil.PNG
Bytes pro Sektor: 512
Bytes pro physischem Sektor: 4096
Was genau sagt mir das jetzt? Gut? Schlecht?

Wegen der Datensicherheit mache ich mir auch noch ein bisschen Sorgen. Aber am Ende habe ich mich wegen dem günstigen Preis doch zum Kauf entschieden. Am Ende muss ich im schlimmsten Fall halt die Sicherung zurückspielen. Das Raid 5 betreibe ich schon auch aus dem Grund der "Datensicherheit". Allein wegen der Geschwindigkeit könnte man die Platten ja auch als JBOD betreiben und würde ein Gigabit Ethernet immer noch auslasten können.

Die Werte vom CrystalDiskMark reiche ich später nach...

@Kai84: Gerne :)
 
Radde schrieb:
Was genau sagt mir das jetzt? Gut? Schlecht?

Interessant! Das sagt uns, dass die Seagate Unterlagen falsch bzw. nicht einheitlich sind. Aber das haben wir gestern ja schon gemerkt! :)
Für dich heißt das jetzt eigentlich garnichts, es ist eine AF Festplatte mit 4k Sektoren und 512e und nicht 4kn, so wie viele Festplatten aktuell aufgebaut sind.

lordZ schrieb:
Kommt drauf an, ob der TE sein Raid nur aus Leistungsgründen, oder auch aus Paritätsgründen betreibt.
Radde schrieb:
Wegen der Datensicherheit mache ich mir auch noch ein bisschen Sorgen. Aber am Ende habe ich mich wegen dem günstigen Preis doch zum Kauf entschieden. Am Ende muss ich im schlimmsten Fall halt die Sicherung zurückspielen. Das Raid 5 betreibe ich schon auch aus dem Grund der "Datensicherheit". Allein wegen der Geschwindigkeit könnte man die Platten ja auch als JBOD betreiben und würde ein Gigabit Ethernet immer noch auslasten können.

Es ist wirklich schwer das aus den Köpfen zu kriegen ;)

RAID = DatenVERFÜGBARKEIT
Backup = DatenSICHERHEIT

Es ist wichtig das zu trennen und die Unterschiede zu verstehen.
Verfügbarkeit = Daten im Zugriff halten trotz z.B. Defekten an der Hardware
Sicherheit = Daten überhaupt noch haben im Falle eines Verlustes z.B. durch Defekt, aber auch Softwarefehler, Benutzerfehler, usw.

Wenn ich jetzt eine einzelne Festplatte habe und die Daten von dort auf ein RAID verschiebe, dann hat sich an der Datensicherheit nichts geändert. Wenn ich sie auf dem RAID halte und gleichzeitig eine Kopie davon aus der Einzelplatte lasse, dann bringt das Datensicherheit.
 
OK, vielleicht hätte ich besser "Datenverfügbarkeit" geschrieben.
Mir ist schon bewusst, dass bei versehentlichem Löschen, Blitzeinschlag oder Wasserschaden kein Raid der Welt hilft. Deswegen gibt es aber ja noch eine Sicherung auf externe Festplatten, die abgezogen und im Schrank (ja, gleicher Raum...*hmpf* ) aufbewahrt werden.
Allerdings werde ich die Sicherung unregelmäßig machen, nämlich nur, wenn wirklich wichtige Daten dazukommen. Für Daten, die problemlos neu aus dem Internet heruntergeladen werden können reicht mir das Raid als "Datensicherung" - zumindest bis zur nächsten Sicherung ;)
 
@DunklerRabe

Das ist insofern schwer aus den Köpfen zu bekommen, da selbst in der Fachliteratur Raid immer in Zusammenhang mit Sicherheit genannt wird. Daher frage ich mich, ob die Boardies wirklich Recht haben, die strikt behaupten, dass ein Raid nichts mit der Sicherheit zu tun hat. Vielleicht nicht das beste, aber immerhin ein Beispiel ist der Wikipedia Artikel über Raid. Das Wort "Sicherheit" kommt darin unzählige Male vor.

Aber wie auch immer, ich betreibe Raid Arrays zum größten Teil aus Gründen der Verfügbarkeit und dafür gebe ich viel Geld aus. Du hast oben geschrieben, dass es unproblematisch wäre, wenn alle Platten ausfallen, weil man ja noch immer auf das Backup zurückgreifen kann. Und da stimme ich dir nicht zu, denn es ist sehr wohl problematisch, wenn man Geld für Verfügbarkeit ausgibt und man dann allerdings keine Verfügbarkeit hat, weil im unrealistischen, aber durchaus vorkommenden Szenario alle Platten ausgefallen sind.

Wenn es für jemanden unproblematisch ist, Backups einzuspielen, weil er genug Zeit dafür hat, oder warum auch immer, warum sollte er dann Geld für ein Raid ausgeben?

Die Antwort darauf ist: Leistung.

Daher korrekt:

lordZ schrieb:
Kommt drauf an, ob der TE sein Raid nur aus Leistungsgründen, oder auch aus Paritätsgründen betreibt.
 
lordZ schrieb:
Daher frage ich mich, ob die Boardies wirklich Recht haben, die strikt behaupten, dass ein Raid nichts mit der Sicherheit zu tun hat.

Ja, absolut zu 100%.
Wenn in einem Stück "Fachliteratur" steht, dass ein RAID erhöhte Sicherheit bietet, dann hat sich dieses Stück Literatur damit automatisch der Fachlichkeit entledigt. Es handelt sich dann nicht um Fachliteratur, weil der Autor offensichtlich nicht ausreichend fachlich versiert ist.

Und im Übrigen stimme ich dir zu, aber man muss es so sehen: RAID ist ursprünglich ein Enterprise Feature. In Enterprise IT ist Verfügbarkeit nochmal ein anderes Thema als zu Hause. Zu Hause, und darum gehts hier ja, ist ein Ausfall aller Platten gleichzeitig akzeptabel. Das kann man so sagen, weil es ja sowieso praktisch nicht passiert. Wünschenswert ist das natürlich nicht, aber wenn es passiert, dann ist es kein Drama. Im Enterprise Umfeld wäre es eine Katastrophe. Aber gerade da ist es total normal, dass alle Platten in einem Array identisch sind, weil man die Wahl nicht hat und es passiert trotzdem nicht. Ich bin beruflich für hunderte Arrays mit tausenden Platten verantwortlich und das höchste der Gefühle ist ein zerlegtes RAID 5, wo eine Festplatte ausgefallen ist, die wir einfach nicht ersetzt haben. Und ein paar Wochen später fiel eine zweite aus.
 
Dann sehe ich für uns alle schwarz, denn die Autoren dieser Literatur bilden unsere zukünftigen Ingenieure aus und verleihen ihnen die Diplome. Und den Wikipedia-Artikel über RAID kann mal also offensichtlich auch in die Tonne werfen. :)

Wobei ich schon immer der Meinung war, das ich mich besser auskenne, als meine Professoren. In der Benotung hat sich das leider nie widergespiegelt. :)

Ich sehe das relativ. Für eine Privatperson ist der endgültige Verlust privater Daten nicht weniger katastrophal, wie es der Verlust von Geschäftsdaten für eine Firma ist. Aber das kann nur jede Partei für sich selbst bewerten. Jeder Firma und jeder Privatperson steht es schließlich frei zu entscheiden, wie wertvoll die Daten sind und wie sie folglich zu schützen sind.
 
VelleX schrieb:
Von der 8TB Archive gibts ja auch CrystalDiskMark Werte, die jedoch bischen komisch sind
http://akiba-pc.watch.impress.co.jp/docs/sp/20141220_680650.html
Danke für den Hinweis, die sehen ja wirklich sehr komisch aus, vor allem der ganz rechte mit 100MB. Das sieht ja fast aus als wenn es da auf dem Testrechner einen Cache geben würde, zumal solche Werte gar nicht über SATA übertragbar sind. Das würde auch die hohen 4k Schreibraten auf dem linken Bild erklären, sonst müsste Seagate ja eine ähnliche Technik wie HGST bhei der neuen Ultrastar C10K1800 verwenden, die die Daten erst auf Spuren in der Nähe der Kopfposition schreibt und dann im Idle auf die endgültige Position überträgt.

lordZ schrieb:
Das ist insofern schwer aus den Köpfen zu bekommen, da selbst in der Fachliteratur Raid immer in Zusammenhang mit Sicherheit genannt wird.
Sicherheit ist ja nichts absolutes, ein wenig Sicherheit, eben bei dem Ausfall einer Platte und wenn man kein Problem wegen der UBER bekommt, gibt es ja. Das ist aber nur eine sehr geringe Sicherheit und alle Profis machen deshalb auch zusätzlich Backups.

lordZ schrieb:
ein Beispiel ist der Wikipedia Artikel über Raid. Das Wort "Sicherheit" kommt darin unzählige Male vor.
Wikipedia ist doch keine Fachliteratur! Also wirklich, lies Dir mal meine Signatur durch!

lordZ schrieb:
denn es ist sehr wohl problematisch, wenn man Geld für Verfügbarkeit ausgibt und man dann allerdings keine Verfügbarkeit hat, weil im unrealistischen, aber durchaus vorkommenden Szenario alle Platten ausgefallen sind.
Wie die Sicherheit auch gibt es eben auch bei der Verfügbarkeit eine absoluten Werte, sondern Massnahmen um diese für verschiedene Szenarien zu gewährleiste und mit dem gewünschten Niveau steigen dann die Kosten. Das muss man eben immer im Einzelfall abwägen, das maximal mögliche Niveau wird man sich privat nie leisten können und wollen, also muss man sehen wogegen man sich absichern sollte und welche Restrisiken man eingeht.

lordZ schrieb:
Wenn es für jemanden unproblematisch ist, Backups einzuspielen, weil er genug Zeit dafür hat, oder warum auch immer, warum sollte er dann Geld für ein Raid ausgeben?
Es gibt einiges Gründe für ein RAID, aber letzlich ist das eben eine Entscheidung die jeder selbst treffen sollte und muss, man sollte sich nur keine Illusionen machen was man dann nun konkret bei welcher Entscheidung für eine Sicherheit und/oder Verfügbarkeit erreicht.

lordZ schrieb:
Dann sehe ich für uns alle schwarz, denn die Autoren dieser Literatur bilden unsere zukünftigen Ingenieure aus und verleihen ihnen die Diplome.
Deswegen gibt es dann nach dem Studuim oft genug den Praxisschock.

lordZ schrieb:
Und den Wikipedia-Artikel über RAID kann mal also offensichtlich auch in die Tonne werfen. :)
Das ist bei Wikipedia nicht selten, die Illusion von der Schwarmintelligenz ist bei vielen noch in den Köpfen, aber dazu kann ich mich nur Dieter Nuhr anschliessen: "Geist addiert sich nicht, Dummheit leider schon."

lordZ schrieb:
Jeder Firma und jeder Privatperson steht es schließlich frei zu entscheiden, wie wertvoll die Daten sind und wie sie folglich zu schützen sind.
So ist es, das Problem sind nur die Fehleinschätzungen, wenn also z.B. ein RAID baut meint damit eine absolute Sicherheit für seine Daten zu haben, dann wird es eben kritisch und wenn hinterher die Daten weg sind, ist die Enttäuschung groß. Eine weitere große Falle sind die ganzen NAS, da glauben auch viele die Daten wären total sicher und verzichten auf Backups. Noch sind die meisten Systeme und Platten drin ja recht neu, aber wenn dann die Platten nach ein paar Jahren kaputt gehen, werden sich noch viele wundern.
 
Danke für den Hinweis! Der Schreibbenchmark von HD Tune ist sehr interessant, vor allem die Punkte Zugriffszeiten:

coolpc_Seagate_ST5000AS0001_17.jpg


Schade das HD Tune in der Standardeinstellung nur 64k alle paar MB (liest und) schriebt und nicht die ganze Platte beschreibt. Es scheint wirklich einen Cache zu geben der diese geringen Zugriffszeiten ermöglicht und vielleicht wie bei der Ultrastar C10K1800 arbeitet um eben die Nachteile von SMR bei kleinen Schreibzugriffen nicht so offen zu Tage treten zu lassen.

Die IOPS schreibend sind jedenfalls für eine HDD extrem hoch:

coolpc_Seagate_ST5000AS0001_21.jpg


Und auch viel höher als die IOPS lesend:

coolpc_Seagate_ST5000AS0001_19.jpg
 
So, jetzt habe ich die Zeit gefunden meine Platte mit CrystalDiskMark 3.0.3 x64 zu testen.

50MB
CrystalDiskMark_50MB.PNG

100MB
CrystalDiskMark_100MB.PNG

500MB
CrystalDiskMark_500MB.PNG

1000MB
CrystalDiskMark_1000MB.PNG

2000MB
CrystalDiskMark_2000MB.PNG

4000MB
CrystalDiskMark_4000MB.PNG
 
Die 4k lesend bei 50MB sehen mit 20MB/s fast wie bei einer SSD aus, da muss es einiges an Cache geben, aber schon bei 100MB ist der Effekt weg, schreibend bleiben die 4k Aber immer sehr hoch, viel zu hoch für eine HDD, da scheint CDM mit so wenigen Widerholungen zu arbeiten, dass der Cache noch reicht. Das sieht man dann auch bei den 4k QD32, die zwischen 1000MB und 2000MB massiv einbrechen, da würde dann wohl mehr geschrieben als in den Cache passt.

Seltsam auch wie die Leserate einbricht, das hätte man ja eher von der Schreibrate erwartet. Jedenfalls geben die Ergebnisse noch einige Rästel auf, aber villeicht gibt es dann mit den ersten Reviews auch ein paar Erklärungen zur Technologie die helfen dieses Verhalten zu verstehen. Man muss aber wohl alle bisher bekannte Regeln über die Performance von HDDs über Board werfen.
 
@Holt:

Ich habe dem nicht viel hinzuzufügen. Wie auch, denn vieles, das ich über Festplatten weiß, habe ich deinen Posts hier im Forum entnommen. :)

An einer Stelle hast du mich unpassend zitiert. Das korrekte Zitat wäre gewesen:

lordZ schrieb:
Vielleicht nicht das beste, aber immerhin ein Beispiel ist der Wikipedia Artikel über Raid.

Ob Wikipedia jetzt Fachliteratur ist, oder nicht; Praxisschock hin oder her, auch dein Post beweist, was ich in den Raum geworfen habe, nämlich, dass man Sicherheit und Verfügbarkeit nicht strikt trennen kann. Es sind natürlich zwei verschiedene Themen, die aber durchaus ineinander übergreifen.

http://www.zdnet.com/article/has-raid5-stopped-working/

Hast du durch meine Beiträge hier den Eindruck vermittelt bekommen, dass ich diesen Link nicht kenne? Mir sind diese Informationen sehr wohl bekannt, aber offensichtlich nicht jedem hier in diesem Thread.
 
DunklerRabe schrieb:
Radde, kannst du bitte mal ATTO drüberlaufen lassen?
Aber na klar doch :)

Ich fürchte nur, da werdet ihr aus dem rätseln gar nicht mehr raus kommen...
Um das caching zu beobachten habe ich den Test mit 32MB, 256MB und 2GB gemacht. Laut Datenblatt hat die Platte ja 128MB Cache.
Das Ergebnis mit 2GB kam mir so spanisch vor, dass ich den Rechner neu gestartet und anschließend ein paar Minuten idlen lassen habe.

32MB
Atto_32MB.PNG

256MB
Atto_256MB.PNG

2GB - 1
Atto_2GB_Nr1.PNG

2GB - 2 (nach Neustart)
Atto_2GB_Nr2.PNG

Edit:
Scheinbar gibt es beim Lesen wirklich deutlich größere Probleme als beim Schreiben. Insbesondere Dateigrößen von 128kb und 256kb.
 
Zuletzt bearbeitet:
Ja die Werte sehr ungewöhnlich aus und das es beim Lesen eigentlich schlechter als beim Schreiben aussieht ist extrem verwunderlich. Kannst Du sehen ob die Platte nach dem Schreiben bzw. nach den Benchmarks noch eine Weile aktiv bleibt? Das wäre ein Hinweis auf so eine Cache Technik auf der Platte wie bei der HGST Ultrastar C10K1800. Wenn dann erst auf solche Spuren geschrieben und die Daten übertragen werden, könnte die schlechte Leserate daran liegen, dass die Platte damit in der kurzen Paus zwischen lesen und Schreiben schon beginnnt, die ganze Benchmark schreiben ja erst und lesen die geschriebenen Daten dann sehr zeitnah wieder ein.
 
Ja, du hast recht!
Ich habe nochmal 2 Screenshots gemacht. Die Zeigen den Verlauf von Auslastung und Übertragunsrate im Taskmanager von Win 8 während ATTO läuft.
Man sieht, dass das Muster bei den kleinen Dateigrößen sehr schön gleichmäßig ist. Mit jedem neuen Test steigt und fällt die Auslastung. Im zweiten Bild sieht man dann ein Tailing bei den Schreibvorgängen. Deswegen sind die Lesewerte vermutlich so schlecht.
Dabei stellt sich natürlich die Frage, ob der ATTO dann überhaupt die Schreib-/Lesegeschwindigkeit der Platten, oder nicht eher das Zusammenspiel zwischen Mechanik und Cache testet.
kleiner 16kb.PNG
kleiner 256kb.PNG
 
Hey,

da ich momentan mit dem Gedanken spiele, 3 der (8TB) Archive in nem RAID5 einzusetzen (später sollen bei Bedarf weitere Disks folgen), würde mich die Leistung der Festplatte beim Überschreiben interessieren.

Falls du eine Möglichkeit dazu siehst, würde ich dich bitten folgendes Szenario zu probieren:
-Erstelle eine Partition beliebiger Größe (am besten irgendwo in der “Mitte” der Platte), ich würde mal um die 50GB Größe vorschlagen.
-Beschreibe die Partition vollständig (oder fast vollständig), eine große Datei müsste funktionieren, dabei die Zeit messen.
-Anschließend die Datei löschen und eine neue (im Idealfall andere) Datei mit gleicher Größe drauf schreiben, auch hier natürlich die Zeit messen.
-Eventuell den letzten Schritt mehrfach wiederholen, vielleicht ergeben sich hier weitere Abweichungen.

So wie ich das sehe, müsste dieser Vorgang die Platte zwingen den Bereich zu überschreiben wobei dann die anliegenden Spuren mitgeschrieben werden müssten.

Der Test wäre natürlich auch mit vielen kleineren Dateien interessant, entsprechend dann hier die Partition kleiner machen, sollten wieder sehr gute 90% Füllgrad sein.

Wäre super, wenn man dazu ne Aussage bekommen könnte :)

Danke und Grüße,
CruX
 
Das kommt drauf an wie clever die Algorithmen sind. Mit etwas Pech funktioniert das nicht. Wenn die Datei gelöscht ist, dann sind die anderen Spuren beim überschreiben egal.
 
Die Platte selbst wird aber wohl eher nicht Filesystem-aware sein, sofern da also kein explizites Command über den Controller geht, dass die entsprechenden Sektoren frei sind (wie es TRIM beispielsweise machen würde), könnte ich mir schon vorstellen, dass das funktioniert.

Grüße
 
Zurück
Oben