News Seagate Exos: Erste HAMR-HDD mit 16 TB „voll funktionsfähig“

@Cool Master
Ich dachte eigentlich diese Faustregel gilt vor allem wenn man Dedup von ZFS nutzt.


Wie lange bei den HAMR HDDs wohl die Dauer der Stromlosigkeit ist - ist ja nicht so, dass die einmal gefüllt ohne Probleme 10 Jahre lagern können.Da geben Hersteller ja auch Zeiträume an.
 
Im Artikel heißt es "Verschiebungen lassen Skepsis". Genau das wäre auch mein Gefühl, wenn ich mir eine HDD mit dieser Technik in den Rechner stecken würde. Da muss man erstmal Erfahrungen im Praxisbetrieb abwarten, bevor man (wichtige) Daten dieser Plattengeneration überlässt.
 
andi_sco schrieb:
Verflucht geiles Titelbild von Seagate
Dient allerdings rein Marketingzwecken und hat nichts mit der Realität zu tun.
Der Abstand zwischen den Schreib-/Leseköpfen und der Plattenoberfläche liegt bei einem Mikrometer.
Und ich bezweifle das der Laser grün ist, meiner Vermutung nach wird das ein Infrarotlaser, das was der aussendet könnten wir Menschen gar nicht sehen.
 
Shoryuken94 schrieb:
Allerdings hat eine CPU keine mechanischen Bauteile. Bei einer festplatte kommen nun immer mehr potentielle Fehlerquellen hinzu...
Ab welcher Baugröße gilt ein Transistor eigentlich nicht mehr als mechanisches (eher elektromechanisches) Bauteil? Das wäre mal eine interessante Frage :)

EDIT:
Ach Gottchen, was hatte ich denn hier gerade im Kopf?! Ein Transistor ist natürlich alles andere als ein mechanisches Bauteil, irgendwo hat sich da wohl gerade ein RELAIS in meinem Hirn mechanisch verschaltet :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shoryuken94
WinnieW2 schrieb:
Dient allerdings rein Marketingzwecken und hat nichts mit der Realität zu tun.
Der Abstand zwischen den Schreib-/Leseköpfen und der Plattenoberfläche liegt bei einem Mikrometer.
....

Keine Angst, ist mir bewusst
 
luckysh0t schrieb:
Ich dachte eigentlich diese Faustregel gilt vor allem wenn man Dedup von ZFS nutzt.

Genau das ist ja einer DER Vorteile von ZFS und warum man es nutzt ;)

menace_one schrieb:
BTRFS ist keine Option?

Wäre auch ne Möglichkeit, nutze ich akutell (ohne ECC) in meinem Synolgoy und kann bis jetzt nichts negatives berichten, außer dass es bereits einige male gesagt hat dass es defekte Sektoren auf der HDD gefunden hat aber die SMART Werte sind 100% sauber. Schwer zu sagen ob das an BTRFS lag/liegt oder an Synology und derren Implementirung.
 
Cool Master schrieb:
Ja das ist halt das Problem, auch hier im Forum. Die einen sagen 1GB/TB ist Pflicht die anderen sagen das ist nur für Enterprise und es lagen 8-16 GB. Ich wüsste nun ehrlich gesagt nicht auf wen ich hören sollte :(

Deswegen wird es wohl wieder ext4 werden weil es einfach zu viele Meinungen gibt und keine klare Vorgaben.

Ich kann da aus Erfahrung berichten, aktuell betreibe ich ein Debian Linux mit 20GB ECC reg DDR4 Ram und zwei ZFS Volumes. Beide ohne deduplication, mit compression. 16TB und 20TB.

Anfangs wars ein 6TB ZFS, dann 16TB, jetzt 16+20. Ich kann also etwa berichten wie das mit dem Rambedarf ausgesehen hat.

6TB warn noch unter FreeNAS, ab den 16TB debian linux.
Anfangs lief das Teil mit 4GB Ram, das hat für die 6TB gereicht.
Irgendwann habe ich auf 16TB gewechselt, dann waren die 4TB klar zu wenig, es kam zu slowdowns. Mit 8GB liefs recht gut, irgendwann hab ich aus prinzip auf 16GB aufgestockt, schon da hat das nichtmehr wirklich viel gebracht. Jetzt hab ich 16+20TB und der Ramverbrauch ist nur relativ unwesentlich angestiegen, 16GB wuerden reichen.

Meine Schlussfolgerung: Der Ramverbrauch steigt nicht linear mit dem verfuegbaren ZFS Pool Speicher.
Es faengt zwar mit einer 1:1 Relation an, jedes weitere TB braucht aber nichtmehr ein weiteres GB Ram.

Das wird mit deduplication anders aussehen, aber ohne kann ich klare Entwarnung geben !
 
Cool Master schrieb:
Ja das ist halt das Problem, auch hier im Forum. Die einen sagen 1GB/TB ist Pflicht die anderen sagen das ist nur für Enterprise Dedup und es lagen 8-16 4GB. Ich wüsste nun ehrlich gesagt nicht auf wen ich hören sollte :(
Habs mal korrigiert. Prinzipiell haben alle recht, reden aber nicht vom selben Usacase.
 
Ich bin auch der Meinung, dass herkömmliche Festplatten schon ausgedient haben. Erhitzen von Speichermedien... das ist doch total falscher Weg. Es wird langsam Zeit nach neuen Technologien umzuschauen, wie zum Beispiel Memristoren. Zieht es euch mal rein:

https://de.wikipedia.org/wiki/Memristor
 
Wäre nice wenn wenigstens mal die 14TB Exos erhältlich wäre...
Aber schön dass es wenigstens langsam weitergeht
 
Marcel55 schrieb:
finde das irgendwie beängstigend welche Tricks angewendet werden müssen um die Datendichte zu erhöhen
Das haben die Leute wahrscheinlich schon geschrieben als man von Longitudinal Recording auf Perpendicular Recording gewechselt ist. Oder als man die ersten Tubrolader an Dieselmotoren geschraubt hat.
Skaro schrieb:
ZFS erkennt Bitflips
Nur das HDDs normalerweise eben keine falschen Daten liefern, sondern eben einen Lesefehler wenn die die Daten eines Sektors nicht korrekt lesen und auch nicht anhand der ECC dahinter korrigieren können. Die Bitflips vor denen so viel Angst geschürt wird, kommen vielleicht von Fehlern auf den internen Datenpfaden oder FW Bug, meist passieren sie aber im RAM des Rechners.
bensen schrieb:
Nächstes Jahr heißt es dann 2022...
Vielleicht, aber dies ist doch immer noch besser als wenn die Kunden dann Betatester spielen müssen weil sie unausgereift Produkte bekommen.
 
WinnieW2 schrieb:
...
Der Abstand zwischen den Schreib-/Leseköpfen und der Plattenoberfläche liegt bei einem Mikrometer.
...

Wirkt doch angenehm groß, der Abstand :D *duck und weg*
HDD Kondenswasser (3-2).jpg
 
Beitrag schrieb:
Diese "Tricks" sind doch das, was uns Fortschritt verschafft.
Beles dich mal, welche Tricks man anwendet, damit DRAM bei solch winzigen Kapazitäten/Strukturgrößen überhaupt noch funktioniert - da musst du ja richtig Angst kriegen. :p

Man darf da als "Normalmensch" eigentlich gar nicht drüber nachdenken. Ein Großteil moderner Elektronik funtioniert rein aufgrund Nutzung quantenmechanischer Prinzipien. Wenn man es mal laienhaft ausdrückt, aufgrund einer Physik, in der die Grenzen zwischen einer klar definierten Realität und undefinierten Zuständen verschwimmen. Und von der Quantenwelt wissen wir gerade mal so viel, dass wir uns einige Effekte davon zunutze machen können. Aber ursächlich verstanden hat die Menschheit sie noch nicht.
 
  • Gefällt mir
Reaktionen: andi_sco
Ich würde gerne wissen, ob ich jemals alle meine Daten auf nur einer Festplatte speichern können werde.
Aktuell habe ich etwas über 30 TB an Daten und es werden jedes Jahr immer mehr.

Je mehr Daten ich habe, desto höher ist meine Angst diese zu verlieren. Zwar sind meine Daten alle doppelt gespeichert und in feuerfesten Tresoren verstaut, falls irgendwie mal ein Brand entstehen sollte, aber ein sicheres Gefühl werde ich wohl nie haben.
Ein Faradayscher Käfig wäre wohl die nächste Stufe. :freak:
 
DerPessimist schrieb:
...

Je mehr Daten ich habe, desto höher ist meine Angst diese zu verlieren.
...
Ein Faradayscher Käfig wäre wohl die nächste Stufe. :freak:

Bandlaufwerke sind wohl am sichersten, resistent gegen Erschütterung und altern besser.
Ansonsten, melde dich bei drei Cloud Anbietern an, dann hast da zusätzliche Sicherheit und bei Datenverlust hilft die NSA aus ;)
 
DerPessimist schrieb:
in feuerfesten Tresoren verstaut
Woraus bestehen denn die Tresore? Meist doch zumindest überwiegend aus Stahl.
DerPessimist schrieb:
Ein Faradayscher Käfig
Ein Tresor sollte eigentlich genau so ein Faradayscher Käfig sein.
 
WinnieW2 schrieb:
Der Abstand zwischen den Schreib-/Leseköpfen und der Plattenoberfläche liegt bei einem Mikrometer.
Verdoppele das lieber und nimm Nano- statt Mikro-, dann passt es.
Das, was Intel, Samsung, TSMC & Co. als Sensation verkaufen, ist den Festplattenherstellern als Luftspalt deutlich zu dick.:D
 
Zurück
Oben