Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSeagate HAMR: Die Basis für 70-TB-HDDs steht schon im Labor
Hoffentlich ist das am Ende nicht auch Fehler anfälliger.....was die an Geld in die Miniaturisierung reinstecken, wäre billiger, die Gehäusehöhe einfach zu verdoppeln
Ich hab mir schon öfter gewünscht, daß HDD mit größerem Platten Durchmesser (wieder) erscheinen würden. Solche gab's ja schon einmal, und nicht nur für Mainframes. Gerade für "cold storage" ist die Geschwindigkeit für mich eher zweitrangig (okay, über 100 MB/s sollten schon drin sein), aber da Fläche mit dem Quadrat des Radius skaliert, wären größere Platten ein Weg zu mehr Kapazität. Hauptproblem wird sein, daß es nur sehr wenige Hersteller von HDD Platten gibt, und die konzentrieren sich natürlich auf die Formate, die am meisten nachgefragt sind.
mkossmann schrieb:
D.h. ein HDD internes RAID0 ? Technisch möglich. Aber weniger flexibel als beide Aktoren nach außen durchzureichen. Damit der Anwender entscheiden kann, ob er ein RAID0 will.
Ja, im Prinzip kann man eine HDD mit dualen Aktoren als RAID0 betreiben. Allerdings hat man dann ein "RAID im RAID", wenn man ein RAID mit parity check betreiben will, und eine Rekonstruktion nach Ausfall wird schnell kompliziert. Es gibt zwar noch solche HDDs ( von Seagate und WD) aber durchgesetzt haben sich solche HDDs nicht. Vielleicht hat einer der Kollegen hier im Forum, der sich beruflich mit Datensicherung beschäftigt, mehr Informationen dazu warum zB die X2 Seagates sich nicht besser verkauften.
Ich hab mir schon öfter gewünscht, daß HDD mit größerem Platten Durchmesser (wieder) erscheinen würden. Solche gab's ja schon einmal, und nicht nur für Mainframes.
Ich meine mich noch daran zu erinnern, dass die wegen Schwingungsproblemen eingestellt wurden.
Die Quantum Bigfoot z.B. war auch schnarchlangsam, hohe Zugriffszeit und geringere Drehzahl, im Vergleich zu 3,5 Zoll Platten.
Was bei einem reinen Datengrab noch verschmerzbar wäre - die Frage ist nur, könnten die heutigen Platterdicken und Stapeldichten bei 5,25" überhaupt gebaut werden, selbst wenn die Drehzahl niedrig bleibt?
Ich fürchte fast, da könnte es Probleme mit den Materialsteifigkeiten geben...
wie viele Menschen kaufen sich ne teure SSD, legen Daten einmalig drauf ab zur Langfristarchivierung, entfernen die SSD aus dem Computer, legen sie sich ewig in den Schrank ohne irgendein Zweitbackup?
Ich gehe ja bei Dir mit, dass SSD nichts für Langzeitarchivierung sind. Das ist allerdings mit HDD auch nicht zuverlässig, ebenso wenig wie normale Standard CDs- und DVDs. Je nachdem wie man Langzeit definiert.
Aber Backups/Archivierungen auf Flash-Speicher wie auf ext. SSD Gehäusen oder auf USB Sticks, gerade im Homebereich, machen durchaus jede Menge Leute, viele auch redundant. Weils kompakt, schnell, unkompliziert und mittlerweile günstig geworden ist. Zudem immer mehr bereits ein Haufen von diesen Medien herumfliegen
haben und somit noch einer weiteren Nutzung, für ihre im Privatbereich überschaubaren Datenmengen, zuführen können. (vor dem Ausrangieren)
Nee, eine HDD stirbt bei Lagerung. Einmal hat hat bitrot. Dabei kippen einzelne Bits ohne entsprechende Maßnahmen sind die Daten, bzw. Diese eine Datei dann kaputt. ZFS ist da sehr gut, Checksummen und Parität erkennen den Fehler und stellen wieder her.
Jede Festplattenfirmware erkennt Bit-Fehler selbst per ECC und stellt Daten automatisch wieder her. Beim heutigen Leseverfahren PRML "kippen" auch schon lange keine Bits mehr, denn es wird mit quasi analogen Werten gearbeitet wie bei MLC-Flash. Ohne eine vernünftige Fehlerkorrektur wären die heutigen Datendichten nicht mehr möglich.
Schafft eine Festplatte mal ausnahmsweise nicht, ihre Magnetisierung zu entschlüsseln (meistens sind dann aber die Leseköpfe defekt), meldet sie das an den Host und es gibt den bekannten "defekten Sektor", bis er das nächste mal überschrieben wird. Wie bei einer handelsüblichen SSD eben. Kein Mensch braucht dafür ZFS.
Die "Datei ist dann kaputt" gibt es bestimmt auf irgendwelchen Fake-USB-Sticks von Temu, aber sicher nicht auf Festplatten und SSDs von Markenherstellern.
Ich meine mich noch daran zu erinnern, dass die wegen Schwingungsproblemen eingestellt wurden.
Die Quantum Bigfoot z.B. war auch schnarchlangsam, hohe Zugriffszeit und geringere Drehzahl, im Vergleich zu 3,5 Zoll Platten.
Die Bigfoot war schon langsamer, aber eben auch "big" von der Kapazität her. Für "cold storage" ist Geschwindigkeit ja eher zweitrangig, hier ist eher Kapazität entscheidend.
Die Schwingungen waren ein Problem, frage mich aber, ob das mit neueren Materialien und optimierter Fertigung nicht besser kompensiert werden könnte?
Die Bigfoot war ein Budget-Modell für damalige Billig-OEM-PCs. Eingestellt wurde sie, als es dank Einführung von GMR-Köpfen keinen Kostenvorteil mehr gab. GMR hat die mögliche Kapazität von Festplatten mal satt vertausendfacht. Damit ging es überhaupt erst von Gigabytes zu Terabytes (gut, PMR musste man dafür ein paar Jahre später auch noch einführen).
Der Flächengewinn beim Formfaktor beträgt demgegenüber gerade mal Faktor 2 und bei der Drehzahl und Datendichte muss man wegen der Vibrationen dann noch weiter runter. Die erste Festplatte mit GMR-Köpfen war übrigens die IBM Deskstar 16GP im Jahr 1997.
Was mir schwer zu schaffen macht ist das wenn so ne Platte kaputt geht, danj dauert der Rebuild von einem RAID bei 100MB/s mal eben 8 Tage.... 8!... Ist das überhaupt vertretbar?
Im Schnitt. Letzt erst so um die 7TB Daten gemoved mit großen Files und das lief durchgehend bei dem Speed durch. Resilvering nach dem Hinzufügen neuer HDD läuft z.B. auch mit über 200MB/s durch.