Ist meine 1TB HDD im Eimer?

Fusionator schrieb:
[...] sollte man keine allgemeingültige Aussage ableiten.
[...]
Mach ich doch gar nicht, ich weise nur darauf hin, dass eine Platte durch so ein Einmalereignis nicht immer oder allgemeingültig kaputt sein muss - also ich sage ja gerade das Gegenteil einer Allgemeingültigkeit. Es kann passieren, dass die tatsächlich noch ganz ist. Und du hast jetzt deine eigenen Anekdoten, nach denen "in 40 %" deiner Fälle die Platten noch brauchbar waren. Du nutzt Badblocks und mein Anliegen meines Einmischens in diesem Thread war eben, dass chksdk /r dort genutzt werden kann, wo man kein badblocks hat.

P.S.
"Brilliant" finde ich die Idee, überhaupt eine Kathegoriesirung von gut genug als Einsatz für Backup-Platte oder nicht vorzunehmen. Wer Backup so versteht, dass das der eine Datenträger ist, dem nie was passieren können darf, hat Backup nicht verstanden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: User007
Naja, brauchbar habe ich ja nicht wortwörtlich geschrieben 🙈 , aber man könnte es so interpretieren.
Wenn dir aber X Stück solcher Platten für lau in die Hände fallen, kann man einfach ein bisschen experimentieren. Ich würde aber solche Platten z.B. nie guten Gewissens verkaufen.

Abgesehen davon behielt das SMART Attribut Reallocation Event Count trotz der verschwundenen schwebenden Sektoren, seinen Wert bei. Da wären bei mir als Käufer schon die Alarmglocken angegangen.
Bei den noch funktionierenden Platten hat sich der Wert allerdings auch nicht mehr verändert.
Dabei hatten aber alle geretteten Platten keine wiederzugewiesenen Sektoren!

Da ich die äußeren Umstände in dem Fall kannte, habe ich mal auf übermäßige Vibrationen getippt.

Ok, das war jetzt wohl doch eine Anekdote 😅 Soll aber niemanden dazu ermutigen solche Platten zu verwenden, denn nur allzu oft fallen die kurz danach wieder aus oder sind schlimmstenfalls komplett hinüber.
 
  • Gefällt mir
Reaktionen: Sebbi
Inzersdorfer schrieb:
Aber die Idee, eine Platte auf der es bereits massiven Datenverlust gab, als Backupmedium zu nutzen ist geradezu brilliant.
Nicht, dass das ja auch i-wo angeregt bzw. geäußert worden wäre, aber darf man eigtl. als Nutzer im Privatbereich nicht mehr zu seinem Eigentum (zumind. gesetzlich zugestanden) auch noch so risikobehaftete Entscheidungen selbst treffen?​
Inzersdorfer schrieb:
Unwichtige Dateien löscht man.
Pauschal einfach falsch, weil jeder gemäß seiner Priorisierungshierarchie 'ne individuell andere Definition von "unwichtig" hat - und dazu von polemischer und intoleranter Bevormundung getragen.
Zum Glück darf/kann/soll(muß) auch das von jedem selbst entschieden werden!
Fusionator schrieb:
Da wären bei mir als Käufer schon die Alarmglocken angegangen.
Im Privatbereich? Das kommt doch wohl eher selten(st) vor, dass man da eine "lückenlose" Test-/Reparatur-Dokumentation zu 'nem Laufwerk bekommt.​
 
  • Gefällt mir
Reaktionen: SleperCremp
SleperCremp schrieb:
Nach dem Formatieren und chkdsk, gibt CrystalDiskInfo folgende Infos: (siehe Screenshot)

Sagte ich ja, dass die HDD nicht hinüber ist ;)

Ich würde der HDD auch nicht mehr wichtige Sachen anvertrauen aber man kann sie durchaus noch nutzen. Wie immer gilt aber 3-2-1 Backup!
 
  • Gefällt mir
Reaktionen: User007 und SleperCremp
Ich hatte mal ähnliches Verhalten auf einer 5TB WD Green.

Formattiert und wieder in Betrieb genommen, das waren ja nur 2-3 schwebene Sektoren.

Ein paar Monate später war die wieder ausgefallen mit Verlust von großen Teilen der Daten auf der Platte und danach komplett unbrauchbar.

Seitdem habe ich deutlich bessere Backups...
 
  • Gefällt mir
Reaktionen: Sebbi
Rickmer schrieb:
Ein paar Monate später war die wieder ausgefallen mit Verlust von großen Teilen der Daten auf der Platte und danach komplett unbrauchbar.

Das ist typisch für einen Oberflächenschaden durch Materialveränderung und genau das was ich in #12 schon sagte.
Man kann solchen Platten, auch wenn umwelttechnisch und finanztechnisch ne Katastrophe ist, nicht mehr vertrauen.
 
Sebbi schrieb:
Das ist typisch für einen Oberflächenschaden durch Materialveränderung und genau das was ich in #12 schon sagte.
Man kann solchen Platten, auch wenn umwelttechnisch und finanztechnisch ne Katastrophe ist, nicht mehr vertrauen.
Naja, keiner Platte oder SSD kann man komplett vertrauen. Jede könnte mit einer gewissen Wahrscheinlichkeit von jetzt auf gleich komplett tot sein. Auch brandneue und wo bis kurz zuvor alle SMART-Werte top sind.

So gesehen braucht man die Daten sowieso immer auf mindestens 3 unabhängigen Speichermedien. Wenn man verdächtige Platten dafür mit nutzt, die man aus der Primärnutzung abgezogen hat, dann halt im Zweifel noch ein Backup mehr. So kann man dann solche Platten noch recht bedenkenlos nutzen und oft laufen sie ja noch jahrelang weiter. Und nur was wirklich ausfällt bzw. sich rapide verschlechtert wird aussortiert. So kann man durchaus unter dem Strich viel Geld sparen...
 
  • Gefällt mir
Reaktionen: SleperCremp und User007
Purche schrieb:
Jede könnte mit einer gewissen Wahrscheinlichkeit von jetzt auf gleich komplett tot sein. Auch brandneue und wo bis kurz zuvor alle SMART-Werte top sind.

nunja, HDDs prüfe ich immer 1x bevor ich die nutze mit h2testw komplett durch, sollten da Inkonsistenzen auftreten, kann ich der Platte nicht vertrauen, auch wenn z.B. S.M.A.R.T gar nicht anspringt.

Purche schrieb:
So gesehen braucht man die Daten sowieso immer auf mindestens 3 unabhängigen Speichermedien.

genau so

Purche schrieb:
Wenn man verdächtige Platten dafür mit nutzt, die man aus der Primärnutzung abgezogen hat, dann halt im Zweifel noch ein Backup mehr.

nein, defintiv sollte man so einer Platte kein Backup mehr anvertrauen! ggf noch temporäre Daten, deren Verlust oder kleinere Datenfehler egal ist. Allerdingss sollten dann einen auch BSoD egal ein.

Purche schrieb:
So kann man dann solche Platten noch recht bedenkenlos nutzen

nein
 
Sebbi schrieb:
Doch, na klar. Ganz einfache Statistik.

Hier ein Beispiel. Für Kurzfassung einfach den Spoiler überspringen. Ansonsten bei Interesse aufklappen.

Sagen wir, mein Kumpel hat vier einwandfreie Platten á 12 TB im Einsatz, Backups bereits inkludiert.

  • 12 TB Hauptsystem, NAS mit 2 12TB Platten im RAID1
  • 12 TB Backupplatte 1
  • 12 TB Backupplatte 2
Sonderfälle wie Überspannungstod durch Blitzeinschläge, Wohnungsbrände, Diebstahl, Ransomware etc. lassen wir mal ganz außen vor und schauen nur ganz vereinfacht auf das Risiko eines zufälligen HW-Ausfalls.

Angenommen, die Wahrscheinlichkeit, dass eine der beteiligten 12TB Platten im nächsten Jahr ausfällt, sei für jede Platte 10% (auch stark vereinfacht und Badewannenkurve etc. mal außer Acht).

Dann wäre das Risiko, dass das Hauptsystem zufällig komplett ausfällt (gleichzeitiger Ausfall von A1 und A2) bei höchstens 1%.. Nur dann wäre er also aufs Backup angewiesen.

Die Wahrscheinlichkeit, dass beide Backupplatten zufällig im selben Jahr (oder gar gleichzeitig) kaputtgehen wäre dann ebenfalls bei (höchstens) 1%.
Der Supergau, dass mein Kumpel im kommenden Jahr durch gleichzeitigen Ausfall aller Platten seine Daten verliert, hätte in diesem Szenario (Spoiler) eine Wahrscheinlichkeit von angenommenen 0,01%. Bislang kann er damit richtig ruhig schlafen.
Ich rechne ihm jetzt aber vor, dass von 10.000 Usern, die so ein Setup betreiben wie er, im Mittel jedes Jahr einen so ein Supergau ereilt. Jetzt schläft er nicht mehr so gut. Aber so dicke hat ers leider nicht mehr im Geldbeutel.

Nun biete ich ihm an, ihm 4 alte Platten zu schenken, die ich ausrangiert habe. Zwei 2TB Platten, die "nur" alt sind und mir einfach zu klein geworden sind, aber immer noch laufen. Wer weiß, wie lang die es noch weiter tun. Zwei deutlich neuere 4 TB Platten, die ich zeitgleich gekauft habe. Eine habe ich aber wegen schwebenden Sektoren aussortiert, geht aber soweit bislang noch gut und die andere sieht noch gut aus, aber ich traue ihr nun auch nicht mehr so recht.

Wenn mein Kumpel seine max. 12 TB Daten jetzt zusätzlich noch verteilt auf meine Spender-Platten kopiert, wird sein gesamtes Ausfallrisiko keinesfalls größer, maximal kleiner. Wenn es ihn also wirklich erwischt, dass er derjenige der 10.000 Nutzer ist, den der Supergau ereilt, hat er jetzt seine Daten noch auf meinen 4 Platten. Wenn er smart war, hat er die wichtigsten Daten vielleicht auf die jüngste, fehlerfreie 4TB Platte kopiert...

Ich bleibe dabei, dass es sinnvoller ist, solche Platten als Teil eines vernünftigen Backupkonzepts einzusetzen (oder sie jemand dafür zu schenken, der es nicht so dicke hat), als sie einfach sinnlos in die Mülltonne zu kloppen...
 
Zuletzt bearbeitet:
Purche schrieb:

Kurzform: NEIN!

Langform: jeder der empfiehlt, solche Platten die Anzeichen eines Defektes haben, wieder in ein Backupsystem zu integieren, gerade DORT wo es auf Integrität und Datensicherheit ankommt, muss von allen guten Geistern verlassen sein. Oder echt daran glauben, das es sowas wie logische Ableitungen nicht gibt sondern alles nur durch absoluten Zufall passiert.

Purche schrieb:
Der Supergau, dass mein Kumpel im kommenden Jahr durch gleichzeitigen Ausfall aller Platten seine Daten verliert, hätte in diesem Szenario (Spoiler) eine Wahrscheinlichkeit von angenommenen 0,01%

Purche schrieb:
Die Wahrscheinlichkeit, dass beide Backupplatten zufällig im selben Jahr (oder gar gleichzeitig) kaputtgehen wäre dann ebenfalls bei (höchstens) 1%.


Schon mal Murphys Law kennengelernt? Denn das fordert man genau damit richtiggehend heraus.

und ui ui ui, das erzähle mal Hetzner!

https://www.heise.de/news/Hetzner-F...-Datenverlust-von-1500-Snapshots-6693181.html

wie groß war wohl da die Chance das passiert ..... merkste selbst oder?


Purche schrieb:
oder sie jemand dafür zu schenken, der es nicht so dicke hat

DAS wäre ne Option, aber nur unter dem absoluten Hinweis, dort keine wichtigen Daten abspeichern, die man nicht ersetzen kann und die Platte regelmäßig zu kontrollieren. Auch wenn es zu Lags und BSoD kommt ist diese Platte dann er erste Hauptverdächtige.
 
Zuletzt bearbeitet:
Sebbi schrieb:
ui ui ui, das erzähle mal Hetzner!

https://www.heise.de/news/Hetzner-F...-Datenverlust-von-1500-Snapshots-6693181.html

wie groß war wohl da die Chance das passiert ..... merkste selbst oder?
Das dort beschriebene System bzw. der Ausfall hatten absolut NICHTS mit Backups zu tun. Das war eine reine Verfügbarkeitslösung per Redundanz und Backups auf mind. zwei weiteren unabhängigen Instanzen hatte Hetzner offenbar nicht oder sie waren zu alt. Dass ein Resilvering die verbliebenen Platten unter besonderen Stress setzt ist auch nichts neues...
 
Purche schrieb:
Das dort beschriebene System bzw. der Ausfall hatten absolut NICHTS mit Backups zu tun.

es ging auch nicht um das Backup, sondern nur darum zu verdeutlichen, was passieren kann bei 0,01 % Chance das das so passiert ....
Und die Wiederherstellung von einer Backupplatte setzt diese genauso unter Stress mit hohen Datenlasten, viel Spaß mit der errechneten 0,01 % Chanche mit vorbelasteten Platten.
 
Egal wie penibel man nun die statistische Ausfallwahrscheinlichkeit modellieren könnte:

Kein Backup-Konzept dieser Welt wird schlechter wenn man zusätzliche Kopien auf noch so schlecht erhaltenen Medien anfertigt...
Aber viele Backup Konzepte würden besser werden. Hetzner wäre froh gewesen wenigstens sowas zu haben..
 
Oiii... 🙄

Sebbi schrieb:
[...] was passieren kann bei 0,01 % Chance das das so passiert ....
Genau das ist die ausschlaggebende Abwägung für eine ökologisch und ökonomisch basiert praktische Risikobewertung - passieren "kann" immer was, 100% Sicherheit gibt's für nichts (siehe meine Sig. 😉) und dafür ist das verbleibende Risiko dann akzeptabel!
Zusätzlich gibt's halt auch viele Feedbacks von Anwendern, deren praktische Erfahrungswerte eben all dieser grauen (Ausfall-)Wahrscheinlichkeitstheorie widersprechen, und man darf auch nicht außer Acht lassen, dass die Nutzungsbelastung von Datenträgern im Privatbereich (um den es hier geht) doch eher eine andere ist als im gewerblichen Gebrauch.
Sofern man bei schon drei vorhandenen Backups/Kopien von Daten auch noch einen vierten Satz auf mglw. nicht mehr "vertrauensvollen" Datenträgern sichert und dann in die mißliche Lage kommen sollte, dass man genau diesen Sicherungssatz verwenden müsste... ach herrje, was müßte da wohl alles an zwar nicht unmöglichen aber doch sehr unglücklichen Umständen zusammentreffen - und in dem Fall hätte man (zumind. m. E. n.) dann wohl doch höchst wahrscheinlich auch eher ganz andere Sorgen als über ein funktionsfähiges Backup, oder? 🤔​
Sebbi schrieb:
[...] jeder der empfiehlt, [...]
Ich sehe (hier) nirgendwo eine Empfehlung dazu und die Schilderung von in der Praxis gegenüber der Theorie anderen Erfahrungsverläufen ist durchaus legitim - eben da darf/kann/soll(muß!) dann jeder seine eigenen Schlußfolgerungen und resultierenden Entscheidungen treffen. 🤷‍♂️
Aber diese permanente Pauschalverdammung eines mal (in den Augen so mancher "Experten") "auffällig" gewordenen Datenträgers mit oft damit verbundenen Missionierungsversuchen zum sofortigen Austausch kommt doch eher einer "Empfehlung" sowie schon einer gewissen "technischen Bevormundung" gleich. 🤨

Hochspannend in diesem Zusammenhang finde ich auch immer den Verweis auf "wichtige" Daten.
Was ist denn das überhaupt - und definiert das nicht jeder individuell für sich selbst völlig subjektiv?
Allein in der Hinsicht ein zuweisendes Befinden für andere vorzunehmen wäre dann schon relativ anmaßend.​
 
  • Gefällt mir
Reaktionen: Purche
SleperCremp schrieb:
Mit chkdsk D: /f /r komme ich nach einigen rumprobieren bis Phase 5, aber die wird wohl zum beenden 3 Monate brauchen.

CrystalDiskInfo 8.17.3 Screenshot ist hier beigefügt.
Hallo!

Also erst einmal ist es natürlich nach annähernd 40.000 Stunden zu erwarten, dass mal Probleme auftreten, aber die sind nicht so gravierend wie man Dir hier glauben machen will. Gute Festplatten halten bis zu 100.000 Stunden und länger durch. Es ist vielmehr so, dass das "copy/paste"-Narrative sind, also viele einfach nur irgendwo die Meinung anderer einkopieren ohne wirklich zu verstehen was da steht. Vor allem, weil es ausgemachter Unfug ist, der quer durchs Netz immer wieder kopiert wurde. Manche einer glaubt sich eben als Informatiker/in, weil er eine IP manuell eingeben oder dabei zusehen kann wie sich sein Betriebssystem selbst installiert ^^.

Viele Fehler treten auf, weil Rechner einfach mal so ausgehen und dann die Daten im Plattencache verloren sind. Auch steht in dem einem oder anderen zugewiesenem Sektor deswegen irgendein Stuss, den keiner mehr versteht, weil Windows gerade was dort schreiben wollte als das Licht ausging. Man müsste diese Sektoren 'leeren', was Windows bedingt sogar kann. Das nennt sich in den Tools der jeweiligen Festplatte "Fehlerhafte Sektoren suchen/wiederherstellen". Wenn das Windows macht, hat zwar die einst dort liegende Datei einen 'Datscher' aber der Sektor ist wieder leer/frei.

Viel besser ist es allerdings die 'Laufwerksgeometrie' mal wieder neu auszurichten. Alle Geräte dieser Welt müssen hin und wieder nachgeeicht werden, auch Festplatten. Dazu gibt es zwar allerlei Tools, aber nur die Hersteller wissen wirklich wie ihre Produkte 'ticken'. Für Seagate gibt es beispielsweise die 'Seatools'. Hierfür müssen die Daten schon auf eine andere Platte migriert worden sein, denn das Programm mach ein LowLevel-Format. Wie effektiv das ist, kannst Du selbst ergründen. Mit HD-Tune-Pro kann man vorher die Oberfläche abtasten um Fehler zu finden. Die werden rot angezeigt. Mach das gleiche nochmal nach der 'Wiederbelebung' der Festplatte mit dem Hersteller-Tool. Wenn die Festplatte keine physikalischen Defekte hat, sind die roten Bereiche dann auch wieder grün.

Manch einer wird dir sicher unterjubeln wollen, dass die Festplatte quasi unbrauchbar/unsicher ist, nur weil mal Fehler gemeldet wurden. Wenn ein dicker Benz einen 'Datscher' hat und in der Werkstatt davon befreit wird, ist der auch nicht deshalb plötzlich schrottreif. Der fährt sogar besser, weil in der lange Gebrauch in der Wirklichkeit ihn quasi 'ausgewuchtet' hat. Wie ein paar lange eingelaufene Schuhe. Sie passen perfekt. Auch dann noch, wenn der Schnürsenkel reißt. Die Hauptfunktion 'laufen' geht noch sehr lange. Ähnlich bei Festplatten, bei denen es nur um logische Fehler geht. Der Vorteil bei Hersteller-Tools ist dabei auch, dass sie die bereinigten Fehler aus dem SMART löschen können. Erst, wenn es wiederholt auftritt, sollte man sich wirklich von der Platte trennen.

Hierzu eine kleine Anekdote: Ich habe ein älteres ASUS F5 Notebook, das ich für technische Angelegenheiten wie prommen verwende. Darin ist eine Platte mit 320GB (298GB nach der alten Zählweise), bei der ab 277GB defekte Sektoren sind, also physikalisch defekte. Alles davor ist aber noch in Ordnung. Also habe ich mit HD-Tune-Pro die Platte analysiert und nur eine Partition bis kurz vor den Fehlern erstellt. Dann ein BS und meine Technik-Tools installiert. Im BIOS habe ich SMART deaktiviert, denn ich weiß ja, dass sie einen 'Datscher' hat. Bis heute läuft das Teil im von mir eingeschränktem Modus problemlos, das sind etwa 4 Jahre.

Lasse dich also nicht von den Weisheiten der Pseudo-Informatiker hier und anderswo verwirren. Gerade im Bereich Computer lässt sich vieles wieder neu beleben, das auch zuverlässig weiterhin funktioniert. Alles andere ist nur süffisantes Geschwafel. ;o)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Purche
miramanee schrieb:
Gute Festplatten halten bis zu 100.000 Stunden und länger durch.

Sorry aber das ist purer Blödsinn und betrachtet nicht ma im Ansatz wie eine HDD betrieben wird. Wie mit allem "bis zu" Angaben ist das Blödsinn.

Klar, wird die HDD nie benutzt kann das hinkommen. Eine HDD ist aber nach ~5 Jahren durch, was dann rund 43.800 Stunden sind. Was aber natürlich nicht heißt, dass die HDD nach 43.801 Stunden direkt defekt ist. Das sagen die Hersteller und wie du selbst schon sagst:

miramanee schrieb:
[...] nur die Hersteller wissen wirklich wie ihre Produkte 'ticken'.

Das kann man nun also hinnehmen oder man zieht den Alu-Hut an und meint die wollen dir nur eine neue HDD verkaufen. Klar wollen sie das aber in 5 Jahren hat man idR auch Bedarf nach einer größeren HDD, zumindest war das die letzen 30 Jahre der Fall. Die HDDs werden halt immer komplexer über Helium und nun wohl "bald" HAMR. Da kann man die 5 Jahre durchaus als realistisch sehen.

Bei einer HDD spielt vor allem eins eine Rolle - der Workload und Einsatzort. Der Workload setzt sich zusammen aus den Schreib und Leseaktionen welche die HDD erlebt. Bei Consumer HDD sind das ca. 55 TB/Jahr bei Enterprise ca. 550 TB/Jahr und dann gibt es noch so ein zwischen Ding von Prosumer mit ca. 180 TB/Jahr. Bleibt man nun unter diesem Limit wird die HDD eher länger leben als wenn man es jedes Jahr überschreitet.

Neben dem Workload kommt es aber auch auf den Einsatzort an. Ist die HDD z.B. in einem Rechner verbaut der in der nähre eines Soundsystem mit Subwoofer steht? Das mögen HDDs nicht und die wird eher früher als später ausfallen. Wird es sehr warm im Zimmer? Das mögen HDDs auch nicht. Wie SSDs auch mögen sie es nicht zu kalt aber auch nicht zu warm die optimale Temperatur liegt zwischen 40° bis 50°C wobei Tendenz Richtung 40° eher besser ist.

miramanee schrieb:
Viel besser ist es allerdings die 'Laufwerksgeometrie' mal wieder neu auszurichten.

Nicht wirklich, vor allem weil man das seit Jahrzehnten überhaupt nicht mehr machen kann. Da der Controller das übernimmt und es fest programmiert ist. Das anpassen der Geometrie kann man seit min. 20 Jahren nichts mehr machen. Bei alten IDE Platten kann ich mich daran noch erinnern aber bei (SATA) Platten mit Linearmotoren habe ich das nie wieder gesehen.

Das gleiche gilt für den Low Level Format. Das muss man seit Jahrzehnten nicht mehr machen eben weil man die Geometrie nicht mehr beeinflussen kann. Mittlerweile langt ein langsames Formatieren in Windows da dies die HDD mit 0 überschreibt und somit z.B. schwebende Sektoren weg sind, wie hier im Thread passiert. Ebenfalls muss man die HDD auch nicht 7 mal überschreiben. Nach einem normalen (nicht schnellen) formatieren sind die Daten weg und das ist wissenschaftlich belegt.

miramanee schrieb:
Pseudo-Informatiker

Also ich bin Informatiker und kann nur sagen:

Lass dich nicht von Leuten verwirren die keine Ahnung haben und vor gefährliches Halbwissen strotzen.

Das Thema HDD ist nicht Binär und deutlich schwerer als "Gute Festplatten halten bis zu 100.000 Stunden und länger durch." Wie mit allem im Leben kommt es auf den Einsatz des Gerätes an. Um beim Auto zu bleiben ich kann ein Auto mit Regelmäßiger Wartung und angemessenem Umgang (Workload) für 50 Jahre fahren oder es gibt nach 5 Jahren schon den Geist auf weil ich z.B. immer ein viel zu schweren Anhänger Berge hochziehe und nie Ölwechsel mache.

Vor allem darf man alte HDDs mit geringer Kapazität nicht mit heutigen Vergleichen. Gerade das angesprochene alte 320 GB Modell sind Bomben stabil gebaut weil 1. nur ein Platter verbaut ist und entsprechend der Schreib- Lesekopf nur 2 Arme hat 2. die Komplexität ist also bei weiten nicht mit heutigen zu vergleichen und 3. wurden ältere HDDs noch nicht in Klassen (Desktop, NAS, Enterprise etc.) gefertigt wie das heute der Fall ist ergo sie waren nicht "Kostenoptimiert" wie es heutige sind.
 
Zurück
Oben