Welches Festplattengehäuse für eine 18 TB Festplatte?

@Ltcrusher
Nun ja, Contoller würde ich das jetzt nicht nennen, was in den externen Festplattengehäusen verbaut ist. Das ist ein Bridge-Chip, der zwischen dem SATA- und dem USB-Protokoll übersetzt. Und in der SATA- sowie in der USB-Spezifikation ist genau festgeschrieben wie viel die jeweilige Schnittstelle maximal verwalten können wird (aufgrund der verwendeten Adressierungsbreite).

Gut, bei Bugs und wenn sich Chip-Hersteller nicht so genau an die Spezifikationen halten, können diese Grenzen schon mal nach unten wandern. Ich wüsste jetzt aber keinen Grund, weshalb das genau bei der 18 TB Marke der Fall sein sollte. Die letzte relevante Grenze lag bei 2 TiB, was aber im Grunde gar keine Grenze der Hardware-Schnittstellen war sondern der Software. USB-Festplattengehäuse waren davon betroffen, weil die Hersteller der Bridge-Chips nicht die vollen 48-Bit der SATA-Schnittstelle (max. 128 PiB) oder gar die 64-Bit der USB-Schnittstelle (max. 8 ZiB) implementiert haben, sondern nur eine 32-Bit-Adressierung. Alte USB2.0 Gehäuse oder Adapter hängen immer noch an dieser Grenze. Aktuelle USB3.1/3.2 Gehäuse sollten auch mit einer 18 TB Festplatten kein Problem haben. Selbst eine 36-Bit-Adressierung würde ausreichen, um eine 18 TB Festplatte zu verwalten. Warum sollte irgendein Hersteller nur von 32 auf 35 Bit erhöhen, um größere Kapazitäten zu unterstützen?

Ltcrusher schrieb:
Kannst ja z.B. mal versuchen, eine 18 TB Platte an ein Asus P5K anzuschließen, wenn der der Controller egal ist.
Sprichst du bei speziell diesem Board aus Erfahrung oder hast du das nur als Beispiel herangezogen? Denn vorausgesetzt, man nutzt ein relativ aktuelles Betriebssystem und achtet auf die Treiber, sollte es eigentlich kein allzu großes Problem darstellen eine 18 TB Festplatte an diesem Board zumindest als Datengrab zu betreiben. Die SATA-Schnittstelle wäre dazu in der Lage. Probleme haben bei den alten Mainboards in Verbindung mit großen Festplatten und den damaligen Betriebssystemen in der Regel die Treiber bereitet, die ebenso wie die SATA/USB-Bridge-Chips eine 32-Bit-LBA-Limitierung hatten. Natürlich kommt hier auch noch die GPT-Unterstützung (Aufgabe des Betriebssystems) ins Spiel und Windows davon booten ist wieder eine andere Baustelle.

Natürlich können bei der Kombination von aktueller und uralter Hardware immer irgendwelche Kompatibilitätsprobleme auftauchen. Je weiter die Komponenten zeitlich auseinander liegen, desto wahrscheinlicher. Ich sehe aber immer noch keinen Grund, warum das bei aktuellen USB3.x/SATA-Bridge-Chips in Verbindung mit einer 18 TB Festplatte der Fall sein sollte.

Diese "max. unterstützte Festplattenkapazität"-Angabe gibt es so lange es externe Festplattengehäuse gibt. Ist eine Schnittstelle, bzgl. der adressierbaren Kapazität, noch nicht ausgereizt (weil es die entsprechende Hardware noch nicht gibt), beziehen sich solche Angaben immer nur auf die zum Zeitpunkt der Markteinführung maximal verfügbaren Festplattenkapazität (mit der die Gehäusehersteller ihre Produkte testen konnten). Oft werden diese Angaben im Laufe der Zeit und mit erscheinen größerer Laufwerkskapazitäten nicht aktualisiert. So gab es auch Gehäuse, die beispielsweise laut Datenblatt nur bis zu 3 TB unterstützen, aber dennoch problemlos mit 6 TB Festplatten (und größer) umgehen konnten.
 
  • Gefällt mir
Reaktionen: Purche und Turbulence
Groug schrieb:
CrystalDiskInfo hat den Nachteil das es nur die SMART Werte lesen kann. Die kurzen/langen SMART Tests macht es leider nicht.
diese halte ich für in den meisten Fällen verzichtbar! Die belasten die Platten nur unnötig stark. Die Smart-Werte sind sowieso immer Echtzeitwerte. Wenn diese Fehler zeigen, braucht man auch keinen erweiterten Smart-Test mehr, lieber gleich Daten sichern, als die Platte mit solchen Härtetests noch weiter zu schinden. 100% Nummer sicher erreicht man sowieso nur mit einmal komplett vollschreiben.
Aber nur meine Meinung!

@Topic
Würde mir keine Einzelgehäuse mehr kaufen, eher auf Multibay setzen, optimalerweise schraubenlos. Wie die von 2, 4- oder 5-Bays Orico oder günstigere. Spart Anschlüsse und hat noch Reserven für die Zukunft, oder um ältere/kleinere Platten noch weiter nutzen zu können. Ist natürlich etwas kostspieliger, aber kauft man ja auch nicht wie Butter und etwas günstiger als eine weitere NAS.
Wer das wirklich nur zum testen will, kommt mit einem offenen HDD-Dock praktisch weg.
 
  • Gefällt mir
Reaktionen: Turbulence
Relict schrieb:
diese halte ich für in den meisten Fällen verzichtbar!

Ich nicht, ich hatte schon einige Platten die per SMART okay waren aber bei einen kompletten Test abgebrochen haben. Solange Sektoren im normalen Betrieb nicht benutzt werden, kann ein Fehler bei SMART auch nicht angezeigt werden. Neue Platten teste ich grundsätzlich komplett.

Ansonsten legen die meisten Docks die Platten ohne Traffik leider schlafen, was einen SMART Test abbricht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Turbulence und Purche

@Groug

Ja, deswegen schrieb ich ja, 100% Sicherheit nur bei komplett beschreiben. Das macht man allerdings meist nur einmal am Anfang, da recht aufwendig.

Diese Smarttests testen die Platten auch nicht komplett durch. Schrubben sie nur an bestimmten Stellen. Sektorfehler am Platter sind nicht das einzige, die ganze Mechanik wird dabei stark beansprucht. Eine gerade angeschlagene Platte wird dadurch nicht besser. Nur weiß mans halt eher, wenn sie was finden sollten bzw. ruft Fehler sogar dadurch erst hervor durch diese ständige Extrembelastung.

Ungenutzte, kaputte Sektoren sind erstmal auch kein Beinbruch, Dafür haben die Platte Reservesektoren. Wenn sie mal benötigt werden, wird die Platte und der Smartwert das registrieren. Da bleibt in der Regel genug Zeit zu handeln ohne Datenverllust, vorausgesetzt man kontrolliert das auch regelmäßig. Backup hat man doch sowieso.
Diese ganzen Autostests wie Smarttests, oder das verkorkste Ironwolf-Healtmanagement wiegen den User oft in einer Scheinsicherheit und schlagen erst an, wenn die Smartwerte selbst schon ganz anderes aufzeigen. Das scheint Methode der Hersteller.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Turbulence
Relict schrieb:
Eine gerade angeschlagene Platte wird dadurch nicht besser.

Mir haben angeschlagene Platten schon mehrfach Raids zerlegt. Besser definitiv testen und aussortieren.

Relict schrieb:
ruft Fehler sogar dadurch erst hervor durch diese ständige Extrembelastung.

Das ist kaum anders als ein Raid rebuild bzw. der regelmäßig Verify Lauf den man bei Raids machen sollte.

Relict schrieb:
Diese Smarttests testen die Platten auch nicht komplett durch.

Äh, wenn du der Platte sagst sie soll alles testen, macht sie das in der Regel auch.
 
  • Gefällt mir
Reaktionen: Turbulence
Zurück
Oben