Suche Tool zum Testen der Festplattenkapazität

Krypton

Ensign
Registriert
Dez. 2005
Beiträge
220
Hallo,

habe mir erstmals eine HDD zugelegt, die mehr als 2TB fasst. Nun habe ich gelesen, dass es manchmal vorkommen kann, dass es ab einer bestimmten Menge an gespeicherten Daten, alte Daten z.B. gelöscht, überschrieben oder beschädigt werden und es nicht möglich ist mehr als ein bestimmtes Limit an Daten auf der HDD zu speichern.
Das hab ich allerdings schon vor längerer Zeit gelesen und damals auch von einem Tool gehört, das die Festplatte bzw. die verwendete Konfiguration darauf prüft, ob dieses Problem vorliegt oder nicht. Wenn ich es noch richtig im Kopf habe prüft das Tool die Platte indem es Zufallsdaten darauf schreibt.

Leider weiß ich nicht mehr wie dieses Tool heißt und konnte es bisher auch nicht mehr ergooglen.
Kann mir da vielleicht jemand helfen?

Im Übrigen hab ich bereits herausgefunden, dass man die Platte auf jeden Fall als GTP-formatieren muss, um überhaupt die volle Kapazität nutzen zu können, jedoch soll dies nicht vor dem beschrieben Problem schützen - sofern ich das richtig verstanden habe.

Bin mir sicher, dass der ein oder andere weiß, auf welches Problem ich anspreche und mir helfen kann, dass das bei mir nicht passiert.

Danke im Voraus :)
 
Von einem solchen Problem habe ich noch nie etwas gehört, von daher kannst du dir das sparen :-)
 
Nun habe ich gelesen, dass es manchmal vorkommen kann, dass es ab einer bestimmten Menge an gespeicherten Daten, alte Daten z.B. gelöscht, überschrieben oder beschädigt werden und es nicht möglich ist mehr als ein bestimmtes Limit an Daten auf der HDD zu speichern.

hast du die märchenbücher aufgeschlagen ?
 
Dein gelesener angeblicher Text ist eine Einbildung. Es ist richtig bei einer Größe über 2TB die Platte in GPT einzurichten, das man sie als ein ganzes Stück verwenden kann. Du kannst sie auch als MBR, nur dann muss sie in mehre Teile geteilt werden.
 
Das Verhalten gab es bei gefälschten USB Sticks. Dort wurde eine höhere Kapazität angegeben, als tatsächlich vorhanden war. So kam es auch zu Datenverlusten.
Bei Festplatten ist mir sowas nicht bekannt.
 
Hi,

das wäre mir absolut neu. Gibt es dazu irgendeine Quelle? Wo hast du das denn gelesen?

VG,
Mad
 
da hätte ich auch gern eine quelle dazu.

das einzige was ähnlich ist, ist die "angebliche" speicherkapazität von china-billigst-usb-sticks. aber das ist auch weit hergeholt. und die ursache ein andere (nämlich schlichtweg weniger speicherkapazität als angegeben).
 
Madman1209 schrieb:
das wäre mir absolut neu. Gibt es dazu irgendeine Quelle? Wo hast du das denn gelesen?

Das gabs so 2011-2013. Wenn Du eine Platte mit 3TB-Partition in einen Rechner hängst, dessen BIOS nur MBR und 2TB kennt, konnte es unter XP und WinVista passieren, dass vermeintliche Zugriffe oberhalb 2.2TB wieder bei 0 landeten. Danach war die Platte dann plötzlich wieder "leer".
 
Beim Programm HDD Sentinel wurde glaube ich irgendwann eine Überprüfung auf Adressierungsfehler integriert.
Ansonsten kann man zb auch mal mit HD Tune Pro Benchen. Da sieht man das dann anhand des Speedverlaufs und der Zugriffszeit.

Die angesprochenend Probleme gibt es halt unter anderem bei zb externen Festplatten deren Firmware die 3TB nicht unterstützt, oder bei internen Festplatten auf grund von veralteten SATA Treibern, vor allem bei den alten Intel. Bei verwenden der Windows eigenen SATA Treiber gabs bisher keine Probleme.
 
Nun das kann schon passieren wenn man nicht in GPT Formatiert .

Also einfach mal sagen dann Formatier in MBR und alles ist gut geht auch nicht ! Denn die Grundformatierung mit MBR beschreibt den Datenträger im ganzen und hört dann bei 2 TB auf . Man kann nämlich ohne Formatierung mit MBR oder GPT keine Partitionen erstellen weil ja sonst keine Partitionstabelle da ist !

Es geht mit einigen Tools auch diese Festplatten mit MBR zu betreiben... aber wenn er schon Windows 7 oder höher hat sollte er die Festplatte in GPT formatieren so ist sie voll einsatzfähig ( Bootbar aber nur mit Windows 7 64 bit )

http://www.heise.de/ct/hotline/FAQ-3-TByte-Festplatten-1183299.html

Weiter infos warum wieso weshalb

https://www.computerbase.de/forum/t...ann-maximal-als-2tb-genutz-werden-xp.1292563/

https://www.computerbase.de/2010-10/asus-macht-alle-hauptplatinen-3-tbyte-ready/

https://www.computerbase.de/2011-03/3tb-plus-unlock-software-fuer-gigabyte-mainboards/

Post #8 bringts auch auf den Punkt ... der Rest der drüber was geschrieben hat leider nicht ...

Post #2-#7 kannst leider gleich ignorieren .
 
Zuletzt bearbeitet:
Hi,

@blöderidiot & xxMuahdibxx

ja gut, das ist aber eine grundsätzliche technische Inkompatibilität, wie soll MBR das auch anders handhaben. Der TE schreibt ja recht deutlich

Im Übrigen hab ich bereits herausgefunden, dass man die Platte auf jeden Fall als GTP-formatieren muss, um überhaupt die volle Kapazität nutzen zu können, jedoch soll dies nicht vor dem beschrieben Problem schützen - sofern ich das richtig verstanden habe.

und das kann ich mir eben nicht vorstellen. Wenn die Platte mit GPT eingerichtet wurde dann sollte so etwas nicht passieren, das wäre mir ganz ganz neu.

VG,
Mad
 
@xxMuahdibxx
schlecht gelaunt?
 
blöderidiot schrieb:
Das gabs so 2011-2013. Wenn Du eine Platte mit 3TB-Partition in einen Rechner hängst, dessen BIOS nur MBR und 2TB kennt, konnte es unter XP und WinVista passieren, dass vermeintliche Zugriffe oberhalb 2.2TB wieder bei 0 landeten. Danach war die Platte dann plötzlich wieder "leer".

Genau dieses Problem meinte ich. Ich hatte das vor längerer Zeit mal gelesen, hatte mir damals aber doch keine größere Platte gekauft und deshalb nicht weiter verfolgt. Hatte aber in irgendeinem Forum gelesen, dass es eben ein Tool gibt, mit welchem man schauen kann, ob es nach dem Erreichen dieser Grenze Probleme gibt oder nicht, oder ob die Konfiguration, die man hat, problemlos mit der Platte arbeitet.

Dieses Tool scheint aber wohl keiner zu kennen :D

Mein Rechner ist nicht mehr der jüngste, aber da ich Win7 nutze, sollten also bei GTP-Formatierung höchstwahrscheinlich keine Probleme zu erwarten sein?
Bleibt nur die Frage, ob meine externe Docking-Station (Sharkoon Quickdeck) das dann noch mitmacht?? ^^ Ein Kumpel betreibt damit immerhin eine 3TB Platte, d.h. meine neue Platte (Seagate Archive 8TB) sollte damit doch auch funktionieren?
 
So etwas ist tatsächlich vorgekommen das Daten überschrieben wurden, bei alten Boards welche noch nicht mit so großen Platten umgehen konnten. Sein Board ist sehr alt und es nicht abwegig. GPT hin oder her, es kann auch sein das der PC nicht davon booten kann. Falls keine Betriebssysteme installiert sind könnte man zur Sicherheit auf eine SATA-Controller-Karte zurückgreifen.
 
Das Problem ist kein Märchen, sondern tatsächlich vorhanden.

Das Problem tritt auf, wenn irgendwo in Hardware oder Software die Adressierung auf 32 Bit limitert wird.
In Hardware habe ich dass bisher nur bei USB-SATA-Kontrollern (z.B. externe Adapter, Festplattengehäuse, HDD-Docking-Stationen) gesehen. In Software ist es meist der Treiber des SATA-Kontrollers.
Bei Hardware-Limitierung gibt es keine Lösung, den entsprechenden Kontroller/Adapter dann einfach nicht mehr mit "großen" Festplatten nutzten.
Bei einem Software-Problem ist es meist der (alte) Treiber, der gegen einen geeigneten Treiber getauscht werden muss.


Mit einer 32-Bit-Adressierung lassen sich nur 2 TiB adressieren.
Für größere Festplatten ist eine 48-Bit-Adressierung notwendig, diese gibt es seit ATA-6 (Ultra ATA/100), also schon seit dem Jahr 2000 und für PATA, weil die damalige Adressierung mit 28-Bit nur 128 GiB ermöglichte.

Wer nicht (mehr) weiß, warum dass so ist, kann im Spoiler nachlesen, wie die Grenzen der Adressierung bei 28, 32 und 48 Bit zustande kommen.

Der maximal adressierbare Sektor ergibt sich durch:
2 hoch "Anzahl der Adressbits"
Multipliziert man dies mit "Byte/Sektor" erhält man die maximal adressierbare Kapazität in Bytes.
Alle (bis heute mir bekannten) Consumer-Festplatten melden sich nach außen mit 512 Byte/Sektor.
Im Enterprise-Bereich gibt es auch Festplatten, die sich mit 4kByte/Sektor melden.

Für typischen Grenzen rechnen wie das mal durch:

28 Bit:
228 Bit = 268.435.456 Sektoren

268.435.456 Sektoren * 512 Byte/Sektor = 137.438.953.472 Byte

Mit etwas Umrechnungsmagie ergibt sich:
137.438.953.472 Byte / 10243 = 128 GiB


32 Bit:
232 Bit = 4.294.967.296 Sektoren

4.294.967.296 Sektoren * 512 Byte/Sektor = 2.199.023.255.552 Byte

2.199.023.255.552 Byte / 10244 = 2 TiB


48 Bit:
248 Bit = 281.474.976.710.656 Sektoren

281.474.976.710.656 Sektoren * 512 Byte/Sektor = 144.115.188.075.856.000 Byte

144.115.188.075.856.000 Byte / 10245 = 128 PiB

Zurück zum Problem:

Wird eine Festplatte größer 2 TiB korrekt eingerichtet (mit GPT an/in einem System ohne 32 Bit-Limitierung) kann sie dort auch problemlos genutzt werden.
Wird die Festplatte aber nun mit einer 32-Bit-Limitierung genutzt, droht Datenverlust, wenn versucht wird Daten auf eine Adresse oberhalb der 2 TiB zu schreiben. Die Adresse wird durch die 32-Bit-Limitierung falsch verarbeitet und die Schreibzugriffe erfolgen auf falschen Adressen. Dabei werden dann Daten an der falschen Adresse überschrieben, dass merkt man evtl. erst nicht, werden dabei aber Partitionierungsdaten oder Infos zum Dateisystem überschrieben, merkt man das spätestens beim nächsten Neustart, wenn auf der Festplatte keine Partitionen mehr erkannt werden oder die Partitionen kein gültiges Dateisystem mehr haben.

Wenn beim Partitionieren eine Festplatte mit zu geringer Kapazität erkannt wird, liegt meist schon eine Fehladressierung vor.
Mit einem passenden Treiber-Update lässt sich das Problem dann meist schon beheben.

Bei falscher Kapazität bitte nicht die Festplatte in einem anderen System oder mit Hilfe von Linux Partitionieren/Formatieren und dann hoffen, dass es schon gut gehen wird. Das wird es nicht. Windows liest die Partitionierungsdaten (vom Anfang der Festplatte) ein und zeigt eine korrekte Größe und Partitionierung an, die Fehladressierung und möglicher Datenverlust sind aber immer noch vorhanden.


Zum Testen schreibt man die Platte (fast) voll und testet, ob anschließend alle Daten noch korrekt vorhanden sind.
Ein Tool was genau das macht ist (das eben schon genannte) H2testw 1.4

bzgl. Sharkoon Quickdeck
ich finde den Threat nicht mehr, es gab hier im Forum aber vor ein paar Monaten jemanden, der mit einer Dockingstation auch diese Adressierungsprobleme hatte, wenn die Dockingstation über USB angeschlossen war. Über eSATA mit der gleichen Dockingstation aber nicht.
Grund ist, dass der USB-SATA-Chip eine 32-Bit-Limitierung hat, der Chip über eSATA aber nicht genutzt wird.
Teste deine Dockingstation also mit eSATA und USB.

Zusätzlich evtl. lesenswert von Foren-Mitglied Madnex:
[FAQ] Probleme mit 2,5 TB+ Festplatten
 
Zuletzt bearbeitet:
Na noch ein sehr ausführlicher Beitrag der das Problem näher erläutert.

lernt der Rest noch was dazu.
 
sthyen schrieb:
Das Verhalten gab es bei gefälschten USB Sticks. Dort wurde eine höhere Kapazität angegeben, als tatsächlich vorhanden war. So kam es auch zu Datenverlusten.Bei Festplatten ist mir sowas nicht bekannt.
Bei Festplatten stellt es sich anders dar, dort ist bei internen HDDs fast immer der Treiber Schuld, so kann z.B. der Intel RST Treiber vor der Version 10.1 nicht mit HDDs über 2TB umgehen und er schneidet das 33. Bit ab, so dass es bei Zugriffen jenseits der 2TiB Grenze zu Fehadressierungen kommt. Ist die Platte wirklich neu und leer, also auch nicht partitioniert, fällt es einem sofort an einer falschen Größenangabe bei der Initialisierung in der Datenträgerverwaltung auf, da haben 3TB HDDs dann nur 746GB. Ist aber nun aber scheinbar schlau und umgeht das Problem indem man die Initialisierung mit einem 3rd Party Tool macht, dann schießt man sich schon mal selbst ins Knie, z.B. hat die Waffen geladen, gerichtet und den Hahn gvespamnnt. Denn wenn eine Partitionstabelle vorhanden ist, dann liest Windows die Größenangaben von ihr und der Fehler fällt erst einmal nicht mehr auf.

Aber wenn man dann ein Sdhreibzugriff jenseits der 2TiB Grenze erfolgt, fällt der Schuß denn dann werden die Daten am Anfang überschrieben und das die Partitionsinformationen schon gecacht sind, fällt das erst beim nächsten Booten wieder auf bzw. bei eSATA wenn man sie Platte beim nächsten mal ansteckt und die RAW ist. Dann hört man den Schuß erst und fühlt den Schmerz, da denkt dann aber keiner mehr an den Anfang, als die Wurzel des Übels gelegt wurde. Daher kann ich auch nur davon abraten immer gleich zu den 3rd Party Partitionierungstools zu greifen, was bei vielen ja schon fast automatisch erfolgt und wenn Windows Datenträgerverwaltung mal wieder scheinbar zu doof ist, das Problem dahinter zu suchen, denn außer dem Verschieben von Partitionen kann die alles was man so braucht.
 
HDScratcher schrieb:

Vielen Dank! Genau erkannt, was ich gemeint habe. Hab ich das Problem also doch noch halbwegs richtig in Erinnerung gehabt :D
Danke für die Ausführliche Erklärung.

Ich habe mein Quickdeck über eSATA angeschlossen und habe nicht vor es über USB zu betreiben. Habe mittlerweile gelesen, dass das eSATA Signal oftmals einfach durchgeschleift wird und kein Chip genutzt wird. Daher hab ich die Hoffnung, dass das auch bei mir so ist und es mit meiner neuen Platte keine Probleme gibt. Würd auch erklären warum der Kumpel mit seiner 3TB Platte bisher keine Probleme hatte. Werd das dann mal ausprobieren und berichten.

Vielen Dank nochmal!
 
Achte aber darauf, dass auch andere Rechner an denen dir Platte dann ggf. über eSATA angeschlossen wird diese Kapazität unterstützen, sonst gibt es doch Probleme und wenn Du den Rechner mal neu installierst, dann nimm blos nicht den uralten Treiber von der CD oder der Downloadseite des Boardherstellers.
 
Zurück
Oben