Gobble-G schrieb:
In meinem ersten Beitrag. Ich habe bezüglich der verwendeten Festplattenbenchmarks keine Einschränkungen gemacht, was bedeutet, dass ich alle damals verfügbaren Benchmarks verwendet habe.
Gobble-G schrieb:
Schreib- und Lesevorgänge unter Windows beim Zugriff auf Ressourcen.
Gobble-G schrieb:
Es macht auf jeden Fall einen Unterschied, ob zusammenhangslose Daten blind sequentiell von der Festplatte gelesen werden oder die gewünschten Daten aus mehreren Fragmenten "zusammengesucht" werden müssen.
Dafür, dass nicht "blind" gesucht werden muss, gibt es zum Beispiel den Master File Table, in dem die Position jedes Blockes verzeichnet ist. Es muss also nicht gesucht, sondern nur aufgerufen werden.
Gobble-G schrieb:
... ist im zweiten Fall die Gesamtzeit davon abhängig, wie stark die Platte fragmentiert ist. Zur eigentlichen Lesezeit kommen dann noch die Zugriffszeiten zu jedem Fragment. Das kann je nach Position auf der Platte unterschiedlich lang dauern.
Und das ist eben mein Punkt. Die Zugriffszeiten moderner Festplatten liegen im Millisekunden-Bereich. Selbst bei Zugriff auf eine Datei mit vielen Fragmenten ist eine Verringerung der Schreib-, Leseleistung höchstwahrscheinlich kaum messbar und schon gar nicht fühlbar.
Beispiel: angenommen, eine Festplatte wäre nicht modern, sondern könnte immer nur eine Sache auf einmal machen (was heutzutage dank NCQ, intelligentem Caching etc. nicht einmal der Fall ist). Hätten wir also so eine einfältige Platte und damit einen Worst Case und nur für die bessere Übersicht eine in zwei Teile fragmentierte Datei. Dann verringert sich die Performanz der Platte beim Öffnen der Datei um die Datenmenge, die die Platte in 15,5 ms (Maxtor MaXLine III) lesen kann. Nehmen wir mal an, die Leseleistung läge bei 45 MB/sec., dann wäre durch den Zugriff auf das zweite Fragment eine Verringerung der Leseleistung um 45/1000*15,5=0,7MB veringert. D.h. die Leseleistung betrüge in dieser einen Sekunden aufgrund des zweiten Zugriffs 44,3MB statt 45MB. Sowas verbucht man für gewöhnlich als Messungenauigkeit.
Im "wirklichen Leben" sind auch viele Fragmente dann logischerweise nicht mess- und merkbar, da die Platte weiterhin Daten transferiert, während der Zugriff auf das nächste Fragment stattfindet. Das liegt unter anderem daran, dass die Transfergeschwinmdigkeit geringer ist, als der Zugriff auf den internen Plattencache.
Fazit: Defragmentieren leuchtet mir rein technisch gesehen nicht ein.
Gobble-G schrieb:
Wenn eine Platte schon so stark fragmentiert ist, dass kein zusammenhängender Platz mehr für eine Datei vorhanden ist, so wird diese beim Kopieren auf die Platte ebenfalls fragmentiert.
Eine so seltsame Fragmentierung habe ich noch nie gesehen, außer wenn die Festplatte nur noch einen sehr geringen freien Speicherplatz aufweist. Dann liegt aber hier das zu beseitigende Problem und nicht in der Defragmentierung. NTFS speichert Dateien tendenziös in zusammenhängenden Blöcken, für eine Fragmentation müsste man sehr viele kleine Dateien in nicht zusammenhängenden Prozessen erst schreiben und dann willkürlich löschen und neu schreiben. So eine Anwendung ist mir spontan nicht bekannt.