Defragmentieren - muss das sein?

TomyLight schrieb:
Das glaubst du doch selber nicht.
Ne Kurze Rechnung: 700MB / 10s = 70Mb/s dann hättest du eine Schreibrate die nicht einmal eine Raptor schafft...
ausser eine WesternDigital WD Caviar SE16 mit 750GB

Kann man bei Vista eigentlich unter 10% mit O&O kommen ? Bei mir sind's nämlich immer so um die 12%.

grad getestet:
647mb in 8 sekunden... :rolleyes: von einer auf raid0 und in 9 sekunden zurück auf die einzelne....
 
Zuletzt bearbeitet:
ich versteh nicht ganz was das verschieben einer 700mb datei mit der fragmentierung einer platte zu tun hat
das kommt doch erst zum tragen wenn mehrere dateien gelesen werden
 
Tankred schrieb:
Wie oben bereits beschrieben habe ich auch Benches verwendet, die die von Dir beschriebenen Lese- und Schreibvorgänge testet.
Wo steht das?

Tankred schrieb:
Ein Start eines Programms ist ja auch nur ein OPEN und CLOSE von Ressourcen.
Was ist das?

Es macht auf jeden Fall einen Unterschied, ob zusammenhangslose Daten blind sequentiell von der Festplatte gelesen werden oder die gewünschten Daten aus mehreren Fragmenten "zusammengesucht" werden müssen. Während im ersten Fall keine Zeit für das Aufsuchen von Fragmenten aufgebracht werden muss, ist im zweiten Fall die Gesamtzeit davon abhängig, wie stark die Platte fragmentiert ist. Zur eigentlichen Lesezeit kommen dann noch die Zugriffszeiten zu jedem Fragment. Das kann je nach Position auf der Platte unterschiedlich lang dauern.

@bensen: Wenn eine Platte schon so stark fragmentiert ist, dass kein zusammenhängender Platz mehr für eine Datei vorhanden ist, so wird diese beim Kopieren auf die Platte ebenfalls fragmentiert.

(Ich denke mal, wir reden hier größtenteils über NTFS bzw. FAT. Übrigens gibt es noch andere Dateisysteme unter anderen Betriebssystemen, die eine Fragmentierung in diesem Sinne gar nicht erst erlauben sollen...)
 
Nötig ist es nicht, sinn macht es quasi keinen, dafür hat die platte u.u. stundenlang viel zu tun.
Bei heutigen Systemen merkt man fragmentierung nicht mehr, messbar ist sowas aber. leute die behaupten das sowas ne wahnsinnige steigerung bringt behaupten auch das man bei ramtimings von CL5 auf CL4 nen gewaltigen unterschied merkt, sogar die maus wird viel besser beschleunigt... :D

==> Alles rein subjektiv, placeboeffekt.


Wenn du nicht grade einen 486er dein eigen nennst, lass es bleiben. Defrag dient nur der gewissensberuhigung, sonst nichts.
 
bensen schrieb:
ich versteh nicht ganz was das verschieben einer 700mb datei mit der fragmentierung einer platte zu tun hat
das kommt doch erst zum tragen wenn mehrere dateien gelesen werden
ich wollte bloß wissen ob das so utopisch ist, wie vorhin dargestellt.

btw. können sich die zugriffszeiten mit tools wie HD-tune verbessern durch defragmentieren?
bei mir sinken die werte nämlich kontinuierlich.

wazzup schrieb:
Wenn du nicht grade einen 486er dein eigen nennst, lass es bleiben. Defrag dient nur der gewissensberuhigung, sonst nichts.
das finde ich insofern interessant, weil ich auf C einen fragmentierungsgrad von 63% habe, beim kopieren aber zb keinen unterschied zu früher merke. einzig bei messsungen eben wirds immer schlimmer.
 
Zuletzt bearbeitet:
also defragmentierung dient in allererster linie dazu die lebenszeit der hardware zu verlängern undzwar durch die schaffung kürzerer und weniger wege des lesearms (oder wie das ding heisst) zum lesen. also dient es zur verringerung des verschleisses, bessere benchmarkergebnisse braucht niemand zu erwarten durch nen defrag. wohl aber sind ab einem gewissen grad der fragmentierung angeblich geschwindigkeitseinbußen möglich.

bringen tuts immer was und wenns nur die verlängerung der lebenszeit ist. bei spielen zum beispiel mit riesigen dateien (zb für texturen -> siehe quake wars) haben sich zumindest bei mir die ladezeiten verbessert.

wer länger was von seinen platten haben will der machts.

gruß
 
@fjmi
damit hab ich ja nicht dich gemeint
wie man dem inhalt entnehmen kann bezog ich mich auf TomyLight

hd-tune reagiert gar nicht auf fragmentierung
Gobble-G schrieb:
Die Festplattenbenchmarks funktionieren auch mit partitionslosen Laufwerken. Das ganze läuft auf physischer (Sektoren, Blöcke, was weiß ich) und nicht auf logischer (Partitionen, Dateisystem) Ebene ab.
 
Gobble-G schrieb:

In meinem ersten Beitrag. Ich habe bezüglich der verwendeten Festplattenbenchmarks keine Einschränkungen gemacht, was bedeutet, dass ich alle damals verfügbaren Benchmarks verwendet habe.

Gobble-G schrieb:

Schreib- und Lesevorgänge unter Windows beim Zugriff auf Ressourcen.

Gobble-G schrieb:
Es macht auf jeden Fall einen Unterschied, ob zusammenhangslose Daten blind sequentiell von der Festplatte gelesen werden oder die gewünschten Daten aus mehreren Fragmenten "zusammengesucht" werden müssen.

Dafür, dass nicht "blind" gesucht werden muss, gibt es zum Beispiel den Master File Table, in dem die Position jedes Blockes verzeichnet ist. Es muss also nicht gesucht, sondern nur aufgerufen werden.

Gobble-G schrieb:
... ist im zweiten Fall die Gesamtzeit davon abhängig, wie stark die Platte fragmentiert ist. Zur eigentlichen Lesezeit kommen dann noch die Zugriffszeiten zu jedem Fragment. Das kann je nach Position auf der Platte unterschiedlich lang dauern.

Und das ist eben mein Punkt. Die Zugriffszeiten moderner Festplatten liegen im Millisekunden-Bereich. Selbst bei Zugriff auf eine Datei mit vielen Fragmenten ist eine Verringerung der Schreib-, Leseleistung höchstwahrscheinlich kaum messbar und schon gar nicht fühlbar.

Beispiel: angenommen, eine Festplatte wäre nicht modern, sondern könnte immer nur eine Sache auf einmal machen (was heutzutage dank NCQ, intelligentem Caching etc. nicht einmal der Fall ist). Hätten wir also so eine einfältige Platte und damit einen Worst Case und nur für die bessere Übersicht eine in zwei Teile fragmentierte Datei. Dann verringert sich die Performanz der Platte beim Öffnen der Datei um die Datenmenge, die die Platte in 15,5 ms (Maxtor MaXLine III) lesen kann. Nehmen wir mal an, die Leseleistung läge bei 45 MB/sec., dann wäre durch den Zugriff auf das zweite Fragment eine Verringerung der Leseleistung um 45/1000*15,5=0,7MB veringert. D.h. die Leseleistung betrüge in dieser einen Sekunden aufgrund des zweiten Zugriffs 44,3MB statt 45MB. Sowas verbucht man für gewöhnlich als Messungenauigkeit.

Im "wirklichen Leben" sind auch viele Fragmente dann logischerweise nicht mess- und merkbar, da die Platte weiterhin Daten transferiert, während der Zugriff auf das nächste Fragment stattfindet. Das liegt unter anderem daran, dass die Transfergeschwinmdigkeit geringer ist, als der Zugriff auf den internen Plattencache.

Fazit: Defragmentieren leuchtet mir rein technisch gesehen nicht ein.

Gobble-G schrieb:
Wenn eine Platte schon so stark fragmentiert ist, dass kein zusammenhängender Platz mehr für eine Datei vorhanden ist, so wird diese beim Kopieren auf die Platte ebenfalls fragmentiert.

Eine so seltsame Fragmentierung habe ich noch nie gesehen, außer wenn die Festplatte nur noch einen sehr geringen freien Speicherplatz aufweist. Dann liegt aber hier das zu beseitigende Problem und nicht in der Defragmentierung. NTFS speichert Dateien tendenziös in zusammenhängenden Blöcken, für eine Fragmentation müsste man sehr viele kleine Dateien in nicht zusammenhängenden Prozessen erst schreiben und dann willkürlich löschen und neu schreiben. So eine Anwendung ist mir spontan nicht bekannt.
 
Zurück
Oben