Defragmentierung von Partitionen Ja oder NEIN?

jüki

Cadet 3rd Year
Registriert
Sep. 2005
Beiträge
36
Ich möchte einmal das Problem der Defragmentierung angesprechen, weil ich bei der Lektüre verschiedener Beiträge in Foren feststellte, das es da Unklarheiten gibt.
So defragmentiere ich regelmäßig und empfehle das auch - andere User hingegen behaupten, es wäre überflüssig.
Einen Performance- Gewinn, wie so oft behauptet wird, habe ich tatsächlich noch nicht feststellen können.
Aber dafür andere nützliche Effekte. Die ich mal als reine Erfahrungswerte - ohne theoretische Begründung - nennen will:

- Ich habe zum Beispiel schon einigemale die Daten von Dateipartitionen wieder hergestellt, in die ein Image -im unbegründeten Vertrauen auf die Richtigkeit der Laufwerksanzeigen von Acronis- wieder hergestellt wurde.
(Acronis TrueImage zeigt nicht die gleichen Laufwerksbuchstaben an, wie sie unter XP dastehen)
Wurde diese Datenpartition zuvor defragmentiert, dann wurden Filme, mpeg usw auch in einem Stück gerettet - bei nicht defragmentierten Partitionen wurden diese Filme zwar auch restlos wieder hergestellt - aber in unverwendbaren Einzelteilen.
Das betrifft auch rar, iso und andere größere zusammenhängende Dateien.

- In nicht wenigen Fällen konnten Dateisystemfehler mit einer einfachen (space) Defragmentierung per O&O Defrag korrigiert werden.
Sehr viel nachhaltiger, als mit der Reparaturfunktion (Laufwerk > Eigenschaften > Extras > Jetzt prüfen > beide Häkchen rein) möglich war.
Und das betraf ausschließlich Dateisysteme, die nie defragmentiert wurden.

Das sind für mich die beiden Hauptgründe. Aber auch die Ausnutzung des Speicherplatzes sollte bedacht werden:

- Ich habe hier einmal etwas genau definiertes herausgepickt und dokumentiert.
Mittels des Cluster- Inspektors habe ich 2 nebeneinander liegende Blöcke aufgerufen.
Vor der Defragmentierung:

def1.jpg


und unmittelbar daneben:

def2.jpg


Die gleichen Blöcke nach der Defragmentierung:

def3.jpg


def4.jpg


Der leere Raum wurde aufgefüllt - keine Leerstellen mehr.
Hier mal eine Darstellung der Blöcke, wie sie O&O Defrag nach einer Defragmntierung anbietet:

def5.jpg


Schwarz - Logfile
Gelb - für MFT reserviert
Grün - in Benutzung befindliche MFT
Braun - pagefile.
Diese Dateien werden nicht berührt, nicht defragmentiert.
(Die in Benutzung befindlichen MFT auch als "fragmentiert" definiert, aber in Ruhe gelassen)
Blau - Dateien

Bei dieser Betrachtung lasse ich kleinkarierte (in meinen Augen, ja?) Betrachtungen über HDD- Lebensdauer mal außer Acht.
Denn diese Lebensdauer- Betrachtungen stören sich an dem einige Zeit (je nach Größe und Fragmentierung der Partition) andauernden Zugriffen.
Ohne mit in Betracht zu ziehen, das das bei der Defragmentierung nur einmal und offensichtlich ist - bei der Arbeit mit fragmentierten Dateien hingegen ständig.
Aber eben nicht offensichtlich.
Es sollte mal wirklich nur um die Nützlichkeit oder Unsinnigkeit der Defragmentierung von NTFS- Systemen gehen, ok?
Ich würde mich über sachliche, technisch begründbare und lehrreiche Kommentare zu diesem Thema sehr freuen.
Ach so - dazu sollte ich noch sagen: Ich verwende ausschließlich O&O Defrag.
Zu den anderen auf dem Markt vorhandenen Defragmentierungstools kann ich nichts sagen.

Jürgen
 
Hallo,

ich persönlich verwende das kostenlose Tool MyDefrag. Es bietet mehrere Optionen und mein RAID 0 wird dadurch merklich schneller. Ich defragmentiere deshalb regelmäßig.

Netter Thread nebenbei. Danke.
 
Das generelle Problem besteht ja eigentlich darin, dass obwohl genügend freier Speicher vorhanden ist, beim Speichern von großen Dateien trotzdem Fragmente entstehen. Würde mit dem freien Speicher etwas sensibler umgegangen, wäre die Fragmentierung in vielen Fällen sicherlich deutlich geringer.

Ich defragmentiere auch ab und zu mal. Da sind schon mal Dateien dabei die über 2000 Fragmente haben. Hier macht es mit Sicherheit einen kleinen Unterschied, wenn man mit diesen arbeiten möchte, ob sie stark oder wenig fragmentiert sind.

Im Großen und Ganzen ist der Nutzen aber tatsächlich relativ gering. Sollte man aber mal eine Partition ändern wollen, kann es schon Vorteile haben, wenn der freie Speicher am Ende oder Anfang einer Partition liegt. Allerdings beherrschen das auch die aktuellen Partitionierer und somit spart man eigentlich nur ein wenig Zeit.
 
ich nutze "defraggler"... nach jeder installation oder datentransfer wird defragmentiert so das das system immer rund läuft
 
Benutze auch Defraggler.

Nur über den Sinn der Ladezeit kann man echt streiten. Habe 3 Partitien. C, D(aten) und G(ames).

Und wo mal ordenlich fragmentiert war habe ich mal bei Crysis die Ladezeit des ersten Levels gemessen:
38 Sek vor , 38 Sekunden nach der Defragmentierung.

Das aber die Datenrettung durch Fragmentierung beeinträchtig sein kann, daran habe ich nicht gedacht.

Also defrage ich jetzt lieber mal öfters.
 
Schön, daß Ihr Euch daran beteiligt.
Ich meine, der Performance- Gewinn ist bei den heutigen schnelle SATA- Festplatten und den sehr viel schnelleren Prozessoren sicher kaum noch relevant.
Was mir eben so wichtig erscheint, das sind die Punkte Datensicherheit und Datenwiederherstellung.
Es wäre nett, wenn Ihr auch dazu Eure Erfahrungen nennen würdet.

Jürgen
 
Hi,

EGAL ob ihr IDE HDDs oder SATA habt.
Die Fragmentierung findet unabhaenging davon im Dateisystem statt.
Bei den alten Dateisystemem wie FAT (32) musste man sehr oft defragmentieren.
Bei NTFS muss man bei einem normalen HDD Gebrauch weniger defragmentieren.
Bei den Linux Dateisystemen fast gar nicht.

Das fuer mich beste Programm bleibt immer noch O&O Defrag, was auch andere PC Zeitschriften immer wieder bestaetigen.
Wer kein Geld ausgeben will dem sei "Auslogics Defrag" zu empfehlen.

UND um BS-Teile zu defragmentieren: PageDefrag
... defragmentiert automatisch die Registry und Auslagerungsdatei Ihres PCs und sorgt so für einen Geschwindigkeits-Zuwachs bei fast jedem System.

Viel Erfolg!
 
So ganz klar ist mir noch nicht, warum das Defragmentieren der Registry und der Auslagerungsdatei denn zu einem Geschwindigksietszuwachs führen soll.

Gerade Auslagerungsdatei und Registry werden so gut wie gar nie sequentiell gelesen. Auf Dateien, die nicht sequentiell zugegriffen wird, hat die Fragmentierung so gut wie keinen Einfluss.

Windows selbst legt sogar mache Systemdateien bewusst fragmentiert ab, weil es genau weiß (bzw vermutet), dass die Zuorendungseinheiten in dieser Reihenfolge benötigt werden...

Aber der Effekt, den jede Optimierung mit sich bringt, ist eindeutig der Placebo-Effekt... man muss nur fest genug dran glauben, dass es was gebracht hat, dann hat es auch was gebracht.

Und kann The_1st_Knight nur zustimmen.
 
warum das Defragmentieren der Registry und der Auslagerungsdatei denn zu einem Geschwindigksietszuwachs führen soll...
Ich habe so etwas meinerseits noch nie behauptet. Das war vor vielen Jahren mit Win98 und alten Festplatten noch der Fall - heutzutage nicht mehr.
Auslagerungsdatei?
Bei den heutzutage üblichen RAM von 1GB und mehr hat diese Pagefile so und so ihre Notwendigkeit verloren.
Dazu hab ich mir vor einiger Zeit mal Gedanken gemacht:
http://www.computerhilfen.de/jueki/auslagerungsdatei.pdf
Meine Auslagerungsdatei ist bei 4GB RAM grad mal 256MB.
Und auf mehreren der von mir betreuten PCs werden profesionell auslagerungsintensive Foto- Arbeiten gemacht.
Registry- Defrag?
Nicht mit O&O Defrag. Aber mit Registry First Aid - und ebenfalls, wie auch die Partitionen, nicht mehr zum Zwecke der Performance.
Sondern ausschließlich zum Zwecke der Datensicherheit!
Dies ist jedenfalls meine Meinung - und um die zu diskutieren, eröffnete ich diesen Thread.
haha.gif
Weil eben die Meinung eines alleinstehenden, einzelnen Users keinesfalls unbedingt die Richtige sein muß.

Jürgen
 
seit relativ schlauen dateisystemen wie ntfs und ext3 braucht man sich selbst als poweruser keinen kopf mehr um das dateisystem und seine zigtausend attribute machen. es funktioniert einfach. es würde mit der und der konfiguration und der pflege noch 2% schneller funktionieren. und am nächsten tag eben wieder 3% langsamer.

defragmentieren ist neben einem moderneren dateisystem das einzig sinnvolle mittel auf nischenweise performance steigerung. aber die defragmentierung greift nur wenn die festplatte voll ist oder war und fröhlich weiter daten draufgeschrieben werden. dann kann es passieren dass es etwas bringt. aber allein die zeit die man für das defragmentieren braucht kann doch niemals die zeit aufholen die man mal eine halbe sekunde länger vorm bildschirm gesessen hätte :p extremfälle mit uralten datenbeständen gibt es sicherlich, aber wenn ich mir mal angucke wie schnell ein windows degeneriert dürfte es nicht viele wirklich alte und laaangsame datensammlungen geben ^^ server und dedizierte workstations mal ausgeschlossen.

meine these also: defragmentierung und sonstiges tuning ist zeitverschwendung. lang lebe btrfs :D
 
Zuletzt bearbeitet von einem Moderator:
Ich bin etwas verunsichert - immer wieder sprecht ihr den überhaupt nicht vorhandene Performance- Gewinn an...
Dabei habe ich schon in meinem Startposting klargestellt:
"Einen Performance- Gewinn, wie so oft behauptet wird, habe ich tatsächlich noch nicht feststellen können."
Der Sinn und Unsinn von Defrag liegt eben meiner Meinung nach in der Hauptsache bei der ziemlichen Erhöhung der Datensicherheit.
Wobei ich Tuning mit automatischen SuperWunderTuning- Tools sowieso ablehne:
Tuning und Registry- Reinigung
Habt Ihr bei der Datensicherheit im Zusammenhang mit Defrag tatsächlich noch keine Erfahrungen gemacht?

Jürgen
 
asche auf mein haupt :)

also zum thema datensicherheit: da seh ich grundsätzlich drei probleme.
1. ist der dateisystemcheck in deinem fall wohl totaler müll :D danke M$ dafür.
2. kann ich mir deine erfahrung nur damit erklären dass deine festplatte gerne mal sektoren verliert. die werden (meist durch strahlung) verfälscht und dann als böse markiert und nciht mehr benutzt. das heißt je öfter und regelmäßiger man die ganze festplatte schreibend abgrast desto öfter werden solche sektoren entdeckt und abgesperrt.
3. das führt zu dem momentan überhaupt gar nicht vorhandenen bewusstsein, dass daten, vor allem magnetische, extrem anfällig sind. es scheint nur wenige menschen zu geben die sich des ausmaßes des problems bewusst sind. die einzige studie dazu wurde vom CERN gemacht. bei heutigen datenmengen hat man teilweise pro woche eine beschädigte datei. bei (schlecht) komprimierten daten in einem archiv kann das verheerend sein. die einzige lösung heißt nicht backup, auch das degeneriert, sondern raid 6. bzw jede technik bei der in regelmäßigen abständen die (mindestens!) 3 fach vorhanden daten miteinander abgeglichen werden können, um festzustellen ob eines der bits falsch ist. dazu wäre natürlich ein backup mit genau dem selben mechanismus wünschenswert. für privatpersonen wohl etwas zu viel des guten. deshalb mache ich momentan einfach ein backup auf zwei externe festplatten. allerdings darauf nochmals mindestens doppelt. die wichtigsten daten werden außerdem ständig neu geschrieben, damit die alten vorhanden bleiben und effektiv eine unzahl von backups bereitsteht :D
den damit möglichen check auf fehlerhafte bits zieh ich dann doch einer vagen defragmentierung vor, die nur die spitze des eisbergs abmäht. zumal eine defragmentierung mit ext3 wirklich sehr sehr unkomfortabel ist ^^
 
Zuletzt bearbeitet von einem Moderator:
Danke.
Da habe ich mich sicher sehr unkonkret ausgedrückt - auf meinen eigenen PCs da passiert so etwas kaum. Denn ich halte meine PCs ziemlich sauber, mache eine ausgeprägte Systemhygiene mit regelmäßigen Images.
Nein, diese beschrieben Fälle betreffen in der Hauptsache mehr oder weniger ungepflegte PCs mit Fragmentierungsraten teilweise über 55%.
Das sind PCs, die man mir anschleppt, wo dessen Besitzer das Grundwissen durch Gezeter auf M$ ersetzt.
Alles Mögliche installiert und wieder deinstalliert, teilweise nicht mal das - einfach gelöscht...
Kennt Ihr sicher, wenn Euch auch derlei traurige PCs angeschleppt werden.
Na, denen rate ich eben immer, wenigstens regelmäßig zu defragmentieren - wenn die kein Geld für O&O haben, dann wenigstens mit dem Win-eigenem.

Jürgen
 
ich rate dann immer zu regelmäßigem neuinstallieren. entweder sie ändern ihr verhalten mit der zeit durch die nervige arbeit oder das frisch aufspielen pustet die platte wieder frei :D

das windows-eigene ding bringt aber wirklich nix, nichtmal theoretisch. es wird dadurch sogar eher noch langsamer ^^ O&O is schon das beste.
 
Aber selbst bei den Rechnern gewinnste durch's Defragmentieren keinen Blumentopf mehr...

Für "noch langsamer" hätte ich gerne mal Quellen...
 
das noch langsamer bewegt sich in der selben sphäre wie die defragmentierende wirkung in dem fall, also kaum messbar vorhanden, geschweige denn spürbar ^^

is eine weile her dass ich mich damit beschäftigt hab, also nix quelle außer arme verwirrte axone ^^
 
Vermutlich stand da drin dass es Sachen fragmentierter ablegt, als sie schon waren?

Teilweise ist das nämlich sogar gewollt...
 
ich rate dann immer zu regelmäßigem neuinstallieren.

Dito. User die jeden Mist inkl. aller möglichen Toolbars installieren, kann auch eine Defragmentierung nicht mehr helfen. Die haben dann nämlich meist andere Probleme als die Sicherheit ihrer Daten. Umerziehen ist da eher schwer möglich, außer die Betroffenen sehen es ein. Da kann man nur zu regelmäßigen Backups raten.

Ich selbst habe so gut wie noch nie Daten verloren, obwohl ich wie gesagt eher selten mal Defragmentiere. Und in die Verlegenheit Daten tatsächlich wiederherzustellen, bin ich eigentlich noch nie gekommen. Derart wichtig sind meine privaten Daten auch nicht. Der einzige größere Ausfall in den letzten Jahren war mein Raid0. Allerdings eher durch Dummheit verursacht. Nach einen BIOS-Update hab ich nämlich vergessen im selbigen wieder das Raid zu aktivieren. Resultat war, dass er versucht hat von der ersten Raid-HDD zu booten, was dann dazu geführt hat, dass ich das Raid nicht mehr herstellen konnte. War aber auch nur die Systemplatte.
 
User die jeden Mist inkl. aller möglichen Toolbars installieren, kann auch eine Defragmentierung nicht mehr helfen
Volle Zustimmung!
Allerdings - genau um das zu vermeiden, also Neuinstallation, Einstellungen, Updates - und nicht zu vergessen die Neu- Aktivierung durch Billysoft- schlage ich diese Imagemethode vor:

http://www.computerhilfen.de/jueki/Image-Erstellung.pdf

(Alles zusammengefaßt hier: Installation, Pflege, Sicherung von Windows XP

damit umgeht man einiges, was sowohl der Forgeschrittene, als auch der Newcomer so verzapft.

Jürgen
 
Zurück
Oben