Clustergröße bei 320GB ?

theblade

Commodore
Registriert
Jan. 2006
Beiträge
4.257
hab mir nun letztenendes doch eine neue HDD von WD geholt - eine 320gb.

da ich immer öfters lese das man die clustergröße optimal einstellen sollte kommt jetzt bei mir die frage auf, nach was man denn gehen soll?! also welches ist die optimale größe?
 
cluster? du meinst doch partitionen, oder?

das ist eigentlich egal, hauptsache partition C ist gross genug für das verwendete betriebsystem. ich würde für C mindestens 60gb wählen. den rest kannst du dann aufteilen.

soll heissen: C= windows und utilities, D= programme und spiele, E= noch mehr programme und spiele :D
 
Also ich bin sicher er meint Cluster wie er es auch geschrieben hat!! Aber kann dazu nichts sagen, meine größte Platte hat 120gb ;)
 
Um die Frage umfassend beantworten zu können, müßte man eine Statistik über die die Files der einzelnen Partition anfertigen, denn es kann schon notwendig sein, sie für jede Partition getrennt einzustellen. Ich kenne kein Tool, was uns eine Aufstellung der einzelnen Partitionen über Anzahl un Größe aller Files anfertigen kann und daher ist es schon sinnvoll die Vorgabe von M$ zu übernehmen.
Wer ein paar Games auf seiner Disk installiert hat, sollte mal in die Eigenschaften der Installationsverzeichnisses gehen und die Anzahl der Files sich vor Augen führen, wenn ein Game aus einer Hand von Dateien besteht, wäre eine größere Clustersize u.U. sinnvoll, bei vielen Files hingegen (bei gleichem Installationumfang), könnten kleinere Zuordnungseinheiten etwas mehr Performanze bringen.
Man müßte allerdings bei jeder Installtion dann darauf achten, wo man welches Game installiert!

Beim Desingn (Im Rahmen der Projektierung) von großen Servern wird so eine Analyse übrigens schon gemacht und die optimale Konfiguration sowohl für die Hardware als auch die Anwendungen (z.B. Oracle, SAP) gesucht, das kann auch schon mal schiefgehen, so drufte ich schon mal bei einem großen Kunden für ein 'Data-Warehouse' System fast sämtliche Filesysteme (mehrere TBs) neu einrichten.
 
Bei einer 320 GB Platte empfiehlt es sich diese als NTFS als Dateisystem zu formatieren.

NTFS hat "werksseitig" 4 KB - und da braucht und ist dann auch nix mehr dran einzustellen.




... über die Clustergrösse hat man sich zu FATxx-Zeiten und Plattengrössen mit einigen Hundert MB bzw. bis max. 4 GB Gedanken gemacht ...
 
@Mueli: ist es aber nicht so, das bei kleineren Clustern der Verwaltungsaufwand steigt? Ich hätte jetzt spontan gesagt: bei überwiegend großen Dateien (Videos etc.) ist ne große Clustersize von Vorteil wegen der Performance. Bei überwiegend kleineren Dateien hätte ich zwar auch die kleinere Clustersize empfohlen, aber nicht aus Gründen der Performance sondern um nicht unnötig Speicher zu verschenken.

@AMDUser: man kann übrigens auch bei NTFS die Clustersize frei wählen. 512 Byte, 1 KB, 2 KB und 4 KB sind standardmäßig machbar. Versteckt gibt es sogar noch mehr.
 
Zuletzt bearbeitet:
optimale ausnutzung der festplatte: 0,5KiB
optimale geschwindigkeit: 64KiB

ganz einfache begründung: eine datei belegt immer ein vielfaches der clustergröße auf der festplatte. eine 5KiB datei würde bei 4KiB clustrer exakt 8KiB (2 cluster) auf der platte belegen.
bei 64KiB clustergröße direkt 64KiB.
man hat nicht so viele neuansätze beim lesen. und das wirkt sich sehr gut aus. allerdings fressen 64KiB cluster auch sehr viel platz. grad bei installationsdateien von windows und programmen. aber bei den heutigen festplatten(preisen)...

wenn man platz genug hat, sollte man die ruhig hoch stellen. besser noch bei nem raid-0. dann wird doppelt mehr pro sekunde gelesen.

mit 64KiB cluster 700mb entpacken vom raid-0 aufs raid-0 ~15sekunden. und das mit meinen alten samsung sp1614c :)
 
Zuletzt bearbeitet:
@ AndrewPoison
Der Overhead steigt sicher etwas an, bei DMA ist es schwer zu beurteilen wie sich kleinere oder größere Cluster auswirken, helfen würde sicherlich in diesem Beispiel dann eine Disk mit besserer Zugriffszeit, weil es bei kleineren Clustern auf die I/O's pro Sekunde ankommt, da spielen aber auch die Anwendugen wieder eine Rolle, wie greifen sie auf die Daten zu. Bei Games z.B. mit Pak-Files werden diese ja auch nicht komplett in den Speicher geladen.

Auf dem PC sich darüber große Gedanken zu machen ist eigentlich fragwürdig, weil man keine Tools bekommt (nicht weil es keine gibt), mit denen man alles analysieren kann. Bei einem Anwendungsmix ist es ohnehin fast unmöglich zu sagen, was die optimale Lösung ist.
 
Zurück
Oben