sich nach HD tach richten sinnvoll

dawn3000

Cadet 3rd Year
Registriert
Jan. 2006
Beiträge
61
Hi all,

ich teste grad bei meinem RAID0 mit den clustergrößen herum.
wenn ich mich rein nach HD tach richte hab ich mit 32K clustergröße den höchsten Burst und AvrgRead.
aber im internet lese ich oft dass größere cluster eigentlich mehr performance geben sollten, aber tests mit 128K oder 256K waren in HD Tach immer ein Stück langsamer.

meine frage wie aussagekräftig sind hd tach werte, wenn es mir bei 32K die besten werte ausgibt ist es auch wirklich das schnellste für mich??

danke
 
Die Clustergröße solltest du an den Dateien ausrichten, die auf der entsprechenden Partition liegen.
Je kleiner die Dateien, desto kleiner sollten die Cluster sein. Bei einer Partition für Filme kannst du (und habe ich) 64k-Cluster oder noch größer nehmen.
 
Persönliche Meinung: Prökeln im Promille-Bereich.
Vor allem weil es doch sehr von der Dateigröße abhängt ob das Punkte bringt oder nicht.
Was bringen Dir ewig hohe Dauertransferraten bei großen Clustergrößen wenn Du später nur winz-Dateien drauf ablegst? Das sollte irgendwie miteinander korrespondieren. Vielleicht mal mit Atto testen und Dir überlegen was auf die Platten kommt.

(Wenn Du ein MS-OS+Programme drauf installierst sind 75% aller Dateien unter 32kb groß).
 
nah ist ein riesiger raidverbund...
betriebssysteme und auch filme/spiele usw... werden im gleichen raid drin sein nur eben andere partition...und dass man für jede partition andere snipegrößen wählen kann wär mir neu.
was wär da ein vernüftiger wert?

btw was speicher angeht hab ich kein problem... mir ist egal ob in einem 128k cluster nur 8k belegt ist
 
Zuletzt bearbeitet:
[...] und dass man für jede partition andere snipegrößen wählen kann wär mir neu.
Kenn mich mit Raid nicht aus, aber in der Datenträgerverwaltung von Windows kann man verschieden große Cluster für verschiedene Partitionen wählen.
 
OS und Daten trennen, OS nicht mit aufs Raid. Aber immer noch Prökeln im Promille-Bereich, es gibt sehr wenige Annwendungen die HDD-Limitiert sind. Deshalb auch meine Skepsis. Wenn man an der Stripe-Size bastelt, dann kann ich das ja noch verstehen, aber an der Cluster-Größe? Meinste wirklich das was Du jetzt an Zeit aufwendest macht sich in Leistung bemerkbar? Ich bezweifel das, lass mich aber gerne eines besseren belehren :-) Praktisch alle Menschen die das bis jetzt versucht haben, haben über Performance-Verluste geklagt.
vielleicht jetzt mal schnell mit jdiskreport eine Dateigrößen-Analyse fahren und einen vernünftigen Mittelwert suchen.


OS+Daten trennen weil: OS fällt öfter mal aus weil man nicht aufpasst. Daten sollen doch immer "verfügbar" sein.
Wenn Du am OS bastelst gefährdest Du jedes mal Deine Daten weil sie auf dem selben Medium liegen. NOGO in meinen Augen. Jeder Hardware-Wechsel der nur das OS betrifft würde auch immer Deine Daten gefährden.
 
Zuletzt bearbeitet:
Du sprichst sicher von der Blocksize des RAID, die Clustergröße bezieht sich auf das Filesystem und wird beim Format angegeben (Default ist bei NTFS z.B. 4kB). Die Blocksize wählt man entsprechend der Daten die erzeugt werden, Default ist hier wenn ich nicht irre 64kB, was für die meisten Anwendungen wohl passt. Einen Syntetischen Benchmark zu verwenden bringt sicher keine vernünftige Aussage. Da wäre schon eher der BABCo oder ein vergleichbarer Benchmark angebracht.
 
Zurück
Oben