Relevanz Zugriffszeiten bei HDDs

real_general

Captain
Registriert
Sep. 2006
Beiträge
3.418
Dass der große Vorteil von SSDs, nämlich der spürbar perfomantere Arbeitsfluss im OS, hauptsächlich durch die sehr kurzen Zugriffszeiten <1ms zustande kommt, ist hier ja wahrscheinlich schon jedem bekannt.
Mich beschäftigt aber in letzter Zeit vor allem die Frage, in wie fern sich die Zugriffszeiten bei normalen HDDs niederschlagen.

Beispielsweise hat eine WD BlueCaviar 640GB grob 12ms Reaktionszeit, während eine neue Samsung SpinPoint F3 zwar sequentiell schneller ist, der durchschnittliche Zugriff aber ca. 14ms benötigt. (HD Tune)

Aber wie wirkt sich das auf den Alltag, sprich auf OS und Programme, aus?
Kann man das z.B. in Random-Reads messen, oder sind die 2ms Unterschied sogar spürbar?
Oder überwiegt dann sogar evtl. positiv der sequentiellen Vorteil?

Hoffe die Experten hier können mir weiterhelfen. :)
 
Zuletzt bearbeitet:
Du kannst doch rechnen.

Einfaches Beispiel: Du lädtst Dein Lieblingsprogramm.
Stell Dir vor es besteht aus 1000 Datei-Fragmenten die nicht hintereinander in der richtigen Reihenfolge auf der Festplatte liegen und die Dein OS noch nicht im Datenträgercache hat oder im Preload.

1000 Kopf-Bewegungen mit 12MS ... 12 Sekunden warten
1000 Kopf-Bewegungen (die bei einer SSD nicht vorhanden sind) mit 0.1 MS ... 0.1 Sekunde warten.
Und während dieser Zeit ist nicht ein Byte in den Speicher geladen worden, das kommt noch oben drauf. Und die Daten die geladen werden müssen von der CPU auch noch irgendwie "bearbeite/verarbeitet" werden. Das kommt auch noch oben drauf. Und je nachdem wie lange das noch dauert wird der Anteil von Kopf-Bewegungen am eigentlich Ladevorgang wieder geringer^^

Und das mit 1000 Dateien ist nicht weit hergeholt wenn Du Deine Programme auf der Festplatte mal anschaust.

Und wenn Du fragst Sequentiell: Du kannst doch rechnen. Nehmen wir also an diese 1000 Dateien haben eine Größe von 32kb (schau auf Deine Festplatte, das ist nicht weit hergeholt). Es werden also 32MB geladen. Wie schnell schafft eine Festplatte 32MB .. etwa 0,5 Sekunden eine normale. Etwa 0,25 Sekunden eine sehr schnelle, etwa 0,12 Sekunden eine sehr schnelle SSD .... WAYNE sag ich da nur. DAS ist immer der kleinere Anteil würde ich tippen. Wenn Du Deine Festplatten nämlich mal nach Datei-Größe analysierst (fallst Dir das Rattern vom S/L-Kopf noch nie aufgefallen ist, DAS ist kein Sequentielles arbeiten) wirst Du merken das die meisten Programme aus sehr vielen, sehr kleinen Dateien bestehen. Und die die aus großen bestehen faken nur, das sind gepackte Archive die onthefly entpackt werden und auch wieder zigtausend winzigste Dateifragmente beinhalten.

Ich hänge mal ein Beispiel an: Meine frische Win7-Installation.

Wie Du siehst sind da 32kb sogar noch viel zu hoch gegriffen. Die meisten Files sind sogar noch kleiner.
 
Zuletzt bearbeitet:
Spürbar müsste man überprüfen, jedoch bezweifle ich, dass es stark spürbar ist - es ist ja nur ein Unterschied von wenigen Prozent.

Und ja, es sollte sich in Random Read niederschlagen. Am besten man misst das mal mit IOMeter nach (100% 4k Random Read).

Alleine von den Zugriffszeiten kann man das noch nicht ablesen. 4k Random Read ist ausschlaggebend und der setzt sich aus mehreren Dingen zusammen (u.a. seq. Leserate, Zugriffszeit und weiteren Faktoren).
Schlussendlich muss man sich das so vorstellen, dass bei jeder Leseaktion die Zugriffszeit + Seq. Leserate eine Rolle spielen. Der prozentuale Anteil an der Zeit der Leserate ist bei 4k natürlich minim - die 7ms der Zugriffszeit überwiegend dies z.B. auf das Vielfache. Je grösser die Dateien werden, desto länger muss gelesen werden, sobald der Lesekopf in Position ist und desto geringer wird der Einfluss der Zugriffszeit.

Schliussendlich müsste man das aber selbst austesten oder mit IOMeter evt. entsprechende Szenarien nachstellen. Eine Idee wäre z.B. mit IOMeter mit dem Workstationpattern (rund 80% Read, 20% Write, 80% Random o.ä.) mit verschiedenen Dateigrössen und Gewichtungen alltägliche Situationen nachzustellen. Gewichtung könnte auch empirisch nach dem prozentualen Anteil auf C: gewählt werden.
 
@Eggcake
Na dann sag mir doch mal wie groß das durchschnittliche File bei Dir auf C:\ ist *g*
Ich bin gerade zu faul zum rechnen, mein Beispiel siehste oben.
 
Naja, man könnte das Workstationpattern für die entsprehenden Filegrössen laufenlassen und dabei eben Gewichtungen nach der Menge an Files erstellen und so eine gewisse Punktzahl berechnen.

Aber eben, das wäre nur eine sehr grobe Annäherung, da man nicht weiss welche Files nun genau gelesen werden. Afaik werden generell viel grössere Files geschrieben als gelesen im OS-Betrieb und die Readzugriffe sind um ein Vielfaches höher. Da müsste man wenn, dann einen Trace laufenlassen...

Aber als gröbste Annäherung würde ich ganz einfach Workstationpattern mit 1/4/8kb laufenlassen und gut ist. HDDs unterscheiden sich dabei eh nicht wahnsinnig (die meisten sind bei ca. 300IOPS bei 8k Workstation).
 
Mir ist schon klar, dass die meisten Files von Programmen/OS eher klein sind und gerade deswegen die Zugriffszeiten entscheident sind.
Die Frage ist nur, ob man den Unterschied bei modernen HDDs von 14 auf 12ms, also theoretisch ca. 15% tatsächlich spüren kann.
Denn messen müsste man ihn, das entnehm ich Eggcakes Posts, ja können.
Wenn einer von euch das zufällig testen könne wärs natürlich großartig. :D
 
Zurück
Oben