Kopierspeed zwischen kleinen & großen Dateien groß

Screenshot ist von der HD Tune Homepage. Der von der 2GB HDD sieht schöner aus:
IBM_DTNA-22110.gif
 
Keine Ahnung, was die Blaugeschlagenen da für einen Unsinn produziert haben.
Möglicherweise nur ein Schachzug zur Verblüffung des Weltballs,
in der Zuordnungstabelle logischer -> physischer Sektor herumgespielt und Lücken gelassen, welche dann am Ende von unten her aufgefüllt wurden.
Das gibt Suuuper Seek-Zeiten vom ersten zum letzten Sektor der Platte und hat überhaupt nichts mit der Theorie von ThePegasus1979 zu tun, sonst wäre das Minimum in der Mitte
 
Zuletzt bearbeitet:
Das hat man früher gerne gemacht, dass man einfach nur Heads abgeschaltet hat um fehlerhafte Drives auch noch verkaufen zu können.

Nachtrag:
IBM-DPRA-21215.jpg
 
Zuletzt bearbeitet:
.
 
Zuletzt bearbeitet:
Waren doch wahrscheinlich trotzdem eher Ausnahmen, falls das wirklich so war.
Wenn man mal bei google sucht, oder zb auf die HDTune seite guckt, wo auch paar Benchmarks von IBM DTTA Serie sind, da ist der Verlauf normal.

Ausserdem schreibst du das so als ob das damals die Regel war, bis 2003 oder was du geschrieben hast.
Ich hab zb 2001 ne 40GB Maxtor gekauft und eine 60GB Maxtor, und die werden auch beide normal gelesen.
Bei meiner 428MB Seagate das gleiche.
 
@Mueli: Erstmal herzlichen Dank für diesen antiquarischen Fund, welcher genau das beschreibt, wovon Pegasus1974 berichtete.

Ich nehme zur Kenntnis, das es sich dabei um eine der vielen Irrwege von IBM bis zum Untergang am Plattensektor handelte, wo von der Technologie einer Floppy ansatzlos auf Harddisks übergegangen wurde und sämliche Altlasten wieder einmal mitgeschleppt wurden - nämlich das Beschreiben einer kompletten Oberfläche und darauffolgendem Kopfwechsel, was dem Chaos der Datenverteilung durch Fragmentierung noch einen zusätzlichen performacemindernden Kick gab. Im Enterprise-Bereich haben sie es Jahrzehnte zuvor schon gelernt, aber anscheinend wieder vergessen - weil die eine Hand nicht mehr wusste, was die andere tat. :mad:

Nach derart zielführenden Hinweisen ist es natürlich ein Leichtes, das zugehörige technische Datenblatt aus der Steinzeit der PCs auszugraben.
Und es bestätigt diese Arbeitsweise, wie im Datenblatt angegeben die 8 recording zones; wegen der 3 Platter und 6 Oberflächen sind sechs steigende und sechs fallende Flanken im Diagramm zu sehen.

@Pegasus1979:
Darf ich Dich auf Deinen ersten Beitrag
Aber nur bei Monoplattern-Platten. Bei Doppel-Plattern Platten sinkt sie bei 50% "voll" (sequentiell geschrieben) auf 50%, um dann bei 50%+1Byte (Schreibbeginn auf 2. Plattern) wieder auf 100% zu steigen.
nochmal hinweisen - der passt auch nicht zu dieser früheren Realität.
Es konnte keiner ahnen, daß Du als "Technical Director" mit dem Basiswissen in der PC-Steinzeit steckengeblieben bist, welches sich auf diesen Thread, wo es um 2009 gefertigte HDDs mit 4 oder 5 Platters geht (da Du die Deutsche Sprache so liebst - Plattern ist eine Infektionskrankheit und nicht die Mehrzahl von Platter), überhaupt nicht mehr anwenden lässt und daher OT ist.
Trotzdem halte ich diesen Diskurs für Mitleser unterhaltenswert und wir haben alle ein wenig dazugelernt... :D
 
Zuletzt bearbeitet:
Ja, die Entwicklung in dem Bereich der Mass-Storage Geräte ist schon irgendwie faszinierend und Irrwege hat es ein paar gegeben, wenn ich da z. B. auch an die Prototypen mit den zwei actuators denke.
Die erste Disk, die ich gesehen habe, hatte eine Art Pinsel, der über das Medium geführt wurde und erst dann wurden die Heads geladen. Diese Disk's wurden noch auf component level repariert und man musste mit einen Scope ein cat eye-alignment durchführen wenn Heads oder Platter getauscht wurde, mir hat das irgendwie immer Spaß gemacht (auch die ersten Floppy-Laufwerke wurden ja so repariert).
 
Tja, bei den damaligen Wechselplatten mit Käseglocken-Transportbehälter wars noch nichts mit Reinraum. Da musste der Staub zur Vermeidung von Headcrashes noch von den Oberflächen gekehrt werden. Der Einsatz von Monitoring-Tools war noch nicht notwendig, bei Bedarf hat man einfach die Technikerverriegelung gelöst und Studien am offenen Objekt gemacht, um Programme zur Seek-Optimierung zu schreiben oder Batch-Abläufe zu verbessern...
Das waren noch Zeiten der vollkommenen Dokumentation, wo man den Unterschied zwischen Soll und Ist-Zustand noch der "Theory of Operation", Schaltplänen und Signaldiagrammen entnehmen konnte.
 
Zuletzt bearbeitet:
Die Transferraten beim Lesen sind auf den Platten mit 85-42 und 80-40 recht gleichwertig, beim Schreiben (welches Du mit HDTune Free nicht testen kannst und sollst) liegen diese Werte noch ein wenig (ca 3-5MB/s) darunter.
Bei großen Dateien kommt man - je nach Lese/Schreib-Position auf den Platten - an diese Werte heran, bei sehr kleinen oder stark fragmentierten kann das auch unter 1MB/s sinken.
Liegen die Werte bei großen Dateien wesentlich darunter, liegt es dann wohl am schlecht arbeitenden Win-Kopierprogramm oder anderen störenden Zugriffen anderer Programme/des Systems auf einer/beiden Platten
 
Alternate 3
Zurück
Oben