News Im Test vor 15 Jahren: 2,5-Zoll-HDDs mit 4.200 und 5.400 U/min im Vergleich

die_bold schrieb:
Die Sache hat nur Einen Haken. Die Hdd's von Damals laufen Heute noch.
Nö. Die langsamen alten Teile liegen einfach nur bei mir im Regal rum, die wichtigen Daten liegen eh auf meiner NAS.
Gut, dass die noch laufen würden, bezweifle ich nicht. Bei meinem 386er tun sie es, wenn auch selten.

die_bold schrieb:
Der (ssd) Schrott von Heute wird NIE 15 Jahre laufen...
Das weißt du woher? Und warum sollte das so sein?
Aber selbst wenn, in 15 Jahren dürften die meisten hier die mal durchgetauscht haben.
Auf immerhin die Hälfte haben es einige hier gebracht, warum sollen gerade neuere SSDs das nicht schaffen? Denen schadet ja nicht mal ein Sturz! ;)

Und wieso Schrott?
Es ist wunderschön, endlich lautlose Geräte zu haben, die dazu noch weniger Strom fressen und nichts gegen mechanische Belastungen haben. Gerade mobil Festplatten ganz klar überlegen, aber durchaus auch in Servern.
 
@Shoryuken94: Fürs Web und zocken sitz ich ja nicht an der Kiste. Stört mich also nicht viel Wenns langsamer ist.
Stimmt, ist nicht dringend. Also auf bessere Preise warten oder wenn sich die Platten verabschieden.
Ich überlege sogar mlc, aber ob sich das lohnt/rechnet ist anderes Thema.

Ich habe aber auch noch alte 40, 80 und 160gb Platten hier die funktionieren. Allerdings sind die die letzten Jahre kaum bis gar nicht mehr gelaufen.
Müsste man also Laufzeit wenigstens betrachten. Aber da gibt's sicher auch welche die ewig gehalten haben, wie sich auch andere bereits nach Tagen verabschieden.
 
pseudopseudonym schrieb:
Das weißt du woher? Und warum sollte das so sein?

Frage ich mich auch. Eine SSD hat von haus aus weniger "Schwachstellen" bzw. potentielle Quellen, die Schaden nehmen können. Bei der SSD hast du nur die Speicherzellen, die nicht unendlich oft beschrieben werden können und halt die Elektronik.

Die Zellen halten deutlich mehr aus, als die meisten User in der Nutzungsdauer benötigen. Sie halten auch deutlich mehr aus, als die angegebenen TBW Werte. Heise hatte das mal getestet. Dort haben die schlechtesten SSDs das 2,5 fache der TBW geschafft. Das beste Laufwerk sogar das 60 fache. Für den Normalnutzer ist das völlig egal. Er wird nicht ansatzweise an den Punkt kommen, dass er die SSD totgeschrieben hat. Wer tatsächlich solche Datenmengen bewegt, der profitiert in der regel aber auch so stark von der Performance, dass sich die SSD recht schnell ausgezahlt hat.

Und die Elektronikkomponenten können nicht nur bei einer SSD hops gehen, dass kann einer Festplatte auch passieren. Dazu ist sie voll mit beweglichen und mechanisch belasteten Teilen.

@Silverangel

Okay, na dann kannst du ja warten. Aber nur aus reinem Interesse. Wie kommt man privat auf 300-500GB am Tag? Dauervideoüberwachung des Grundstücks?

Ab und an bekommt man MLC SSDs recht günstig. Hatte letztens bei Ebay einen Händler gesehen, der neue 1.92TB WD Enterprise MLC Sata SSDs für 179 Pfund verkauft, sind um die 200€.

Aber in der Regel sind die MLCs ziemlich teuer, so das es sich oftmals mehr lohnt, die SSDs einfach nach einigen Jahren auszutauschen.
 
  • Gefällt mir
Reaktionen: pseudopseudonym
Shoryuken94 schrieb:
Frage ich mich auch. Eine SSD hat von haus aus weniger "Schwachstellen" bzw. potentielle Quellen, die Schaden nehmen können. Bei der SSD hast du nur die Speicherzellen, die nicht unendlich oft beschrieben werden können und halt die Elektronik.

Ein Pluspunkt für SSDs ist auch, dass sie (zumindest theoretisch) keine Daten verlieren, selbst wenn die maximale Anzahl von Schreibzugriffen erreicht wurde. Dann werden sie halt quasi zu einem ROM-Medium. (Und über SMART wird man auch schon vorher rechtzeitig gewarnt.) Dann kann man immer noch eine Kopie des Laufwerks auf eine neue SSD machen und alles ist wieder in Ordnung.

Wenn eine Festplatte plötzlich mit mechanischem Schaden ausfällt, kommt man an die Daten ohne großen Aufwand (der sich für Privatpersonen nur selten lohnen dürfte) nicht mehr heran.
 
  • Gefällt mir
Reaktionen: pseudopseudonym
@Shoryuken94: Überwachung nicht, aber Aufzeichnung, bearbeitung, zuschneiden, konvertieren, packen, entpacken usw. Teil geht dann in die Cloud, und je nach bedarf wieder geladen. Dadurch werden die Daten ja auch mehrmals gelesen und geschrieben. Grunddaten wären dann eher so 1/4 bis 1/5.
Ob der ebay Händler so seriös war? Ich schau meist aber nur auf gh oder so nach aktuellen preisen. Aber wäre geiler preis gewesen.
Ja, wahrscheinlich wirds auch TLC werden. Nur eben dann mit vernünftigem Controller und höherer TBW. Wie du schon sagst, dürfte das mit den Kosten eher hinhauen.
Herdware schrieb:
Ein Pluspunkt für SSDs ist auch, dass sie (zumindest theoretisch) keine Daten verlieren, selbst wenn die maximale Anzahl von Schreibzugriffen erreicht wurde.
Wars nicht eher so, dass sie öfter "benutzt" werden müssen um ihr Daten nicht zu verlieren im Gegensatz zu HDD die du somit länger im schrank unbenutzt liegen lassen kannst?
(Zumindest fürs Backup nicht ganz unwichtig)
 
Zuletzt bearbeitet:
Silverangel schrieb:
Wars nicht eher so, dass sie öfter "benutzt" werden müssen um ihr Daten nicht zu verlieren im Gegensatz zu HDD die du somit länger im schrank unbenutzt liegen lassen kannst?
(Zumindest fürs Backup nicht ganz unwichtig)

Ich habe auch davon gehört, dass eine SSD nach langer Zeit ohne Stromversorgung Daten verlieren könnte. Ob das stimmt und wenn ja, von welchen Zeiträumen da die Rede ist, weiß ich nicht. (Meine alte Win7-System-SSD war jedenfalls nach ca. 3-4 Jahren ohne Strom noch problemlos lesbar. Hab sie aber schon länger nicht mehr ausprobiert)

Allgemein halte ich es aber sowieso für keine gute Strategie, Daten auf irgendwelchen, nicht aktiv genutzten Datenträgern dauerhaft aufbewahren zu wollen.
Die sichersten Daten sind die auf einem "lebendigen" System mit vernüftiger Backupstrategie.

Ob die alte Festplatte, die seit 20, oder 30 Jahren im Schrank liegt, noch lesbar ist, weiß man nicht, und ich würde keine Wette drauf eingehen. Außerdem muss man immer im Hinterkopf behalten, auch einen funktionsfähigen PC aufzubewahren, der noch über die Schnittstellen verfügt, an die man die alten Laufwerke anschließen könnte.

Ich glaube, ich habe noch ein paar alte MFM-Platten rumliegen. Da wissen nur die Götter, ob da noch Daten drauf sind, und ich werde ziemlich sicher niemals wieder Gelegenheit haben, die nochmal auszuprobieren. 😀

Eine Menge alter Disketten (3,5" und 5,25") sind aber definitiv inzwischen deffekt. Wobei sich die alten DD-Disketten von C64/C128 etwas beständiger gezeigt haben, als die HD-Disketten aus DOS-Zeiten.
Aber auch für die DD-Floppies würde ich meine Hand nicht mehr ins Feuer legen. Es ist nur eine Frage der Zeit, dass die auch alle die Grätsche machen. Ich habe deshalb längst alle Daten oder komplette Discs als Images auf mein NAS kopiert, das wiederum per Backup regelmäßig auf ein externes Laufwerk gesichert wird, und die Daten ziehen halt immer mit auf das nächste modernere/größere NAS mit um.

Deshalb hätte ich auch keine Bedenken, irgendwann auf ein NAS aus flotten SSDs umzusteigen, wenn ich mal ein schnelleres Netzwerk haben sollte.

(Der C128 wird per SD2IEC von einer SD-Karte mit diesen Images versorgt. Die Floppy-Laufwerke sind nur noch Deko.)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Silverangel
Nach dem Austausch einer 40GB IBM "Dethstar" gegen eine 120GB WD1200 irgendwas (beides IDE) hatte sich die Startzeit von Windows 2000 von knapp 3 auf etwas über eine Minute geändert, also ca halbiert, ohne irgendetwas sonst zu verändern.
Das lässt sich heute durch Ersetzen einer "langsamen" SSD gegen eine super-schnelle nicht mehr erreichen. Es ist egal, ob Windows von einer SATA oder NVMe SSD startet.
 
@Silverangel Okay interessant. Danke für die Antwort. Machte einen seriösen Eindruck :) war kein Privatverkäufer, sondern ein gewerblicher händler mit knapp 19000 Bewertungen und fast 100% Zufriedenheit.

Man findet immer mal wieder recht gute Angebote. Stammen dann wahrscheinlich häufig aus Insolvenzen etc. Aber man muss da auch immer etwas Glück haben.

Zum Thema Haltbarkeit ohne Strom. Gibt dazu wenig Tests, da das auch ein wenig Zeitaufwendig ist und schwer überprüfbar. Man bräuchte ziemlich viele SSDs, wovon man alle x Monate eine einschaltet und guckt, ob noch alles vorhanden ist. Gleichzeitig müsste man für konstante Lagerbedingungen sorgen. Die Temperatur spielt hier wohl eine sehr große Rolle.

Eine alte Kingston HyperX 120GB hatte ich ca 3 Jahre im Schrank und dort war noch alles drauf und lesbar.Ich denke die meisten Modelle werden die Daten einige Jahre lang halten können. Laut JEDEC sind glaube ich nur 3 Monate vorgeschrieben.

Sagen wir so, zur langzeit Archivierung würde ich eine SSD nicht nutzen, ansonsten würde ich mir da wenig Gedanken machen. Bin aber eh kein Fan davon, einfach eine Datenträger in den Schrank zu legen und zu hoffen, dass er hält. Weiß man bei einer Festplatte auch nicht. Wichtige Backups sollten immer auf einem aktiv überwachten System liegen.

@deo der Hauptvorteil von SSDs ist halt auch nicht die Übertragungsrate, sondern die fixen Zugriffszeiten im Vergleich zu einer Festplatte. Wenn der Hauptanwendungszweck der SSD nur die Bootzeitminimierung von Windows ist, dann wird man wohl niemals mehr so einen Sprung erleben.

Je nach Anwendung kann man von NVME oder gar Optane massiv profitieren. Es sind am Ende aber halt auch nur Weiterentwicklungen. Aber so ist es doch bei allen Techniken. Der Normalanwender profitiert bis zu einem bestimmten Bereich. Alles darüber ist nur für spezielle Usecases wirklich spannend. Er 08/15 User braucht auch keine 16 Kern CPU, wer dafür Verwendung hat, hat auch massive Vorteile.

Aber das schöne ist, mit der Zeit werden die Dinge so günstig, dass auch der Normalanwender zugreifen kann, ob er es nun braucht oder nicht. Und haben und nicht brauchen ist bekanntlich besser als brauchen und nicht haben können. Ich brauche auch keine NVME SSD. Aber der geringe Auspreis gegenüber einer Sata m.2 wars mir doch wert.
 
  • Gefällt mir
Reaktionen: Silverangel
RYZ3N schrieb:
Damals war der Preis pro Gigabyte schon eine Hausnummer, aber im Vergleich zu den 1990ern oder gar 1980ern schon in einem erträglichen Bereich.

Anhang anzeigen 804157

Bei den SSDs ist es mir auch zuletzt noch einmal klar geworden wie sich die Preise entwickelt haben.

Meine erste SSD war Ende 2009 eine Intel X25M G2 Postville mit 160 Gigabyte. Die Rechnung habe ich noch hier liegen, 489,90 Euro. :D

Das Gefühl als das OS erstmalig auf einer SSD lag, unbeschreiblich. :)

Ich geh am Stock.... der Kompakt AT 386-SX war damals mein erster PC, was ein Trümmer ... 1MB mehr Speicher, 398 DM und wir beschweren uns über die Gigabyte Preise beim Ram :lol:
 
  • Gefällt mir
Reaktionen: SVΞN
konkretor schrieb:
Man kauft auch keine seagate. Mit dem Hersteller hatte ich schon vor 20 Jahren schlechte Erfahrungen. Ich hatte stellenweise auch welche bei mir drin. Muss mal in meinen HDD Koffern schauen ob ich noch welche habe von seagate


Zwei Samsung sind mir auch kaputt gegangen, die haben aber wenigstens länger gehalten. HDDs sind eben auch anfällig aufgrund der Verwendung von mechanischen Teilen.
 
Ich bin froh, dass ich fast komplett vom mechanischen Festplattengerödel weg bin. Ich habe noch ein paar HDDs als Backup-Medium, aber die werde ich mittelfristig wahrscheinlich auch durch SSDs ersetzen.
Auf 15 Jahre SSD-Nutzung kann ich zwar noch nicht zurückblicken, aber meine erste SSD war ne Samsung 830er Serie, gekauft Anfang 2012. Die lief bis Herbst 2017 in meinem alten ThinkPad als Systemplatte und hatte zuletzt eine Leistung von 70 TBW angesammelt. Danach wurde das ThinkPad ausgemustert, die SSD läuft jetzt weiter in meinem Technisat-Festplattenrekorder... TBW habe ich seitdem nicht mehr ausgelesen, aber dank zweier Doppeltuner können bis zu 4 Aufnahmen parallel laufen (inkl. HD-Sender), was ich gelegentlich auch nutze. Da dürften in den letzten knapp 2 Jahren noch einige TBW dazugekommen sein.
 
Reflexion schrieb:
Mag vlt einer kurz erklären weshalb man 3 Leseköpfe bei 2 Platten benötigt(e)? Ist der dritte für den Cache da oder als Ersatz?

der dritte liest auf der Platte 1 & 2, ist also dazwischen angeordnet.
 
Shoryuken94 schrieb:
Ab und an bekommt man MLC SSDs recht günstig. Hatte letztens bei Ebay einen Händler gesehen, der neue 1.92TB WD Enterprise MLC Sata SSDs für 179 Pfund verkauft, sind um die 200€.

Aber in der Regel sind die MLCs ziemlich teuer, so das es sich oftmals mehr lohnt, die SSDs einfach nach einigen Jahren auszutauschen.

Habe vor kurzem erst während einer Aktion 2 mal 2 TB MLC SSDs um je 230€ geschossen. Auch wenn ich die wahrscheinlich niemals kaputt schreiben werde schon ein schönes Gefühl, da musste ich sofort zuschlagen.
 
  • Gefällt mir
Reaktionen: Shoryuken94
die_bold schrieb:
So ca. 78% laut Statistika....Auf fast jedem Server läuft Linux.... Aber ist schon ok.
Eben! Server! Ich sprach nicht ohne Grund von PCs
 
  • Gefällt mir
Reaktionen: Shoryuken94
Aschenseele schrieb:
Im Gegenteil, ich bezweifle das noch sehr viele der damals verkauften HDDs nach 15 Jahren der Nutzung noch am Leben sind, ein paar gut behandelte Ausnahmefälle mal ausgenommen. Moderne SSDs sind sehr langlebig solange man jetzt nicht versucht ne Consumer SSD in einem Server zu stecken wo den ganzen Tag geschrieben wird und solange man sie alle paar Monate einmal verwendet - kein Strom führt insbesondere bei TLC und QLC nach wenigen Jahren zum Datenverlust, im schlimmsten Fall schon nach Monaten.

Der SSD Speicher ist nahezu nie der Grund für den Ausfall der Consumer SSD,
Na was denn nun? Mal gut, dann schlecht, dann gut?

Ja, ich weiß Du sagen willst. Aber HDDs liegen bei mir im Schrank und werden alle paar Monate mal aktualisiert. Die aktuellen SSDs kopieren sich intern um, aber nur, wenn sie am Strom hängen. Und auch nur, wenn das vorgesehen ist.

Am Wochenende hatte ich mit einer Samsung 840 evo zu tun. Eine neue Firmware wollte Magican nicht installieren. Da waren 3 Lesefehler drauf, in 4 Jahre alten Files. Die SSD ist nahezu durchgängig am Strom, aber womöglich ist die Firmware nicht aktuell. Eine Liste mit den Versionen ist auch schwer zu finden.

Außerdem sind mir schon zwei SSD komplett ausgefallen.

Bei HDDs hatte ich stets die Chance, mit ddrecover an einen Großteil der Daten zu gelangen, wenn nicht sogar an die fehlerhaften, mit ausreichend Geduld.

Als Langzeitspeicher ist eine SSD nichts.
Ergänzung ()

konkretor schrieb:
Man kauft auch keine seagate. Mit dem Hersteller hatte ich schon vor 20 Jahren schlechte Erfahrungen.
Das unterscheidet sich von Modell zu Modell. Ich hatte schon Maxtor und Samsung, bei denen offenbar die werkseitige Fehlerliste nicht vollständig war. Nach dem Einsatz von LLFORMAT liefen die tadellos, bis sie irgendwann gegen große Modelle ersetzt wurden.

Mit Seagate bin ich aktuell zufrieden.
Die 1,5TB- und 3TB-Modelle allerdings hatten einen schlechten Ruf und wohl nicht grundlos. Diese vibrierten auch sehr stark, das Gehäuse und der Tisch vibrierten. Unvorstellbar, daß diese Vibrationen nicht nach kurzer Zeit zum Lagerschaden führen. Die fielen dann bei mir auch aus und auch bei backblaze war das damals abzulesen.
Ergänzung ()

Herdware schrieb:
Ich habe auch davon gehört, dass eine SSD nach langer Zeit ohne Stromversorgung Daten verlieren könnte. Ob das stimmt und wenn ja, von welchen Zeiträumen da die Rede ist, weiß ich nicht. (Meine alte Win7-System-SSD war jedenfalls nach ca. 3-4 Jahren ohne Strom noch problemlos lesbar.
Meine Vermutung ist, daß die statische Ladung in den Flashzellen verloren geht. Wenn es nur um 0 oder 1 geht, kann man noch ziemlich gut den Zustand erraten. Bei Tristate oder Quadstate ist das dann schon schwieriger.

Die Samsung Evo 840 (die erste Tristate ?) hatte nach einem Jahr dieses Problem und die Fehlerkorrektur mußte ziemlich viel herumprobieren. Als Resultat sank die Leserate auf wenige MB/s, bei alten Daten. Ich hatte, wie erwähnt, letztens 4 Jahre alte Files. Auf der 120GB-SSD gab es 3 Lesefehler, die nicht korrigiert werden konnten, also nicht viel, aber trotzdem ärgerlich.

Samsung lieferte damals eine neue Firmware aus und ein Performance-Recovery-Tool. Dieses Tool hat alle Files umkopiert, damit die Leseleistung wieder stimmte. Die neue Firmware hat regelmäßig die Daten umkopiert, wenn gerade nichts zu tun war. Wie weit sich das auf die TBW auswirkte, kann ich nicht sagen. Ich vermute, daß die Daten nie länger als 6 Monate auf einem Fleck liegen dürfen.
Ergänzung ()

Reflexion schrieb:
...Danke, genau auf letzeres wollte ich hinaus denn so müsste es doch zu Einbrüchen kommen, was oftmals bei Recht vollen Platten auch der Fall ist.
Durch 3 Köpfe bei 4 Plattern kommt es nicht zu Einbrüchen. Die Daten werden wie sonst auch vom Rand nach innem adressiert und zwar werden erst die Köpfe durchgeschaltet und dann erst auf die nächste Spur nach innen weitergerückt. Der fehlende Kopf reduziert insgesamt den Durchsatz, da nur 3/4 der möglichen Oberflächen schreiben können.

Da die Spuren im Innern nur halb so lang sind, wie am Rand, haben die HDDs da einen nur halb so großen Durchsatz und zudem muß doppelt so oft auf die nächste Spur gewechselt werden.

Wer für C: über die gesamte Oberfläche genutzt hat, konnte nach 6 Monaten mit massivem Leistungsverlust rechnen. Die Voodoo-Fraktion sprach dann von ominösen "Treiberleichen" und "vermüllt", was aber nur Ausdruck der Hilflosigkeit war. Die Windows-ddls wurde durch Updates einfach immer weiter hinten, vermischt mit Daten abgelegt. Der hintere Ablageort ist aber nicht nur halb so schnell (wie oben beschrieben), sondern da andere Files noch am äußeren Rand stehen, kommt es zu Zugriffen über die gesamte Plattenoberfläche, was dann das System extrem ausbremst.

Die Performance kann man über Jahre erhalten, wenn man die System-partition möglichst klein hält, z.B. 32GB bei Win7 und 60GB bei Win10. Das nennt sich dann short-stroke-technik.

Ich mußte im Büro bis vor wenigen Monaten mit HDD arbeiten. Mit 4GB RAM ist dies fast unmöglich. Mit 8GB RAM ist aber nach ca. 15 Minuten alles Wichtige gecachet und ein hinlänglich reaktionsfreudiger Systemzustand ist erreicht. Wenn man mit 5 Minuten Boot-Zeit leben kann, tut es also auch eine alte Möhre.
Ergänzung ()

paccoderpster schrieb:
Von der Performance limitiert eher die Gigabit Netzwerkanbindung. 3,5" hat für mich ausgedient.
Von der Performance limitiert IMMER das Gigabit-Netzwerk. Mein billiger D-Link ist schon fast 20 Jahre alt, so lange stagniert hier schon die Entwicklung.
Mainstream-HDDs wie eine Seagate Ironwolf oder WD Red Pro erreichen schon lange 230-250MB/s einzeln und selbst das ist schon unerträglich langsam, wenn man ein Backup von der SSD machen will oder ein VM-Ware-Image oder ein raw-Video kopiert. Aktuelle SSDs sind bei 3.500MB/s, um ein Stripeset kommt man also kaum herum, will man die Nerven schonen. Außerdem kann man da auch billigere kleine Größen einsetzen. Eine Seagate ST2000DX001 schafft 200 MB/s für nur 30€.

Da mein PC ohnehin fast immer läuft, wenn ich daheim bin, habe ich mir ein solches lahmes Gigabit-NAS erspart und setze zum Backup auf Wechselrahmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herdware
Danke dass Du dir die Mühe einer Erklärung hingegeben hast.

Die Logik mit dem Rad habe ich verstanden, sieht man auch wenn man man die HDD befüllt dass es immer weiter abnimmt von der Datenrate, was ich nicht verstehe ist; "Köpfe durchgeschaltet" ich dachte es läuft wie im RAID ab, alle in diesem Fall 4 internen Scheiben werden zeitgleich beschrieben, von außen nach innen, der Kopf zwischen den Scheiben muss demnach ja hin und her springen oder eine Seite der Scheibe komplett vernachlässigen.. demnach ist es das Kettenglied das als erste aufgeben muss, kaputt geht.

Dem unsortierten Ablegen sollte aber doch durch defragmentieren entgegensetzte werden, und vernarb von NTFS Dateisystem gibt es doch auch Dateisystem die nicht Fragmentieren. Außerdem soll NCQ dafür sorgen dass der Lesekopf nicht wie ein irrerer durch den Laden läuft, sondern struktuiert Einkäufe(Daten) auf einen Weg hamstert.
 
Reflexion schrieb:
Die Logik mit dem Rad habe ich verstanden, sieht man auch wenn man man die HDD befüllt dass es immer weiter abnimmt von der Datenrate, was ich nicht verstehe ist; "Köpfe durchgeschaltet" ich dachte es läuft wie im RAID ab, alle in diesem Fall 4 internen Scheiben werden zeitgleich beschrieben, von außen nach innen, der Kopf zwischen den Scheiben muss demnach ja hin und her springen oder eine Seite der Scheibe komplett vernachlässigen.. demnach ist es das Kettenglied das als erste aufgeben muss, kaputt geht.

Dem unsortierten Ablegen sollte aber doch durch defragmentieren entgegensetzte werden, und vernarb von NTFS Dateisystem gibt es doch auch Dateisystem die nicht Fragmentieren. Außerdem soll NCQ dafür sorgen dass der Lesekopf nicht wie ein irrerer durch den Laden läuft, sondern struktuiert Einkäufe(Daten) auf einen Weg hamstert.
Die Köpfe sind an einem Kamm und können nur gleichzeitig bewegt werden. Früher, wo die Spuren noch weit auseinander lagen, wurde der Kamm z.B. auf Spur (Zylinder) 5 positioniert und man hätte die Spur 5 von allen Plattenoberflächen gleichzeitig lesen können. Ich glaube aber nicht, daß die das gemacht haben.
Zumindest wurde aber beim sequentiellen Zugriff der Kamm nicht weiterbewegt, um erst die Oberfläche 0, dann 1, dann 2 und dann 3 zu adressieren. Damit hat man diese Bewegung gespart. Viele Zugriffe sind ja sequentiell.

Das mit dem Hin-und herspringen verstehe ich nicht.

Heutzutage sind die Spuren so mikroskopisch dicht, daß ich mir nicht vorstellen kann, daß die Köpfe immer an der gleichen Stelle stehen, d.h. wenn Kopf 0 auf Spur 5 steht, ist Kopf 1 sicherlich etwas verwackelt und muß beim Schreiben nochmal genau ausgerichtet werden. Je mehr Platter verwendet werden, würde die Transferrate auch deutlich steigen, daß kann ich aber oft nicht erkennen.

Seagate hat ja Multi-aktuatoren angekündigt. Theoretisch arbeiten da mehrere Köpfe unabhängig. Die Videos zeigen aber auch blos einen Aktuator der geteilt ist. Zumindest die Hälfte der Platter wird so unabhängig von der anderen Hälfte angesprochen. Je Oberfläche gibt es weiterhin nur einen Kopf.

Die Sache mit dem Defragmentieren vom NTFS bezieht sich auf einzelne Dateien. Hier werden alle Blöcke einer Datei hintereinander sortiert. Kleine Dateien sind aber ohnehin oft in Millisekunden komplett am Stück geschrieben.
Ich meinte aber die Anordnung der Dateien. Selbst wenn die Dateien Defragmentiert (also in einem Stück) vorliegen, können diese über die Oberfläche verteilt sein. Windows hat dazu einen prefetch-Mechanismus (nur bei HDDs im Einsatz), wo komplette Dateien hintereinander angeordnet werden. Dazu wird analysiert, welche Files bei einem Programmstart in welcher Reihenfolge geladen werden. Es gibt da das Verzeichnis \Windows\prefetch\ in dem sich Windows das merkt. Da ist für jedes Executable diese Reihenfolge vermerkt.

Das bezieht sich auf einen einzelnen Programmstart, aber beim Boot werden sehr viele Prozesse gleichzeitig gezündet. Da hilft es weniger, aber besser als garnichts.

So gibt es zahlreiche Optimierungen um den Zugriff aufs Storage möglichst linear mit wenig Sprüngen zu gestalten. Vom Windows, vom Filesystem, vom Treiber. NCQ ist dann eine Optimierung der Plattenhardware, da nur diese die physische Anordnung kennt. Es soll wohl ca. 10% bringen, wenn man "wilde" Zugriffe hat.

Bei SSDs ist das viel wichtiger, weil intern große Blöcke im Speicher befüllt werden, um dann in einem Rutsch zu schreiben. Der Verwaltungsaufwand mit Wearleveling und TRIM und dem zusammensucher der Blöcke ist sehr hoch. Große Puffer verbessern das. SATA hatte 16 Command-Puffer, SCSI 64 und NVMe hat 65536 Puffer.
 
die_bold schrieb:
So ca. 78% laut Statistika....Auf fast jedem Server läuft Linux.... Aber ist schon ok.

Es ging aber nicht um Serveranwendungen, sondern um PCs. Und da spielt Linux kaum eine Rolle
 
Zurück
Oben