WD 3200/6400 AAKS für Raid0?

Magellan

Fleet Admiral
Registriert
Apr. 2006
Beiträge
24.164
Hallo,

hatte vor meine bisherige WD3200AAKS (das alte modell mit 2 Plattern) durch 2 neue mit den 320GB Plattern auszutauschen (im Raid0).
Nun habe ich aber von paar leuten etwas von problemen mit den zugriffszeiten bei den platten gelesen - ist da was dran oder gibts nähere infos?
Das zweite wäre dann wie kann ich beim bestellen in nem onlineshop überhaupt die alte 3200AAKS von der neuen unterscheiden, die zahl der platter steht ja normal nicht dabei.

Alternative wären dann halt 2x 640er allerdings weiß ich nicht so recht was ich mit dem ganzen speicherplatz anfangen sollte - komme ja momentan mit einem viertal davon (gerade noch so) aus...

Danke
 
Nein der plan war eigentlich darauf dann eine partition für system + eine für daten einzurichten

Die jetziger 320er würde ich dann ausmustern.
 
Du musst auf die Revision achten. Die B3 (WD 3200AAKS-00B3A0) ist die neue und hat nur eine Platter drin. Bei den Zugriffszeiten gibt es keine "Probleme", sondern das ist von WD so gewollt. Die 320er hat eine andere Firmware als die 640er und deshalb schlechtere Zugriffszeiten. WD legt da wohl mehr den Fokus auf geringe Geräuschentwicklung.

Im 320er Bereich bietet sich deshalb die Samsung F1 als Alternative an. Die neuen Platten sind allerdings so gut, dass ich auf ein Raid0 verzichten würde. Wenn Du eh partitionieren willst, dann nimm die 640er WD, richte Dir eine "kleine" Systempartition ein, nutze dadurch die schnelle Zugriffszeit und nimm den Rest für Daten.
 
Nun habe ich aber von paar leuten etwas von problemen mit den zugriffszeiten bei den platten gelesen

Was ist damit konkret gemeint ? Sind sie zu hoch ?

Anandtech hat mit PCMark Vantage bei der 640er 12.4ms, bei der 320er 16.4ms gemessen. Beide Werte sind im normalen Bereich, wobei 16ms natürlich nicht gut sind. Oder gibt es spezielle Probleme im RAID ?

Daten würde ich nicht auf RAID 0 legen. Entweder wie gesagt die 640er partitionieren oder diese bzw. die 320er als Datenplatte und fürs das System Raptor, wenn es dir auf Geschwindigkeit ankommt.
 
Mein Ziel ist halt beim normalen arbeiten unter windows und insbesondere beim packen vieler dateien bzw entpacken großer dateien einen deutlichen geschwindigkeitsschub zu bekommen.
Gerade für 7zip usw sollte raid ja schon deutlich was bringen denke ich?

edit: ja das meine ich mit den höheren zugriffszeiten. Da bringtt mir dann das ganze raid ja nix wenn ich den vorteil beim zugriff wieder verspiele.
Also wenn dann 2x 640er. Eine Raptor (bzw wenn dann die kommenden neuen raptoren) sind mir denke ich zu laut da mein system sehr auf silent ausgelegt ist.

Fürs backup habe ich noch eine 400GB Samsung von daher hätte ich kein problem damit die daten auf ein raid0 zu setzen.
 
Zuletzt bearbeitet:
Peformanceschub?
1 Platte für Daten und die Andere fürs System wäre schneller und praktischer.
 
Packen ist ein mehr oder weniger sequenzieller Transfer, RAID 0 ist hier also nützlich. Möglicherweise limitiert aber die CPU.

Optimaler Kompromiss wäre die 640er aufzuteilen, da diese gute Zugriffszeiten hat und schnell transferiert.

RAID 0 mit 2 320er für System und Daten halte ich für riskant, auch machen sich ev. bei Arbeiten unter Windows die schlechten Zugriffszeiten bemerkbar. Möglicherweise kann die Transferleistung wegen CPU-Flaschenhals auch nicht genutzt werden.


EDIT: 2 640er im RAID 0 mit Backup geht natürlich auch ;-)
 
Zuletzt bearbeitet:
Warum willst du denn dei Platten austauschen, wenn alles passt und du den Speicherplatz nicht benötigst?
 
Kann mir nicht vorstellen das der X2 die festplatte ausbremst beim packen usw - hab da laut taskmanager auch keine große cpulast.
Und wenn doch dann dreh ich den guten halt etwas auf - 2,6ghz macht der locker mit, mehr hab ich noch nicht getestet.
Wie auch immer an der cpu wirds nicht scheitern.

Die Frage wäre nun: lieber ein Raid (2x640) und dann partitionieren oder eine platte als system und eine als daten ohne raid - da sollte der raid doch in der regel schneller sein, nur bei nem kopieren von einer auf die andere partition müssts das selbe sein.

Weiß jmd wie das beim packen aussieht wenn das programm (also zb 7zip) auf der system partition/platte liegt und das archiv auf der daten partition/platte, müssen da dann daten zwischen den platten hin und her geschaufelt werden oder läuft das alles zwischen RAM und der Daten Platte ab? (ich nehme an letzteres?)


@ supastar: sorry aber hast du alles gelesen was ich geschrieben habe?
 
Packen ist immer Festplatten-Limitiert. Das ist das schwächste Glied in der Kette.

BTW .. ich wette das Packen von der 1. Platte auf die 2. Platte etwa 100% schneller ist als Packen innerhalb eines Raid0-Arrays (solange weder die 1. noch die 2. Platte die Windows-Temps beherbergt), ganz einfach weil dann beide Platten in ihrem schnellsten Modus arbeiten können und der SL-Kopf nicht wie blöd über den Array fahren muss. Geschickt wäre das übrigens mit 3 Festplatten. Die Packer arbeiten meistens über die Windows-Temp-Verzeichnisse. Wenn man die Temps auf einen 3. Platte packt, dann geht das

Quellplatte
Tempplatte
Zielplatte

Alles Linear Lesend/Schreibend anstatt Random auf einem Array. (nur so für den Hinterkopf).
 
Zuletzt bearbeitet:
Wus? Du hörst Deinen Platten nicht wirklich zu wenn sie arbeiten, oder?

Kopier mal das System32-Verzeichnis innerhalb einer Platte und von einer Platte auf die nächste.
DAS ist der Unterschied zwischen "innerhalb eines Arrays" und von einer Platte auf die nächste.

Das lahme an Festplatten ist doch schon lange nicht mehr die Dauertransferrate, sondern die Zugriffszeit. Je weniger sich der S/L-Kopf bewegen muss, desto schneller läuft das ganze System. Und ich habe da oben ein Beispiel genannt wie man diese Zeit auf ein Minimum reduzieren kann.

Beispiel: Du lädst 1000 von Insgesamt 1GB in den Arbeitsspeicher die wild auf der Platte verteilt sind, dann lädst Du eine Datei die zusammenhängend auf der Platte liegt und auch 1GB groß ist in den Arbeitsspeicher. Von der gleichen Platte. Was ist wohl schneller? Wahrscheinlich die Aktion bei der der S/L-Kopf nicht so viel bewegt werden muss. Wenn Du eine Platte mit 12ms Zugriffszeit hast und 1000 Dateien lädst, dann wird bei der Aktion 12 Sekunden lang der SL-Kopf bewegt (vereinfachtes Beispiel, nicht 100 Prozent korrekt, aber die Relationen stimmen). Und wenn Du 10 Platten in ein Raid0 hängst, die 12 Sekunden werden bleiben.
 
Kopier mal das System32-Verzeichnis innerhalb einer Platte und von einer Platte auf die nächste.

Da hat der Kopf beim Lesen Spass. Aber: Wieso sollte sich die Lesegeschwindigkeit ändern, wenn die Sektoren, in die reingeschrieben wird woanders liegen ?

Der TE hat geschrieben, dass es um große Dateien geht. Die sollten imo auch wenn sie im Temp-Verzeichnis stehen, am Stück sein.
 
Du verstehst scheinbar nicht worauf ich hinauswill.

a) Du Packst ein großes File innerhalb eines (Raid0)Arrays.
Dabei springen die SL-Köpfe aller Platten ständig von der Position der Quelldatei, zur Position der Temp-Verzeichnisse und dann zur Position der Zieldatei .... rödelrödelrödelrödel. Das ist wahlfreier Zugriff: Ultralangsam. (Mach doch mal nen vernünftiges Benchmark das auch die Leistung beim wahlfreien Zugriff auf 4kb-Blöcke einer Festplatte macht und nicht immer nur die komischen Linear-Lesen-Tests, die kommen in der Praxis zu 90% gar nicht vor)

b) Du Packst ein großes File über zwei(drei) Platten
Dabei springt der SL-Kopf gar nicht. Er kann immer schön an seiner Position bleiben. Da ja auf jeder Platte nur eine Datei bearbeitet werden muss: Kein rödelrödelrödel

DAS alleine bringt richtig Punkte. Was bringt Dir 200MB/sec Dauertransferrate, wenn die Platte nur damit beschäftigt ist den SL-Kopf von Position 1 auf Position 2 zu bewegen und dabei 32Kb-Häppchen lädt? Richtig: Gar nix. Weil die Dauertransferrate gar nicht der Flaschenhals ist.

Aber wir können viel hin und her argumentieren. Wenn Du Dich nicht mit dem Ablauf der Dateioperationen auf Festplatten beschäftigst oder es nicht selbst ausprobierst scheine ich gegen eine Wand zu reden.
 
Zuletzt bearbeitet:
Iometer kenn ich schon.

Dabei springen die SL-Köpfe aller Platten ständig von der Position der Quelldatei, zur Position der Temp-Verzeichnisse und dann zur Position der Zieldatei

Die Platte ließt nicht am Stück die Quelldatei, packt sie dann am Stück ins Temp-Verzeichnis und schreibt sie dann am Stück ins Zeilverzeichnis ?
 
*lach*
Das wäre total toll wenn das so gehen würde.
Wie funktioniert das aber bei einer 8GB-Datei auf einem Rechner mit 1GB RAM? (überspritztes Beispiel). Die Entwickler und auch das OS arbeiten mit viel kleineren Einheiten. RAM z.b wird meistens in 4KB-Häppchen bearbeitet. Und die Festplatten-Häppchen sind nicht viel größer.

Ich glaub realistisch sind 64kb-Häppchen, die gelesen/geschrieben werden. Aber das kann man prüfen. Einfach mal den Prozess-Explorer von Sysinternals aufmachen und dann mal auf die Anzeige schielen. Ansonsten muss man wirklich nur hinhören. Die meisten Platten sind ja laut genug im Zugriff.
Leuchtet die HDD-Led dauernd, Du hörst die Platten aber nicht (so wie bei den meisten Benches): Linear
Die HDD-Flackert wie blöd, Du hörst "rödelrödelrödel": Random.
 
Zuletzt bearbeitet:
Jetzt ist mir klar, was du gemeint hast ;). Woran liegt das, dass die Packer nicht in größerem Maße den RAM nutzen können ?
 
DAS frage ich mich auch. Ich denke weil die Entwickler halt vom kleinsten gemeinsamen Nenner ausgehen, und das sind nun mal die Leute die in 256MB RAM ein Windows und 100 laufende Programme quetschen. Bei Winrar wird RAM erst in großen Mengen genutzt wenn Du die Wörterbuch-Größe hochbrezelst. Aber ich glaube nicht dass das in irgend einer Weise mit der Menge der Daten die von der Platte gelesen werden zu tun hat.
 
Programmierung ist jetzt nicht so mein Gebiet, aber wäre es nicht möglich, eine Routine zu schreiben, die Größe des (freien) RAMs zeitnah prüft und entsprechend seine Verwendung steuert. Würde zwar etwas Bandbreite auf dem FSB kosten, das wäre aber nicht das Problem. Der Packer würde sich dann aber bestimmt gut verkaufen ;)
 

Ähnliche Themen

Zurück
Oben