Raid-0 auf Sockel 939 mit 4 Festplatten?

Tweak4U

Banned
Registriert
Dez. 2004
Beiträge
392
Hallo

ich habe mal eine grundsätzliche Frage:

ist es möglich an einem aktuellen Sockel 939 Mainboard 4 identische S-ATA Festplatten zu einem Raid-0 Array zusammenzufassen?

Ich meine nicht Raid-0/1 !!!

wer das definitiv weiß und ein Mainboard kennt, bitte posten



p.s. und bitte keine Posts, ob das Sinn macht oder nicht...
 
Du willst alle vier in ein Raid?
Also mein Mainboard hätte zwei Controller aber dann hättest du 2 Raid0 mit jeweils zwei Platten, das is eher nicht das was du suchst oder?
Wär das Asus K8V.
Ansonsten gäbe es ethliche Radi-Controller die bis zu 12Laufwerke in einen Raid-Verbund packen können.
Kosten aber >200€ und sind oft mit 64bit-PCI
 
Zuletzt bearbeitet von einem Moderator:
JA klar geht das Shadow86 hier aus dem Forum hat 4 Raptoren 74 GB im Raid 0 am laufen. Leider hat er damit soweit ich weis noch Probleme da der Nforce 4 nicht über die 100 MB grenze will. Scheint ein Bug zu sein mal sehen ob mein Asus A8N auch solche Probleme hat oder ob es nur am DFI Board liegt.
 
Shadow86 hier aus dem Forum hat 4 Raptoren 74 GB im Raid 0 am laufen

das hört sich ja schon mal interessant an, aber warum hat der Nforce 4 Probleme mit 100GB? er erkennt doch auch einzelne Festplatten, die wesentlich größer sind :(
 
Ich hatte 100 MB geschrieben !

Ich meinte damit die Average übertragungs Rate ,sobald man mehr als zwei platten im Raid 0 betreibt sackt die leistung auf 100 MB/s zusammen.
 
Ich habe auch 4 Platten an meinem nForce4 Controller und auch erst das Problem gahabt, dass ich bei Benchmarks im sequenziellen lesen bei 100MB/sec stehen geblieben bin.

Wie sich nach diversen Tests rausgestellt hat, hängt das von der Clustergröße ab mit der man das Raid Array aufbaut.

Wenn man die "optimal"-Einstellung nimmt, was einer Clustergröße von 64k entspricht, dann wird man auf 100MB/sec begenzt.
Also habe ich mal eine Testreihe mit allen verfügbaren Clustergrößen durchgeführt und das ist dabei rausgekommen:

4k: 260MB/sec (~40%)
8k: 260MB/sec (~30%)
16k: 260MB/sec (<20%)
32k: 80MB/sec (~15%)
64k-128k: 100MB/sec (<10%)

In Klammern habe ich dahinter immer die Prozessorauslastung geschrieben. Die Transferleistung bezieht sich hier auch immer nur auf die inneren Bereiche der Platten. Im äußeren Bereich erreiche ich auch mit kleinen Clustergrößen nicht mehr als 160MB/sec. Das liegt aber nicht an dem Controller, sondern an den Platten.

Was genau mit dem nForce4 Controller los ist und waum er bei einigen Grössen nicht über bestimmte Geschwindigkeiten hinaus kommt weiß ich auch nicht, aber ich hab die Clustergröße jetzt jedenfalls auf 16k eingestellt und bin auch zufrieden damit.
Kleine Cluster sind mir sowieso etwas lieber, da so auch kleinere Dateien beschleunigt werden und im allgemeinen die Zugriffszeit sinkt.

Der Nachteil ist die höhere Prozessorlast. 20% ist nicht gerade wenig, aber im Realbetrieb stört das nicht. Wenn man etwas von der Platte liest wird die CPU meistens sowieso nicht zu 100% benötigt. Auch beim Entpacken oder ähnlichem gibt es keine Engpässe. Die CPU kann immer noch schneller entpacken, als die Platte lesen kann. Mit aktiviertem Cool'n'Quiet bleibt die CPU jedenfalls bei Festplattenzugriffen auf der untersten Stufe.


Zu den ganzen Messungen muss ich aber auch dazu sagen, dass se rein auf synthetischen Benchmarks beruhen. Von den unterschiedlichen Spitzentransfergeschwindigkeiten merkt man beim tatsächlichen Arbeiten am Rechner nicht all zu viel. Höchstens wenn man große Dateien kopiert oder beim Laden von Spieleleveln (Das Wort sieht irgendwie komisch aus), aber ansonsten tut sich da nicht viel.

Das merkt man auch gut an dem HDD-Benchmarktool der c't (h2bench). Da sieht man kaum Unterschiede in den Messergebnissen bei unterschiedlichen Clustergrössen, da dieses Benchmarktool anwendungsspezifische Tests durchführt.
Zum Beispiel gibt es da für Word oder für Datenbanken eigene Transferleistungen, die dann auch nur im Bereich von 20-40 MB/sec liegen. Diese Werte sind schon realistischer und treten so auch im tatschlichen Betrieb auf.

Dieser Test ist meiner Meinung nach immer noch der aussagekräftigste, aber er dauert auch über eine Stunde.
 
Zuletzt bearbeitet:
hi noxon

danke das war sehr interessant, aber wenn ich mir mehr Tempo mit so hoher Prozessorlast erkaufe, werde ich bei 2 Raptoren bleiben, die reichen ja auch. Oder ich hole mir eine aktuelle gute S-ATA II Platte, die langt ja eigentlich auch ;)


danke für alle Antworten
 
Naja. Zwei Platten werden deine CPU schon weniger belasten, aber ich habe wie gesagt noch keine Situation erlebt, wo ich die 20% weniger Prozessorleistung vermisst hätte.
Das tritt ja nur beim sequenziellen Lesen auf. Gelegentliche Zugriffe auf die Platte fallen gar nicht auf. Auch in Spielen merkt man das nicht, selbst wenn es Spiele wie GTA:SA sind, die Levelteile während des Spiels immer wieder von Platte nachladen.
Absolut keine Probleme. Wofür hat man sonst die brutale Rechenpower der heutigen Prozessoren? Für normale Anwendungen braucht man die eh nicht.
Und wenn du sie wirklich reduzieren willst, dann erhöhe die Clustersize des Arrays. Diese 100MB/sec Grenze hat glaube ich im Alltag nicht viel zu sagen, wie es auch der c't Benchmark gezeigt hat. Dem war es egal, welche Clustergröße ich verwendet hab, das Ergebnis war immer das Gleiche.

Den Geschwindigkeitsvorteil, den du mit einem 4x Raid 0 hast ist meiner Meinung nach weit höher, als ein gelegentlicher CPU-Performanceverust.

Ich persönlich möchte ungerne wieder mit einem 2x Raid 0 arbeiten. Ich kann dir ein 4x nur empfehlen. Selbst beim normalen Arbeiten mit Windows ist der gefühlte Geschwindigkeitszuwachs erstaunlich hoch.

Nochwas zu den Raptoren. Ich weiß nicht, ob man auf den Sanda-Benchmark was geben kann, aber ich habe mit meinen 4 Samsung, als auch mit meinen 4 WD-Platten einen höheren Leistungsindex erreicht, als 4 Raptor-Platten. Ich kann mir zwar nur schlecht vorstellen, dass das stimmt, aber wollte es trotzdem mal erwähnt haben.
 
dann dürfte es ja eigentlich beim Athlon64 X2 eine noch geringere Rolle spielen, denn den werde ich nämlich auch einsetzen
 
Hi noxon,

Die Transferleistung bezieht sich hier auch immer nur auf die inneren Bereiche der Platten. Im äußeren Bereich erreiche ich auch mit kleinen Clustergrößen nicht mehr als 160MB/sec. Das liegt aber nicht an dem Controller, sondern an den Platten.
Andersherum wird ein Schuh draus. Festplatten sind im äußeren Bereich schneller als im inneren. Nur als kleiner Hinweis. ;)

Wenn man die "optimal"-Einstellung nimmt, was einer Clustergröße von 64k entspricht, dann wird man auf 100MB/sec begenzt.
Also habe ich mal eine Testreihe mit allen verfügbaren Clustergrößen durchgeführt und das ist dabei rausgekommen:
Deine Testergebnisse finde ich recht interessant. Kann es aber vielleicht sein, dass du hier die Clustersize mit der Stripesize verwechselst? Seit wann unterstützen FAT und NTFS größere Cluster als 64 KB?

Im Übrigen kann es auch am verwendeten Benchmark liegen. HD-Tach z.B. hat ein Problem mit einer größeren Stripesize als 16 KB. Zumindest war das bei den 2.xx Versionen der Fall. Wie es bei der aktuellen 3er Version aussieht weiß ich nicht. HD-Tach hat damals oberhalb der 16 KB nur noch unsinn gemessen.

Nochwas zu den Raptoren. Ich weiß nicht, ob man auf den Sanda-Benchmark was geben kann, aber ich habe mit meinen 4 Samsung, als auch mit meinen 4 WD-Platten einen höheren Leistungsindex erreicht, als 4 Raptor-Platten. Ich kann mir zwar nur schlecht vorstellen, dass das stimmt, aber wollte es trotzdem mal erwähnt haben.
Das kann schon sein. Sandra ermittelt, wie die meisten synthetischen Benchmarks auch, den Leistungsindex in einem kleinen Bereich auf der Platte, der je nach Lage der Partition (im falle von Sandra) sehr weit vorne im schnellen Bereich der Platte liegt. Ein Array aus 4 Samsung Platten ist wesentlich größer als eins aus 4 Raptoren. Bei größeren Platten bzw. Arrays liegt dieser Testabschnitt weiter vorne als bei einem kleineren Array, was sich auf die durchschnittliche Transferrate und auch die mittlere Zugriffszeit auswirkt. Die S-/L-Köpfe haben einen kürzeren Weg zu überwinden um an den Zielsektor zu gelangen. Wenn man davon ausgehen kann, dass der Testabschnitt in der ersten Partition ganz vorne liegt, kommt das Samsung Array von der durchschnittlichen Transferrate und auch der mittleren Zugriffszeit dem Raptor Array sehr nahe und kann es eventuell sogar übertreffen.

Das um einiges größere Samsung Array kann auch in der Praxis durchaus schneller sein, als das Raptor Array.
 
Madnex schrieb:
Andersherum wird ein Schuh draus. Festplatten sind im äußeren Bereich schneller als im inneren. Nur als kleiner Hinweis. ;)

Ups. Stimmt. Ich wollte damit nur sagen, dass die Daten am logischen Anfang der Platte (also außen) schneller gelesen werden. Die 260 MB/sec sind also nicht konstant über die gesamte Kapazität vorhanden.

Deine Testergebnisse finde ich recht interessant. Kann es aber vielleicht sein, dass du hier die Clustersize mit der Stripesize verwechselst? Seit wann unterstützen FAT und NTFS größere Cluster als 64 KB?

Hast recht. Ich meinte die Stripesize. Die Clustersize des Dateisystems ist immer auf den standardmäßigen 4kb geblieben, die Windows bei der Installation automatisch wählt.

Im Übrigen kann es auch am verwendeten Benchmark liegen. HD-Tach z.B. hat ein Problem mit einer größeren Stripesize als 16 KB. Zumindest war das bei den 2.xx Versionen der Fall. Wie es bei der aktuellen 3er Version aussieht weiß ich nicht. HD-Tach hat damals oberhalb der 16 KB nur noch unsinn gemessen.

Jup. Das Problem hat HD-Tach immer noch. Ich habe aber auch etliche andere Benchmarktools (IO-Meter, AIDA 32, Sandra, HD Tune und noch ein paar andere) genommen und bei allen gab es diese komische Begrenzung bei den 100MB/sec.

Deshalb verlasse ich mich eigentlich auch nur auf h2bench. Da kamen bei den unterschiedlichen Stripesizes ungefähr die gleichen Werte raus. Wie ich schon sagte spielt diese komische 100MB/sec Grenze im Alltag wahrscheinlich keine große Rolle.
Allerdings gab es auch da bei den kleineren Größen leichte Vorsprünge, was aber nicht unbedingt an dieser Limitierung liegen muss.


Das kann schon sein. Sandra ermittelt, wie die meisten synthetischen Benchmarks auch, den Leistungsindex in einem kleinen Bereich auf der Platte, der je nach Lage der Partition (im falle von Sandra) sehr weit vorne im schnellen Bereich der Platte liegt. Ein Array aus 4 Samsung Platten ist wesentlich größer als eins aus 4 Raptoren. Bei größeren Platten bzw. Arrays liegt dieser Testabschnitt weiter vorne als bei einem kleineren Array, was sich auf die durchschnittliche Transferrate und auch die mittlere Zugriffszeit auswirkt. Die S-/L-Köpfe haben einen kürzeren Weg zu überwinden um an den Zielsektor zu gelangen. Wenn man davon ausgehen kann, dass der Testabschnitt in der ersten Partition ganz vorne liegt, kommt das Samsung Array von der durchschnittlichen Transferrate und auch der mittleren Zugriffszeit dem Raptor Array sehr nahe und kann es eventuell sogar übertreffen.

Das um einiges größere Samsung Array kann auch in der Praxis durchaus schneller sein, als das Raptor Array.

Ahh. Das ist natürlich eine Erklärung. Ich habe mich schon gewundert.



BTW: Kennst du noch gute Benchmarktools, wie zum Beispiel h2bench, die die Festplatte anhand von Zugriffsmustern bestimmter Anwendungen testen?
 
Zuletzt bearbeitet:
BTW: Kennst du noch gute Benchmarktools, wie zum Beispiel h2bench, die die Festplatte anhand von Zugriffsmustern bestimmter Anwendungen testen?
Da würde mir jetzt nur der HighEnd und Business Disk WinMark vom ZD Winbench einfallen. Alternativ vielleicht der FileCopy-Test von xbitlabs.
 
Zurück
Oben