Fileserver - Probleme mit Raid5

Spring23

Cadet 4th Year
Registriert
Juni 2010
Beiträge
74
Ich habe vor ein paar tagen hier schon Fragen zu meinem Plan einen Fileserver zu basteln gestellt. Nun stitze ich seit Freitag verzweifelt daran, ihn zum laufen zu bringen.

OS: openSuse 11.2 64Bit
Hardware:
- Core i3 530
- 4 GB Geil 1333er Ram
- Asus P7H55D-M Evo
- 500GB SATA Fesplatte fürs OS
- 300W Netzteil
- eigentlich 8 x 1TB Fesplatten, zu testzwecken jedoch erst 4xWD10EARS, da ich von den anderen Platten zuesrt Backups machen muss.
- PCI Karte für 4 zusätzliche SATA Anschlüsse

Plan:
- 2x1TB Raid0 (für Dinge die schnell kopiert werden sollen und nicht soo wichtig sind)
- 6xWD10EARS Raid5 (für eher wichtige Dinge. Dass ein Raid kein Backup ersetzt ist mir übrigens klar.^^)

Vorest habe ich ein Raid5 aus 4xWD10EARS zu Testzwecken, da die anderen beiden Platen noch eingepackt sind, solange es noch Probleme gibt (wegen evtl. zurückschicken.)

Probleme:
- Der Raid5 Verbund aus den 4 WD10EARS ist verdammt langsam < 20MB/s beim schriebn und nicht wesentlich mehr als 35MB/s beim lesen. Alle Prozesse, die etwas mit dem Raid zu tun haben gehen zusammen nicht über 4-8% CPU Auslastung hinaus. Die CPU Last ist insgesamt immer unter 20%. Es kam anfangs zu Problemen bei dem Alignment. Jedoch sollte ich das eigentlich gelöst haben, was der Folgende Test beweisen dürfte.
- Ich dann getestet was passiert, wenn ich 2 dieser Festplatten im Raid0 laufen lasse. Dabei erreichen die Festplatten konstant um die 240MB/s. Mit diesem Wert wäre ich mehr als zufrieden. Als Referenz habe ich meine beiden älteren 1TB Platten zu einem Raid0 zusammengefügt und kam auf etwas niedriegere Werte ~230MB/s. Dies sollte eigentlich zeigen, dass das Alignment korrekt ist, oder?
- Bei den älteren Festplatten (+eine schnelle 500GB Platte - nur zu Testzwecken) bekomme ich im Raid5 beim schreiben zwar nur 17MB/s, dafür aber beim lesen immerhin etwa 70MB/s. Damit wäre ich ja schon fast zufrieden. Aber wieso ist mein Raid5 verbund aus 4xWD10EARS immer so langsam?

Wie gesagt sitze ich seit Freitag daran und bin total am verzweifeln und kurz davor die neuen Festplatten zurückzuschicken und mir welche ohne diese 4KB Sektorsystem zu kaufen.

Weiß jemand rat oder hat eine Idee, was ich machen könnte?

Ich habe nicht mehr so viel Zeit und muss mich unbedingt bis morgen entscheiden haben, was ich mit den Festplatten mache, da sonst die 14 tage ablaufen und ich während der Woche echt keine zeit habe.
 
welches mdadm? welcher chip auf der pcikarte? schon nach mdadm + namen des pcichips gesucht?
beim schreiben isses langsam, selbstverständlich. das alignment beim raid5 ist natürlich anders als beim raid0, zudem spielen blocksize, chunksize etc. und der art des tests natürlich eine große rolle. mit was testest du denn überhaupt?

"pcikarte" klingt schonmal übel. das sollte zumindestens pcie sein, die billigen PCIkarten bewegen sich selten an der maximalen bandbreite von PCI (133mb/s), sondern meist kilometerweit darunter. und diese billigchips sind meist recht beschränkt, kann schon sein, dass der controller mit zwei platten schneller arbeitet als mit vier, weil er bestimmte teile shared und daher schlecht auf raid5 zugriffe reagiert. dafür gibt es extra hardware. die sollte man sich auch leisten können wenn man schon für acht terabyteplatten geld hat.
du weißt schon, dass der rechenleistungsbedarf für die parität steigt je mehr platten man im raid5 hat und daher drei bis viermal 1,5tb oder 2tb viel mehr sinn machen solange der raidcontroller bzw. der softwareraid das limitierende sind und nicht die Geschwindigkeit der einzelnen platten?
Diese controller kommen selten an eine ordentliche southbridge ran, intel oder nvidia satacontroller sind meist gewaltig besser als so ein pciteil. wenn die nichtmal den normalen nonraided teil ordentlich optimieren können würde ich nicht damit rechnen dass der hersteller jemals das leistungsverhalten im raid5 überprüft hat. völlig normal, dass ein solcher controller in einer solchen Umgebung dann abstinkt, vermutlich sind das unzälige leistungsbugs die man im non-raid wenig merkt, die dann aber im raid5 umso deutlicher zutage treten.
wie siehts aus mit advanced read ahead und solchen features, eventuell ist es auch ein bug der zu intelligenten platte in kombination mit dem controller.

schonmal an einen hardware raid5 gedacht? einfache hardwarelösungen ohne speicher sind mittlerweile verdammt erschwinglich. ich habe im 3dcenter spottbillig einen axus fit 3fach raidcage erstanden und kriege da 150mb/s aus drei samsung ecogreen F2 platten an einem Atom 330 + ION. da ist irgendein jmicron hardwareraidcontroller drin und ich muss sagen der ist nicht übel für die zwecke. klar ein controller mit schreibcache kann bei vielen anwendungen gewaltig schneller sein, aber ich benutze lieber exzessiv den dateisystemcache von ext4 in ubuntu, das ist billiger und kommt auf was ähnliches raus.

ein dell perc gibts teilweise bei ebay schon für unter 150e und der ist sauschnell - schneller als mein axus fit 300-i und hat einen großzügigen schreibcache. versuch doch den hier zu bekommen, de rist deluxe: http://cgi.ebay.de/DELL-PERC-5i-SAS...md=ViewItem&pt=Controller&hash=item19bcf42254
oder so einen LSI: http://cgi.ebay.de/LSI-MegaRAID-MR-...md=ViewItem&pt=Controller&hash=item19bcf3effb
sorglospakete sind aber auch die ganzen jmicronbasierten teile, die kommen mit einer sehr einfachen plattformunabhängigen software die das alignment und einrichten der partitionen vollständig übernimmt. der lianli controller ist etwa eine solche hardwareraidlösung ohne cache: http://geizhals.at/deutschland/a523662.html

ich würde außerdem die platten zurückschicken, weil 1,5TB platten nicht nur prei-leistungsmäßig besser sind. weniger platten bedeutet weniger daten in die parität mit einzurechnen und damit mehr leistung bei schwachbrüstigen raidcontrollern und softwareraidlösungen, nicht zu schweigen dass die durchschnittliche zugriffsrate natürlich auch nicht schlechter ist mit weniger platten, weil weniger wahrscheinlich dass eine platte mal länger braucht.
im edeffekt hast du auch eine deutlich geringere ausfallwahrscheinlichkeit mit wenig platten. bei sechs oder gar acht platten brauchste ja immer ein bis zwei platten in reserve die du hin und herschickst, so einen monat würde ich einen compromised RAID5 mit sechs platten keinesfalls laufen lassen...

gib die dinger zurück, da kriegst du gut geld für und bei der stromrechnung sparste auch mit größeren platten statt mehreren.

wenn du bei softwareraid bleiben willst holste dann 4x 2TB und haust die in einen raid0+1. ist etwas teurer, aber auch sehr schnell.

wenn es ein raid5 sein muss, dann sollte auch ein controller her, 4x 1,5TB und der Lianli-controller kosten auch gerademal 80€ mehr als dein bisheriges setup.
 
Zuletzt bearbeitet:
Die Version von mdadm ist die "Originalversion" die bei openSuse 11.2 mitdabei ist. Ich kann später nochmal nachgucken welche das genau ist, wenn das hilft. Ich habe den PC gerade aus, weil ich noch das Retrourschreiben für die 2 Festplatten fertig machen muss.

Oh, das habe ich vergessen. Ich habe den PCI Raid Controller zunächst einmal völlig außen vor gelassen. Dennoch: Ich habe den hier: http://www.amazon.de/Delock-Control...=sr_1_3?ie=UTF8&s=ce-de&qid=1276445328&sr=8-3

und bin danach gegangen: "Klar, neueste SATA-HDDs werden von der Karte limitiert bei knapp über 90MB/s, aber das trifft für etliche PCI-Karten zu."
Das würde mir reichen, da als limitierender Faktor sowieso noch die Lanübertragung hinzukommt. (100MBit Übertragung über den Router.)

Zudem wollte ich ein Softwareriad machen, falls das nicht ganz klar wurde. Denn ich bräuchte einen Raidcontroller mit 8 Anschlüssen und das dürfte schwierig werden für einen akzeptablen Preis. Der Teil war eigentlich recht sicher. Blöderweise muss ich selbst wenn ich die 2 neuen Festplatten zurückschicke leider meine alten 1TB Festplatten behalten und 1.5 oder 2TB Festplatten in ein Raid5 mit 1TB Festplatten einbinden macht ja kaum Sinn, oder?

Daher evtl. neue Option:
- 6x1TB Platten, nicht vom selben Typ im Raid5
- 2x 1.5 oder 2TB Platten im Raid0, immer mit entsprechender Sicherung

Ich weiß nicht, wie ich die 1TB Platten sonst unterbekommen soll...

Mir ist es wirklich ein Rätsel, was Raid5 da für Probleme verursacht. Das ist wirklich seltsam, da ich durch meine Tests eigentlich schon fast alle Dinge hätte ausschließen können. Ich hbae imermehr den Eindruck, dass das 4KB Alignment immernoch Probleme bereitet. Zudem ist mir, als eher Laie völlig unklar, wo denn hier irgendwas begrenzen soll, aslso beim Raid5, wenn der Controller ja offensichtlich höhere Schreibgeschwindigkeiten unterstützt (tests mit Raid0) und die Prozessorlast nicht über 4-8% hinausgeht.

Ach, Sektorgröße bei allen Raids war 128KB und ich habe left irgendwas gelassen beim Partitionieren. Das war Standartmäßig ausgewählt.^^'

Ich werde mir deinen Beitrag gleich nochmal durchlesen und analysieren. Da du mehrere Ansätze vorgeschlagen hattest. Ich hbae eben nur nochmal meinen aktuellen Standpunkt geschildert.
 
dann update mal mdadm. bei debian könnt ichs dir sagen (apt-get install mdadm), irgendein spezifischer grund wieso es suse sein soll? (finde persönlich debian für server performanter und stabiler und als ubuntuversion letzendlich auch bequemer...)

mdadm lastet den prozessor auch nie mehr als diese 4-8% aus (vorrausgesetzt es ist kein penium 2) und schont auch die ressourcen. zudem kommen alle daten für die parität aus dem hauptspeicher oder von platte, der prozessor kann also gar nicht ausgelastet sein, weil er nicht aus seinen caches löffeln kann, sondern nach jedem chunk mit langen latenzen zu kämpfen hat. selbst wenn nur 4-8% last angezeigt werden kann das schon die maximale geschwindigkeit der paritätsberechnung sein, da sie low priority ist und nur winzige datenmengen bei hohen latenzen hin und her geschoben werden. da weder bandbreite limitiert noch prozessorleistung schaut das dann im taskmanager nach keiner auslastung aus, in wirklichkeit isses das aber schon.

das muss aber auch was anderes sein, was da limitiert, denn die leseraten sollten von sowas ja nicht beeinflusst sein. denke dass du wirklich ein problem mit deiner hardwarekombination hast, denn:

- du nimmst völlig normale consumer sata disks. hersteller bieten für raid spezielle platten an deren firmwares besser für raidartige lastzenarien ausgelegt sind. das kommt nicht von irgendwoher, es gab schon einige consumerplatten die im raid0 gar langsamer als alleine liefen, solche bugs treten durchaus auf, der hersteller garantiert ja auch nichts bzgl. raidfähigkeit.
- Raid0 ist kein RAID! Viel eher ein AID (array of inexpensive Disks, aber nicht redundant). Daher ist der auch keinerweise mit irgendeinem Raid vergleichbar. AID0 ist striping, das hat nichts mit paritäten zutun und auch nichts mit den unterschiedlichen lasten die bei einer verteilung der parität abwechselnd auf die platten entstehen. daher sind die raid0 werte wenig ausschlaggebend, selbst wenn das ein vierplatten raid0 war. das partition alignment ist nicht dasselbe wie bei einem Raid0! das sector alignment der zugrundeliegenden partitionen aus denen du den raid zusammenfügst vielleicht schon...
- Du hast nie und nimmer 240mb/s an diesem Controller gekriegt, das glaub ich nicht weil PCI macht bei 133MB/s schluss, der Controller durch Overhead und so noch etwas eher. Das war viel mehr an deiner southbridge mit zwei platten, also ein völlig anderes szenario, vielleicht sogar noch zum Teil aus dem dateisystemcache (seit ext4 geht linus recht exzessiv mit dem freien ram als dateisystemcache um). mach mal ein einzelplattentest und einen vierplatten raid 1, dann wissen wir mehr... (müsste knapp unter den einzelplattenwerten herauskommen).
- du nimmst einen uralten sata-150 controller an dem man eventuell vier sataplatten anschließen kann für vier nagelneue sata 3gbps Platten. Das allein kann schon manchmal probleme darstellen, ich kenne diverse boards mit SATA(vor allem ältere nvidia K8 chipsätze) die mit einer modernen Sataplatte gar nicht starten. manche platten bieten da jumper oder firmwareflashes für die abwärtskompatibilität, bei den größeren platten habe ich das aber noch nicht gesehen. Und wie gesagt, die parallele aber sehr unterschiedliche Belastung (die paritätsinformation ist meist schreibintensiver und größer als die anderen teile) gleich von vier platten gleichzeitig an einem solchen billigcontroller ist einfach mehr als wofür er gebaut wurde.

Du hast soviel Bremsen und Ungewisse in deinem Setup, dass man beim besten willen nicht sagen kann woran es denn gerade liegt - ein wunder dass es überhaupt geht und in vielen Fällen erscheint es mir eher logisch das keine bessere performance bei herauskommt.
linux software raid5 ist verdammt perfomant, in den leseraten sogar nicht selten besser als billige hardwareraids, aber die software ist ebenfalls für die verteilung eines großen raid über mehrere hochenwickelte SCSI-controller entwickelt worden oder zumindest für ausgereifte southbridgecontroller in entrylevel servern von Intel oder AMD.
mehr dazu hier: http://forum.ubuntuusers.de/topic/software-raid-5-mit-grauenhafter-performance/

Ehrlich gesagt würde ich mir den Raid0 sparen. was erhoffst du dir davon, wenn sowieso nicht mehr übers Lan geht? Ladezeiten von Games sinken eher selten, es gibt diverse Fälle wo simples Raid0 eher durch erhöhte zugriffszeiten negativ auffällt (z.B. boot oder kleine dateien kopieren). Und für wechselnde Lese-Schreibvorgänge ist ein Raid0 auch nicht gerade ideal.
Von was kopierst du denn wenn das so schnell gehen muss? Vom Lan oder externer Platte ist doch sowieso immer langsamer als eine einzelne Platte.
Dann lieber ne SSD, die kann man auch als zwischenspeicher benutzen, man muss nur eben häufiger aufräumen als bei nem 1TB Raid0.

Versuch dochmal das RAID über die southbridge deines boards laufen zu lassen.

Wieso kannst du die anderen Platten denn nicht auch einfach verkaufen sobald du alles umgezogen hast? Glaub mir, das gebastel nervt auf dauer und die hardwareraidlösungen sind soo teuer nun auch wieder nicht, wenn man den preis der gesamtlösung betrachtet gerademal 20-30%. ich hab glück gehabt, mein gebrauchter fit-300i raidcage hat nur n fuffi gekostet, aber jetzt endlich ruhe zu haben vom konfigurationsgedöns, genug sataports für dvd und ssd übrig zu haben etc. das wär mir auch mehr wert gewesen im nachhinein...

achso, wenn wir dabei sind - kauf dir auch gleich einen neuen router. bei 100mbit kriegste ja gerademal 12Mbyte/s durch, Gigabit sollte es schon sein. - das packt übrigens auch ein intel Atom ans netzwerklimit zu stoßen (hatte bisher software raid5 an nvidia southbridge ), so 80-90mb/s (45mb/s schreiben)mehr schafft aber eben mein drecks netgear consumer gigabitswitch ohne jumboframes nicht. Der softwareraid hatte im webmin testbench trotzdem seine 147MB/s leserate lokal... - das mit drei spinpoint F1 platten. Die F2s jetzt verbrauchen halbsoviel und die Leseraten sind dieselben, minus schreibschwäche dank hardwareraid, jetzt ist also das LAN wirklich das limit und dank OS-SSD + ION kann man trotzdem HDzeugs gucken während immer noch 90m/bs durchs netzwerk tröpfeln...
Ergänzung ()

Spring23 schrieb:
Zudem wollte ich ein Softwareriad machen, falls das nicht ganz klar wurde. Denn ich bräuchte einen Raidcontroller mit 8 Anschlüssen und das dürfte schwierig werden für einen akzeptablen Preis. Der Teil war eigentlich recht sicher.
wie gesagt, gebraucht schon recht günstig. billiger natürlich ist ein 4port oder 5port controller, der lianli5port wäre z.B. auch für 4TB gut (5 platten), das ist nur eine weniger als du wolltest.

Blöderweise muss ich selbst wenn ich die 2 neuen Festplatten zurückschicke leider meine alten 1TB Festplatten behalten und 1.5 oder 2TB Festplatten in ein Raid5 mit 1TB Festplatten einbinden macht ja kaum Sinn, oder?
doch, macht sinn. also du hast bisher vier 1tbplatten? dann kannste zwei 1,5er dazu nehmen und über alle sechs einen raid5 (1tb pro stück) und den restlichen platz auf den 1500ern in einen raid0 packen.

den sinn des ganzen habe ich ja aber bereits oben hinterfragt...
 
Zuletzt bearbeitet:
davidzo schrieb:
- Du hast nie und nimmer 240mb/s an diesem Controller gekriegt, das glaub ich nicht weil PCI macht bei 133MB/s schluss, der Controller durch Overhead und so noch etwas eher. Das war viel mehr an deiner southbridge mit zwei platten, also ein völlig anderes szenario, vielleicht sogar noch zum Teil aus dem dateisystemcache (seit ext4 geht linus recht exzessiv mit dem freien ram als dateisystemcache um). mach mal ein einzelplattentest und einen vierplatten raid 1, dann wissen wir mehr... (müsste knapp unter den einzelplattenwerten herauskommen).
Völlig korrekt, die Platten hingen alle am Mainboard, das aufgrund des doch recht neuen Chipsatztes vermutlich ziemlich gut für meine Zwecke geeignet ist.

davidzo schrieb:
Du hast soviel Bremsen und Ungewisse in deinem Setup, dass man beim besten willen nicht sagen kann woran es denn gerade liegt - ein wunder dass es überhaupt geht und in vielen Fällen erscheint es mir eher logisch das keine bessere performance bei herauskommt.
linux software raid5 ist verdammt perfomant, in den leseraten sogar nicht selten besser als billige hardwareraids, aber die software ist ebenfalls für die verteilung eines großen raid über mehrere hochenwickelte SCSI-controller entwickelt worden oder zumindest für ausgereifte southbridgecontroller in entrylevel servern von Intel oder AMD.
mehr dazu hier: http://forum.ubuntuusers.de/topic/software-raid-5-mit-grauenhafter-performance/
Ich bin gerade am Umplanen, mehr dazu weiter unten.

davidzo schrieb:
Ehrlich gesagt würde ich mir den Raid0 sparen. was erhoffst du dir davon, wenn sowieso nicht mehr übers Lan geht? Ladezeiten von Games sinken eher selten, es gibt diverse Fälle wo simples Raid0 eher durch erhöhte zugriffszeiten negativ auffällt (z.B. boot oder kleine dateien kopieren). Und für wechselnde Lese-Schreibvorgänge ist ein Raid0 auch nicht gerade ideal.
Von was kopierst du denn wenn das so schnell gehen muss? Vom Lan oder externer Platte ist doch sowieso immer langsamer als eine einzelne Platte.
Dann lieber ne SSD, die kann man auch als zwischenspeicher benutzen, man muss nur eben häufiger aufräumen als bei nem 1TB Raid0.
Raid0 war nur aus testzwecken, da ich irrtümlicherweise dachte, das wäre vergleichbar. Ein Raid0 werde ich definitiv nicht einsetzten.

davidzo schrieb:
Versuch dochmal das RAID über die southbridge deines boards laufen zu lassen.
War bereits der Fall. Alle Platten hingen am Mainboard selbst. Die PCI Karte ist noch eingepackt und geht entweder zurück oder wird für die Systemplattegenutzt.

davidzo schrieb:
Wieso kannst du die anderen Platten denn nicht auch einfach verkaufen sobald du alles umgezogen hast? Glaub mir, das gebastel nervt auf dauer und die hardwareraidlösungen sind soo teuer nun auch wieder nicht, wenn man den preis der gesamtlösung betrachtet gerademal 20-30%. ich hab glück gehabt, mein gebrauchter fit-300i raidcage hat nur n fuffi gekostet, aber jetzt endlich ruhe zu haben vom konfigurationsgedöns, genug sataports für dvd und ssd übrig zu haben etc. das wär mir auch mehr wert gewesen im nachhinein...
Wird sowieso jetzt so ähnlich gemacht. Mehr dazu weiter unten.

davidzo schrieb:
achso, wenn wir dabei sind - kauf dir auch gleich einen neuen router. bei 100mbit kriegste ja gerademal 12Mbyte/s durch, Gigabit sollte es schon sein. - das packt übrigens auch ein intel Atom ans netzwerklimit zu stoßen (hatte bisher software raid5 an nvidia southbridge ), so 80-90mb/s (45mb/s schreiben)mehr schafft aber eben mein drecks netgear consumer gigabitswitch ohne jumboframes nicht. Der softwareraid hatte im webmin testbench trotzdem seine 147MB/s leserate lokal... - das mit drei spinpoint F1 platten. Die F2s jetzt verbrauchen halbsoviel und die Leseraten sind dieselben, minus schreibschwäche dank hardwareraid, jetzt ist also das LAN wirklich das limit und dank OS-SSD + ION kann man trotzdem HDzeugs gucken während immer noch 90m/bs durchs netzwerk tröpfeln...
Ich hatte etwa 11MB/s, also auch völlig korrekt. Ein neuer Router wird auch gleich auf die Liste gesetzt und demnächst gekauft.

davidzo schrieb:
Ergänzung ()

wie gesagt, gebraucht schon recht günstig. billiger natürlich ist ein 4port oder 5port controller, der lianli5port wäre z.B. auch für 4TB gut (5 platten), das ist nur eine weniger als du wolltest.


doch, macht sinn. also du hast bisher vier 1tbplatten? dann kannste zwei 1,5er dazu nehmen und über alle sechs einen raid5 (1tb pro stück) und den restlichen platz auf den 1500ern in einen raid0 packen.

den sinn des ganzen habe ich ja aber bereits oben hinterfragt...

So, zunächst einmal vielen Dank für deine wirklich super Hilfe!!!

Neuer Plan:

4 1TB Festplatten werden in möglichst günstiges extrenes Gehäuse gemacht zur Datensichgerung.
Die anderen 1TB Festplatten gehen zurück bzw. werden verkauft.
Raidcontroller wird evt. fürs Betriebssystem benutzt.

Neuer Router muss her und ich wwerde mein Netzwerk stark optimieren aug 1GBit Lan.

Dann zum Server selbst:

Ich wollte Suse, da ich mich damit bereits etwas auskenne. Ich werde allerdings wirklich in erwägung ziehen Debin zu nutzen, da es mir auch von Freunde oft empfolen wurde und ich mich nur vor der intensiveren Konsolennutzung gescheut habe.

Als Festplatten kommen wahrscheinlich 6x 2TB rein, die allesamt hoffenlich gut per Softwareraid funktionieren. Alle an die Mainboardanschlüsse. Betriebssystem kommt an eine IDE Platte oder den billigen Raidcontroller.

Wenn ich jetzt sowieso schon anfange muss ich das ganze auch richtig durchziehen, da ich ja nicht nachtäglich an der Größe des Raids herumpfuschen kann. (Ich habe sowieso lange dafür gespart und sollte mir das nächsten Monat spätestens leiten können.)

Was sagst du zu dieser neuen Planung? Ich denke ich habe jetzt die extremsten Schwachpunkte entfernt.

Jetzt habe ich jedoch wieder das Problem, welche Festplatten?
WD20EARS sind mit Abstand am günstigsten und aus Erfahung vertraue ich Samsung nicht mehr wirklich und Seagate soll es angeblich Probleme bei diesen Größen geben.

WD20EVDS sind als 24/7 Platten geeigent, was sicherlich auch ganz nett wäre und sie haben auch nicht dieses "Western Digital Advanced Format ".
Die Platten sollten nicht allzu Stromfressend sein und möglichst langlebig. Die Geschwindigkeit ist eigentlich Sekundär, solange die Werte nicht gerade unter 50MB/s liegen.
 
kein problem, freut mich das ich helfen konnte.

sieht gut aus. für reine datengrabe sind software raid5 lösungen super.

was die hdmarke angeht, keiner der hersteller hat da ein geheimnis für die haltbarkeit das der andere nicht kennt. besondere konstruktionsfehler in einer serie werden erst nach jahren bemerkt und behoben - es gibt bei jedem hersteller schwarze schafe. samsung hatte nur mit den sp21c und den t166 mehrere schwarze schafe in der anfangszeit der satalaufwerke.

bei mir lief aber der 2tb raid5 (3x f1 1TB) sehr gut für ein gutes jahr und die platten habe ich nach jetzt 2 jahren immer noch als externe im einsatz. die ecogreen f2 sind ebenfalls bereits seit etwa 12monaten im raid5 im einsatz. bisher keine ausfälle, scheint also keine montagsserie zu sein.

die WD20EVDS sehen allerdings auch echt lecker aus.

sechs davon im softwareraid5 ergeben 10 terabyte (ca. 8,5 real) an schnellem plattenplatz - an der intel southbridge reichen die speedmäßig auch dicke um das netzwerkinterface auszureizen. sollte so zwischen 140 und 300mb/s lese und 45-120mb/s schreibrate erreichen, allerdings hohe cpulast bei raid5 software mit sechs platten.
ich würde die platten bei sechs gleichen als ganze devices einbinden, dann sparst du dir das alignment, kommt ja keinerlei anderes raid rauf außer raid5. also nicht md0 aus /dev/sda1 /dev/sb1 /dev/sdc1 usw. sondern md0 bestehens aus /dev/sda /dev/sdb /dev/sdc usw.
partitionen kann man dann ja beliebig viele drauf erstellen wenn man wollte.

du könntest überlegen dir ein nasgehäuse zu holen. die schaffen zwar nur ca. 60mb/s (die besseren) aber die bieten eben einen lauffähigen raid5 und einen komplett eingerichteten server mit webinterface, benutzerverwaltung und sachen wie webserver, datenbank, mailserver, ip-kameramonitoring, torrentclient,

nur mit sechs platten sind die dinger bannig teuer...

an externen gehäusen kann ich die ganz billigen weißen dinger von ebay empfehlen. ob manns glaubt oder nicht, die sind doch tatsächlich sogar aus aluprofil obwohl die so billig wirken in dem weiß und haben ein handliches 12Vsteckernetzteil mit wandlerplatine erst im plattengehäuse(kein 12/5V kombiniertes mit ps2stecker bei dem die pins immer verbiegen).
http://cgi.ebay.de/3-5-SATA-USB-2-0...ektronik_Computer_Gehäuse&hash=item2eadaac2e5
 
Zuletzt bearbeitet:
Ok, dann ist es beschlossen. Es wird gemacht wie oben beschrieben und ich werde mir jetzt erstmal überlegen welche Festplatten ich genau verwenden möchte und dann, wenn der Preis gut ist wird zugegriffen. Genauso verhält es sich mit den anderen Komponenten, die ich noch benötige.

In der Zeichenzeit werde ich versuchen mich übers Wochenende immer mal wieder etwas zu informieren und dazuzulernen, dass ich dann spätestens nächsten Monat gleich loslegen kann. Diesmal sogar mit Debian, wenn ich bis dahin den Mut dazu habe auf die graphischen Menüs etc. zu verzichten. :D
 
ganz auf grafische tools braucht man ja nicht zu verzichten. weboberflächen sind schließlich auch oberflächen. was debian angeht kriegst du bei ubuntu wahrscheinlich die größte und hilfbereitere community.

sonst schnapp dir ubuntu desktop, da hast du wenigstens ein ressourcensparendes gnome desktop enviroment. da dann webmin drauf installieren (du brauchst ein deprecated phytonpaket, einfach mal nach webmin und ubuntu lucid suchen), dann kannst du darüber samba, etc. installieren. über webmin kann man sogar die volumes verwalten.
ich habe auf meinem nas auch ubuntu 10.4 und das einzige was ich manuell installiert habe war webmin und das raidtool für meine axus fit ausm netz. danach habe ich über webmin vom anderen pc aus samba installiert und meine freigaben angegeben - lief auf anhieb.
ich benutze ubuntu desktop hauptsächlich weil ich auch videos von der box gucke und musik abspiele. das läuft dann mit Gnome-mplayer und vdpau beschleunigung (nvidia).
Ergänzung ()

achso, noch eines, das ich vergessen hatte.

ich benutze agressive standbytimings für die platten und eine mtron 16GbSLC SSD als bootplatte. das system ist damit sehr flüssig. die mtron hatte ich noch über aus einem desktoprechner, vorher hatte ich einen USBstick benutzt, der war auch nicht langsam.
Falls du dir also die systemplatte sparen willst - 4GB reichen locker für ein serversystem inkl. allen programmen - nimm ruhig einen USBstick. die 500gb 2,5"platte ist ja mächtig overkill fürs system. ich kann die supertaltent pico-c empfehlen, die haben sehr gute leseraten (33mb/s) und schnelle zugriffszeiten wie ne ssd. nur swap sollte man dann nicht anlegen, das nutzt den stick zu sehr ab.
 
Ich habe jetzt ein Raid5 aus 6 2TB Festplatten. Blöderweise habe ich erneut nur Probleme.

Ich habe eigentlich schon alles am Laufen gehabt, habe mich schon gefreut, dass alles geht und plötzlich war der Strom weg - ich habe nicht aufgepasst, das Stromkabel hinten war locker und bin versehentlich daran gestoßen. Jedenfalls war kurz der Strom weg während dem Schreiben und schon war das Raid unwiderruflich zerstört. Mag sein, dass ich bei der "Reparatur" nicht aufgepasst habe, ist ja schon etwas spät, aber wenn ich nicht zu Testzwecken erst kopiert hätte wäre jetzt schonmal alles weg. >_<

Ist das "normal" das ein Raid5 System (unter openSuse oder generell Linux) so schnell kaputt geht? Wenn ja, welche Alternativen gibt es? Das ärgert mich jetzt doch ein wenig. Ich könnte mir auch vorstellen, dass etwas mit einer der Platten nicht in Ordnung ist, wäre das möglich? Normal dürfte ein Stromausfall ja bei Ext4 nicht wirklich was machen.

Wäre super, wenn mir auch hier wieder jemand mit Rat zur Seite stehen könnte.
 
Ganz normal ist es nicht, habe schon paar Stromausfälle hinter mir gehabt und mein Software RAID 5 bleibt Gott sei Dank bis heute noch intakt.
Aber generell ist es so, ein Fileserver soll redundantes Netzteil, Raid Kontroller mit BBU, USV und physikalisch separates Backup haben, alle andere sind nur Kinderkram.
 
Hat jemand eine Idee, wie ich die Festplatten am Leichtesten/Schnellsten Überprüfen kann?

Ich habe jetzt mal Windows 7 installiert, um den Test von TuneUp Utilities drüberlaufen zu lassen. Dieser findet ja angeblich defekte Sektoren. Aber es könnte doch theoretisch auch ein anderer Fehler sein und den würde er nicht gefunden werden, oder?

Des weiteren könnte ich versuchen die Festplatten mit "unnötigen Kopien" voll zu bekommen und so zu testen, ob sie funktionieren. Aber dies wäre auch wieder sehr viel Arbeit und würde extrem lange dauern. Kennt jemand einen besseren Weg, um die Festplatten zu überprüfen? Theoretisch müssten ja 2 hinüber sein, wenn das Raid5 garnicht mehr funktioniert.
 
vielleicht tritt ja das 4096 -> 512 Byte Sektoren Problem auf weil eigentlich sollten schon min 50mb/s drinne sein bei 4 hdds wenn nicht sogar noch mehr.
 
Das war am Anfang auch meine Vermutung. Aber 1. hatte scheinbar alles gestimmt und 2. hat sich das Problem mittlerweile erledigt und ich bin schon weiter.^^'

Aktuelle Status: siehe letzter Beitrag

Ich überprüfe gerade die Festplatten mit Data Lifeguard Diagnostic und bei einer hat bereists der schnelle Test einen Fehler ausgespuckt.

Test Result: FAIL
Test Error Code: 06-Quick Test on drive 4 did not complete! Status code = 07 (Failed read test element), Failure Checkpoint = 109 (Unknown Test) SMART self-test did not complete on drive 4!

Was auch immer das genau beteuten mag, scheinbar geht die Festplatte deshalb nicht. Bin mal gespannt ob ich eine 2. defekte Festplatte finde. Hoffendlich nicht :-/

Kann mir zufällig jemand sagen, ob der QUICK TEST in der Regel ausreicht oder ob ich auch den Intensiven drüber laufen lassen sollte? Der Intensive dauert so lange. ~_~
 
Zuletzt bearbeitet:
Hi

Ein Quick-Test wird defekte Sektoren nicht finden bzw. wäre das ein Zufall. SMART self-test did not complete on drive 4 da hast du ja schon das Problem. Schau dir die SMART-Werte mal an und dann kannst du das gute Stück wahrscheinlich gleich zurückschicken.

mfg
aki
 
Ok, die Festplatte geht dann zurück. Habe öfters getestet und es war immer gleich.

Wenn ich nur die anderen Festplatten verwende scheint es zu gehen. Evtl. lasse ich dann mal noch die intensive Prüfung laufen. Jedenfalls muss ich jetzt erstmal waren bis Ersatz da ist.
 
Zurück
Oben