Selbstbau NAS im 10 Zoll Rack

Halb so wild. Verstehe ich voll und ganz und an dieser Stelle nochmal ein großes Lob an die Mühe, Arbeit und Zeit 🙂
 
Das Problem ist, dass das Gigabyte Board "nativ" nur 8 HDD's unterstützt und somit die zwei übrigen per USB Adapter angeschlossen werden müssen.
 
Fusionator schrieb:
Da das standardisiert ist, sollte es eigentlich passen. Eigentlich... Da reichen schon 1-2 Zehntel mm damit das Kabel nicht mehr einrastet. Vielleicht ist ja das Cabledeconn minimal länger und rastet deswegen nicht ein?
Da könnte man ja dann an der oberen Steckerseite (wo die Verriegelung ist) minimal was wegfeilen.
Oder die Buchse auf dem Gigabyte Mainboard ist zu weit; da hilft dann auch kein Feilen. Aber wie gesagt: Standardisiert :D
Gesagt getan. Falls ebenfalls jemand dieses Problem hat, einfach etwas an der Oberseite der Verrastung wegfeilen und schon klickt das Cabledeconn Kabel auch ein.
 
  • Gefällt mir
Reaktionen: mgutt
Hi,

ich habe meinen Server zusammengebaut. Mit dem Asus C246M-WU4 Mainboard. Und ich habe sogar eine Xeon E-2146G CPU günstig bei Ebay gefunden. Und 64GB ECC Sdram. Jetzt habe ich zwei Ironwolf 510 SSD mit jeweils 480GB Speicherpaltz verbaut. Leider startet das Mainboard gar nicht mehr, sobald ich die NVME PCIe SSDs eingebaut habe. Auch wenn ich nur eine der beiden verbaue, egal an welchem Steckplatz. In einem externen Gehäuse werden die SSDs von meinem Mac erkannt und ich kann sie partitionieren und formatieren. Eine 256 GB Nvme SSD die ich noch zu Hause habe wird von dem Asus Mainboard einwandfrei akzeptiert und erkannt. Hat jemand eine Idee, woran das liegen könnte, oder was ich ausprobieren kann?
 
Ah, mist! BIOS Update ist aussichtslos? Oder mit ner extra PCIe Karte? Würde auch den Gigabyte Support noch mal anschreiben, aber sonst hilft wohl nur ersetzen. Kennst du die Corsair MP510? Wär das eine alternative? Oder kannst du eine andere empfehlen die nicht gleich die Preisklasse der Intel Optane hat?
 
achimcc schrieb:
Oder mit ner extra PCIe Karte?

Das könnte gehen, aber nur mit extra Chipsatz und die sind teuer (mehrere hundert Euro). Wegen BIOS Update musst du Asus fragen. Ich glaube aber nicht, dass die das wirklich interessiert. Eher dürfte das Seagate interessieren. Vielleicht bringen die ja ein Firmware-Update.

achimcc schrieb:
Oder kannst du eine andere empfehlen
https://geizhals.de/?cat=hdssd&xf=1...12~252_480~4643_DRAM-Cache~4930_300~5940_NVMe

Die Corsair ginge also auch ;)
 
Hast du ne ander M.2 zum testen? Mal ohne SSD starten und im BIOS die Einstellungen kontrollieren?
 
Ja, hab eine andere M.2 SSD, eine 256GB SanDisk A400. Mit der startet as Mainboard einwandfrei und die wird erkannt. Hab auch schon viel an BIOS Einstellungen ausprobiert.
 
Hmmmal geschaut ob das m key oder a key ist? Also wie die Einkerbungen sind?

Ansonsten schon seltsam. Bootet du über die M2?
 
Das BIOS kommt ja gar nicht hoch und der Bildschirm bleibt schwarz. Lange vor der Bootsequenz. Normalerweise regelt sich ein paar Sekunden nach dem Einschalten der CPU Lüfter runter, das bleibt mit der SSD drin auch aus.

Was hat es mit m key und a key auf sich? Es gibt zwei Steckplätze auf dem Mainboard für SSDs: M2A und M2M. Funktioniert aber in beiden nicht.
 
Das eine kann Sata das andere sata&nvme und das dritte kann nur NVMe.

Könnte eventuell ein Grund sein. Ansonsten fällt mir so früh zumindest nichts ein.

Ich würde da aber auch an den Support vom Hersteller gehen. Das ist ja schon ein signifikanter Problem das eigentlich nicht auftreten darf.
 
Ich schau noch mal, aber das Board kann ziemlich sicher beides und die andere SSD die funktioniert ist auch eine nvme.

Hab den Gigabyte Support mal angeschrieben, vielleicht kommt ja von denen was.
 
Zuletzt bearbeitet:
mgutt schrieb:
Es wurde nun endlich alles fehlende geliefert
Anhang anzeigen 904082

Auch der nachbestellte Fachboden ist gekommen, so dass ich alle Böden für die 10 Platten fertigstellen konnte. Angeschlossen habe ich aber erst mal nur 8 mit den zwei CABLEDECONN Mini SAS Kabelpeitschen. Die letzten beiden Platten brauche ich erstmal nicht.

Beim Einstecken der 10G Karte musste ich allerdings feststellen, dass das eine ziemlich wackelige Angelegenheit ist. Also habe ich mit einem Winkel die Slotblende an dem Loch des Fachbodens darüber befestigt. Ist ein bisschen schief, aber eine PCIe Buchse bietet genug Spiel, so dass das kein Problem darstellt. Vielleicht hat ja jemand eine Idee wie man das schicker umsetzen könnte. Meine Idee wäre jetzt nur ein etwas breiterer Winkel und die Löcher so bohren, dass die Karte gerade sitzt.
Anhang anzeigen 904078

Von der Seite sieht man links die Mini SAS Kabelpeitsche mit den Stromanschlüssen:
Anhang anzeigen 904079

Dann habe ich mit dem Unraid Tool den USB Stick vorbereitet, eingesteckt und fertig. Alles lief ohne irgendwelche Treiber installieren zu müssen. Auch die 10G Karte. Das kann nicht mal Windows. Nach wenigen Sekunden war Unraid dann "installiert" (kopiert sich ja nur in den RAM) und der Webclient stand bereit. Nach Kauf der Plus Lizenz (bis zu 12 Laufwerke), habe ich mich auch gleich an die Einrichtung gemacht: Parity Laufwerke festlegen, formatieren, Parity Rebuild starten, Cache festlegen und die ersten User und Shares habe ich auch schon angelegt. Hier mal die Übersicht aus Unraid:
Anhang anzeigen 904083

Die Temperaturen sind nicht die kühlsten, aber die Ultrastar sind für bis zu 60 Grad ausgelegt. Außerdem ist das jetzt die Maximallast, da gerade der Rebuild läuft. Im Normalbetrieb sollten die Temperaturen deutlich besser ausfallen. Ein Update dazu folgt dann noch. Solange der Rebuild läuft, mache ich auch noch keine Kopiertests oder ähnliches.

Die USV hatte ich bereits zu Anfang per USB angeschlossen und nach der Aktivierung des Daemons war auch diese mit allen technischen Daten sofort nutzbar (aktuell ist da auch das alte NAS angeschlossen, daher der hohe Load):
Anhang anzeigen 904099

Der Stromverbrauch liegt übrigens während dem Rebuild bei 74W. Also vergleichbar mit dem Verbrauch der 8-Bay DS1815+ (die allerdings ohne 10G Karte). Interessant ist die massive Spitze von 178W beim Hochfahren, die ja bekanntlich durch die Platten verursacht wird und die man bei der Auswahl des Netzteils nicht vergessen darf:
Anhang anzeigen 904091

Werden bei Storage Servern die Platten eigentlich zeitversetzt mit Strom versorgt? Wäre ja krass, wenn da 50 Laufwerke gleichzeitig hochfahren würden.

Durch die Ineffizienz des Supermicro Boards werde ich leider nicht in Bereiche vorstoßen, die ich erhofft habe. Auch muss ich noch mal genau ausmessen was die 10G Karte ausmacht bzw werde diese mit der Synology Karte und einer LR-LINK 6880BT vergleichen. Sollte ich bei allen durchgehend mit 10W leben müssen (obwohl nicht mal ein Kabel angeschlossen ist), werde ich mir vermutlich doch überlegen auf Link Aggregation zu setzen. Denn eigentlich hatte ich geplant, dass ich per Master / Slave Steuerung den 10G Switch nur dann einschalte, wenn mein Desktop PC hochfährt. Wenn ich dadurch aber nur den Verbrauch des Switches einspare, wäre das ja albern.
Gab es einen Grund Festplatten externe zu kaufen, weil da Xbox drauf steht? Sind die dann günstiger zu bekommen ?
 
cosamed schrieb:
Gab es einen Grund Festplatten externe zu kaufen
Ja, viel günstiger und es sind Original DC HC520 verbaut. Bei Seagate sind in den Expansion Gehäusen ab 14TB wohl auch Exos oder Ironwolf (Pro) verbaut. Die DC HC520 habe ich übrigens schon zwei mal nackt zu WD geschickt (beide beim Transport kaputt gegangen, nicht im Betrieb) und für beide habe ich neue in der Verpackung erhalten. Also so gesehen sogar besser als WD Red, wo man nur Refurbished zurück bekommt.

Da ich pro Platte 80 bis 100 € gespart habe, kann mir die Garantie aber auch egal sein. Für 800 bis 1000 € Ersparnis kaufe ich mir im Härtefall einfach bis zu 4 bis 5 nagelneue Platten und stehe unter dem Strich immer noch besser da. Und ich bezweifle, dass mir jemals 5 Platten innerhalb der regulären Garantiezeit kaputt gehen werden.
 
  • Gefällt mir
Reaktionen: achimcc und cosamed
Ich habe den 1. Beitrag noch mal überarbeitet. Er enthält nun auch Bilder vom Ergebnis und ist nun deutlich kompakter gehalten. Außerdem habe ich die Hardware-Empfehlungen geändert, da ich es mittlerweile besser weiß ;)

Als Upgrade plane ich aktuell übrigens eine Supermicro Dual M.2 Karte oder eine Asus Quad Karte. Dazu dann ein ADT Link M.2 auf PCIe Adapterkabel. Damit möchte ich erreichen, dass ich mehrere M.2 und 10G parallel nutzen kann. Laut Gigabyte unterstützt das Board Dual Bifurcation. Ich hoffe es geht auch die Asus Quad Karte (40 €). Nur bei Quad könnte ich die QNAP 10G LAN Karte mit dem ADT Adapterkabel (25 €), NVMe RAID-Cache und die IOCrest M.2 5-Port SATA Karte (50 €) parallel nutzen. Dann hätte ich 13x SATA, 3x M.2 und 10G LAN auf einem Mini-ITX Board für gerade mal 380 €. Das wäre schon geil.

Wer es noch nicht wusste: Ich konnte mich mittlerweile so stark bei Unraid einbringen, dass man mich zum Moderator ernannt hat.
 
  • Gefällt mir
Reaktionen: DDD, achimcc, v3nom und 3 andere
mgutt schrieb:
Ja, viel günstiger und es sind Original DC HC520 verbaut. Bei Seagate sind in den Expansion Gehäusen ab 14TB wohl auch Exos oder Ironwolf (Pro) verbaut. Die DC HC520 habe ich übrigens schon zwei mal nackt zu WD geschickt (beide beim Transport kaputt gegangen, nicht im Betrieb) und für beide habe ich neue in der Verpackung erhalten. Also so gesehen sogar besser als WD Red, wo man nur Refurbished zurück bekommt.

Da ich pro Platte 80 bis 100 € gespart habe, kann mir die Garantie aber auch egal sein. Für 800 bis 1000 € Ersparnis kaufe ich mir im Härtefall einfach bis zu 4 bis 5 nagelneue Platten und stehe unter dem Strich immer noch besser da. Und ich bezweifle, dass mir jemals 5 Platten innerhalb der regulären Garantiezeit kaputt gehen werden.
Weißt du zufällig ob in der WD Black D10 mit 8TB auch Heliumfestplatten verbaut sind? Lohnt sich der Aufpreis zur WD Elements 8TB, die wohl ziemlich sicher mit Luft gefüllt sind?
 
Zurück
Oben