FibreChannel | Mit welcher Karte? Planung: 96 TB Storage Server

majusss

Rear Admiral
Registriert
Feb. 2015
Beiträge
6.091
Guten Abend,

ich plane derzeit einen Storage-Server und frage mich wie zum Henker ich den Server dann direkt an einen Fibre-Anschluss bekomme. Hier einfach mal die Wunschliste von gh.de

16 x Western Digital WD Red Pro 6TB, 3.5", SATA 6Gb/s (WD6001FFWX)
2 x Samsung SSD 850 Evo 250GB, SATA (MZ-75E250B)
1 x Intel Xeon E5-2623 v3, 4x 3.00GHz, Sockel 2011-3, tray (CM8064401832000)
4 x Kingston ValueRAM DIMM 4GB, DDR4-2133, CL15-15-15, reg ECC (KVR21R15S8/4)
1 x Adaptec ASA-6805H, low profile, PCIe 2.0 x4 (2277900-R)
1 x Supermicro X10SRL-F retail (MBD-X10SRL-F-O)
3 x Noctua NF-A6x25 FLX 60mm
1 x Noctua NH-D9DX i4 3U
1 x Supermicro 836TQ-R500B schwarz, 3HE, 500W redundant

Kann es mit der IBM Karte funktionieren? Ansonsten gibt es ja nur diese HP Teile, die haben aber offenbar nur eine eingeschränkte Kompatibilität.

Weiterhin suche ich eine PCIe Karte die min. 8x Sata 3 bietet und wenn möglich nicht aus der Steinzeit stammt (https://geizhals.de/?cat=iosasraid&xf=5679_SATA+6Gb/s~497_8~3344_2013#xf_top reicht das billige DeLock Teil aus?!), möglichst ohne HW-RAID. Der RAID wird vollständig per Software abgewickelt (Debian, BTRFS) eine USV ist eh vorhanden, Stromausfall wird es also nicht geben, womit ein Controller mit Cache überflüssig ist.

---------------------------------------------

EDIT: FibreChannel wird nicht gesucht ;) Die Frage ist jetzt viel eher ob 10Gb Ethernet überhaupt benötigt werden.

Vielen Dank für eure Hilfe

Grüße
Majuss
 
Zuletzt bearbeitet:
Freak_On_Silicon schrieb:
Ist das Gerät für Privat oder wird damit Geld verdient?

Weder noch ;) Was willst du mir damit sagen? Der Eigenbau Server bei uns läuft auch seit 2008.

@Luxuspur Der Storinator kostet mit der selben Config 4800€ dazu kommen 4000€ für Platten. Also 2k€ mehr, wofür genau ^^?
 
Mit FiberChannel kann ich Dir leider nicht weiter helfen, was deine Sata Controller Karte angeht allerdings. Lass die Finger von solchen Schnittstellenkarten, die von Dir gezeigte Delock Karte verliert bei mir zumindest ganz gerne mal einzelne Platten (nach einem Reboot wieder da), was bei jeglicher Raid/Softwareraid Lösung unbrauchbar ist.

Eine gute Alternative ist eine IBM 1015 Raid Karte, die kann man um flashen, so dass die angeschlossenen Platten durchgeschleift werden und einzeln im OS verfügbar sind. Stichwort dazu: IT Mode flashen.
Die Karte bekommt man ab und an auch ganz gut gebraucht via ebay für knappe 100€, neu: http://geizhals.de/ibm-serveraid-m1015-90y4556-a815389.html?hloc=at&hloc=de
Ich habe zwei der genannten IBM1015 Controller in meinem Server, beide passend geflashed nur läuft bei mir Debian + ZFS.

Edit:
dein verlinktes 2HE Gehäuse hat Hotswap Bays für 2,5", du willst aber 3,5" Platten kaufen, passt also nicht.
 
Zuletzt bearbeitet:
@Shririnovski danke für die erste hilfreiche Antwort! Ich dachte mir schon, dass dieses DeLock Ding Abfall ist. Dann wird es eine richtige IBM-Karte. Hast du vielleicht gleich eine Anleitung fürs flashen parat?
 
Sorry habe jetzt keine Anleitung dazu greifbar, ist bei mir schon ein paar Tage her.

Aber wie oben editiert, schau mal wegen dem Case, das hat 2,5" Hotswaps, keine 3,5".
 
Zuletzt bearbeitet:
Was meinst du mit direkt an einen FC-Anschluss bekommen? Soll der Server Blockstorage per FC bereitstellen? Dann geht das so ohne weiteres nicht.
 
Wegen der WD Reds:

"WD Red is designed specifically for NAS systems
that have 1 to 8 drive bays in both 3.5-inch and
2.5-inch form factors. The drives are designed and
extensively tested for compatibility in the unique 24x7
operating environment and for the demanding system
requirements of home and small office NAS."


So steht es in der Überschrift vom Datenblatt --> http://www.wdc.com/wdproducts/library/SpecSheet/ENG/2879-800002.pdf
Daher kann es zu Problemen kommen, wenn mehr als 8 davon in einem Gehäuse laufen, Hauptproblem sind dabei wahrscheinlich Vibrationen. Ob du real Probleme mit den Reds bekommen wirst ist natürlich fraglich (wahrscheinlich ist es unkritisch), das musst du entweder riskieren (Du betreibst die Platten dann schließlich außerhalb ihrer Spezifikation) oder auf richtige ServerHDDs umsteigen. Letzteres dürfte dann nochmal deutlich teurer werden.

Wenn im verlinkten Gehäuse dein Board passt, dann geht das, ja.

Wobei mir immer mehr Ungereimheiten auffallen, DualCPU Board aber nur eine CPU? Absicht? Und brauchst du auf dem Storageserver wirklich so viel Rechenleistung? Mit SingleCPU & Board wird die Auswahl für Gehäuse größer und günstiger, keine Ahnung ob das eine Rolle spielt aber ein 1000€ Gehäuse ist auch kein Pappenstiel.
 
@Luxuspur Der Storinator kostet mit der selben Config 4800€ dazu kommen 4000€ für Platten. Also 2k€ mehr, wofür genau ^^?

ausgereift und bereits langjährig erprobt ... soviel Platz brauchst du ja kaum im "Heimgebrauch" ... und im gewerblichen Umfeld wäre ein Ausfall durch unerprobte "Schrauberei" sehr schnell sehr viel teurer!

eine USV ist eh vorhanden, Stromausfall wird es also nicht geben, womit ein Controller mit Cache überflüssig ist.
und wie lange hält deine USV durch?

vielleicht erklärst du mal kurz wofür genau das gedacht ist.

also ich sag mal so: in der Firma gilt ca. die Rechnung 1h Ausfall der Infrastruktur kostet uns 40k €

natürlich unwichtig wenn du darauf dein Filmsammlung speichern willst.
 
Zuletzt bearbeitet:
Mr.Seymour Buds schrieb:
majusss,

lies mal hier, dort gab es heute und gestern schon eine kleine Diskussion zu "brauchbaren" Platten.

https://www.computerbase.de/forum/threads/festplatten-defekt.1547083/#post-18304290

(siehe besonders #9)

Leider finde ich auch dort kaum Fakten sondern hauptsächlich persönliche Meinungen.

@Luxuspur Ja dann kauf ich aber lieber gleich Dell. Hier soll es um einen Eigenbau gehen, es sei denn die erprobten Sachen kosten nicht wesentlich mehr ;) Und den Storinator nach Deutschland bekommen ist glaube ich auch nicht allzu einfach...

@Masamune2 mit "direkt" meine ich einfach nur einen Fibre Anschluss (Nicht Fibre in den Router und dann Ethernet in den Server etc.)
 
Die günstigste brauchbare Schnittstellenkarte ist eine PCIe 2.0 x2 mit Marvell-Chip, pro Karte sind jedoch nur 4 Ports möglich und auch sinnvoll, da auch hier die PCIe 2.0 x2-Schnittstelle bereits limitiert. Weshalb es keine zwei Chips auf einer Platine als x4-Karte für 8 Ports gibt, weiß ich leider nicht, würde immer noch deutlich weniger Strom ziehen als die üblichen Adaptec/LSI/AVAGO-Lösungen.

Gibt es von verschiednenen Distributoren, z. B.:
http://geizhals.de/inline-76617d-a1273396.html
 
WD Reds sind aufgrund fehlender Vibrationskompensation nicht für den Einsatz in Racks mit vielen Platten gedacht, wo die Vibrationen sich gegenseitig leichter verstärken können.
Für den Einsatz in Racksystemen hat WD die "Red Pro" und die "WD Re" im Portfolio. Diese haben daher auch eine konstante Umdrehungsgeschwindigkeit.
http://images.anandtech.com/doci/8273/wd-red-pro-comparison.png
 
Also das mit dem IBM-Adapter musst du noch mal etwas genauer erklären.

Der von dir verlinkte Adapter ist kein Ethernet-Adapter sondern ein Fibre Channel-Adapter.
Die werden im SAN-Bereich genutzt und sind nicht dazu da um einen Server per Glasfaser mit Ethernet zu versorgen.

Was genau willst du daran anschließen?
Wie mir das aussieht suchst du eher nach einem 10GbE Ethernet-Adapter, oder?
 
Ja, mit dem IBM-HBA könnte man (theoretisch, noch nie probiert) mit LIO Blockstorage über FC zur Verfügung stellen. Der verbaute QLogic QLE2560 ist angeblich kompatibel.

Statt der WD Red würde ich bei der Menge an Platten auf Modelle mit Vibrationssensoren nehmen. Entweder die WD Red Pro oder (meiner Meinung nach die bessere Wahl) HGST Deskstar NAS. Beide Modelle sind für deinen Einsatzzweck freigegeben.

Zum Anschluss der Platten empfehlen sich Controller mit LSI 2008-Chipsatz. Evtl. ist ein Flashen auf eine reine HBA-Firmware nötig (hab ich bei einem LSI 9240-4i schon mal erfolgreich gemacht).
 
Zurück
Oben