Home Server, XEON, RAID5, S.1150, [Kaufberatung]

Habe das Thema mal zu den Kaufberatungen verschoben.
 
Hi,

ich habe einen 9261-8i aus meiner Signatur für 200 € geschossen, aber noch ohne BBU... die hab ich nachträglich für 130 € gekauft...

Die SSDs würde ich allerdings nicht unbedingt an einen LSI hängen, mein Board (alles Signatur ;) ) hat Platz für 8 SSDs (aktuell habe ich 4 im RAID10 über Storage Places laufen plus 1 120er für den Server 2012 R2 selber) => 1,6 GB/s lesend, 650 MB/s schreibend, bei 7 VMs läuft alles fehlerfrei und sauber durch, die VMs, die Storage benötigen haben zusätzliche VMs auf dem RAID5-Volume vom LSI...

An dem LSI läuft nur der Storage (also Platz für 8 HDDs)...
 
welches Mainbord soll ich nun nehmen alle anderen sachen habe ich schon nur das mainbord fehlt mir noch :( :( :(

http://geizhals.de/eu/?cat=WL-468361

wäre das bord in ordnung Supermicro X10SL7-F oder wer hat mit server mainbords kenntnisse????

HILFE !!!!!
 
Wenn Du zwei SSDs (wozu eigentlich, willst Du ein RAID 0 oder ein RAID 1 machen?) und 5 HDDs eingeplant hast, muss es ja wohl eines mit mindestens 7 SATA Ports sein, oder hast Du noch einen RAID Controller eingeplant, der nicht in der Liste steht? Jedenfalls denke ich, dass im Thread inzwischen genug Informationen stehen, damit Du selbst eine Entscheidung treffen können solltest.
 
So ich hab ja angekündigt, ich melde mich nochmal sobald mein System läuft ...

Mein System:
Supermicro X10SLM-F
Xeon E3-1245v3
Kingston 32GB ECC DDR3 1600Mhz RAM KIT
LSI MegaRAID 9265-8i + BBU
SSD 256GB Samsung 850 Pro
4 x 4TB (WD RED und Seagate Desktop HDD) RAID 10
4 x 2TB (WD Green und Seagate Constellation E2) RAID 5
SeaSonic Platinum Series Fanless 400
6 x 120mm und 1 x 140mm Lüfter
Fractal Design Node 804

Stromverbrauch: ca. 25 Watt ohne 8 HDDs und SAS/SATA RAID Controller
ca. 80 Watt mit 8 HDDs und SAS/SATA RAID Controller
Temperaturen alles unter 30 Grad, laut den Sensoren der IPMI Schnittstelle von Supermicro.

Als Hypervisior kommt der Server 2012 R2 Datacenter von Microsoft zum Einsatz. Fünf VMs habe ich bereits aufgesetzt und müssen nun noch eingerichtet werden. Sie liegen alle auf der SSD und der Speicherplatz ist für mich ausreichend. 100GB sind noch frei.
Die Auslastung ist, wie ich bereits befürchtet habe, lächerlich. Die CPU langweilt sich ... vielleicht ändert sich das noch ein wenig, wenn die Anwendungen auf den VMs aktiv sind.

Ein einziges Problem habe ich noch ... Mein Hypervisior lässt sich nicht mehr ausschalten, nachdem ich den Controller eingebaut habe. Der Server startet immer wieder von alleine und lässt sich nur über die IPMI Schnittstelle ausschalten. Mal schauen ob ich das noch in den Griff bekomme... Ansonsten läuft das System 1A und ich hatte selten so wenig Probleme!

PS: Die modularen Netzteil Kabel von Corsair und SeaSonic sind unterschiedlich gepolt/belegt. Ich besitze ein AX760 von Corsair und das oben genannte SeaSonic Fanless 400. Obwohl beide Netzteil rein optisch die selben Kabel haben und beide Netzteile aus der gleichen Fabrik kommen, sind hier tatsächlich Änderungen vorhanden. Hat mich ein Tag rätseln gekostet, zum Glück ohne Schäden! ;)

EDIT:
T3mp3sT1187 schrieb:
...An dem LSI läuft nur der Storage (also Platz für 8 HDDs)...
Geile Config, dein Server! Frag mich gerade nur welches Gehäuse du hast? 5 SSDs und 8 HDDs :)
Was für SSDs hast du im Einsatz?
 
Zuletzt bearbeitet:
Hi,

danke ;) Das ist mein Gehäuse... Dazu kommt ein 5,25" HDD-Adapter mit Platz für 6 SSDs (bisher drin 4 mal die M500 für HotSwap, die 840 ist im Gehäuse)... folgende Anschlüsse sind belegt:

1 x Samsung 840 128 GB am onBoard Marvell (noch einer frei)
4 x Crucial M500 480 GB am onBoard C226-Chipsatz des MBs (noch 2 frei) => über StoragePlaces zum RAID10 gemacht
3 x 3 TB WD Red am LSI 9261-8i (RAID5)
 
Die Schreib und Lese Leistungen deines SSD RAID 10 Verbunds sind der Hammer ;)
Bin gerade mega begeistert von meinem RAID 10 mit den 4 x 4TB HDDs! 380MB-410MB/s schreibend und auch das RAID 5 mit 270MB/s schreibend finde ich gut ;)
Ich bin happy und wenn mal paar € übrig sind kommen die SSDs rein. Bis dahin haben Sie sich hoffentlich was zwecks TRIM einfallen lassen ;)
 
die Krux is wirklich Win Raid / Storage Spaces bei Raid5 schreiben. Lesen is alles top, mehr als gut genug um GigaBit locker auszulasten.
Bei mir geht alles an Zugriff über Lan, und zumeist lesend. Bis 10 GB packt auch der SSD Cache locker weg beim Schreiben aufs Raid 5.

HW Controller, ka ob ich mir das geben würde. Ich denke da is auch immer ein Restrisiko, ggf keine Ersatz HW, ggf Fehlconfig udn Datenverlust usw.
Die Frage ist ob man 300 MB/ schreiben auf ein Raid5 braucht. Im Übrigen packt das auch ein Intel Raid 5 ohne Cache:

https://www.computerbase.de/forum/t...omplettsystem-standard-v.685231/#post-7198363

raid5stripe16kcluster657e9.jpg

5x2TB Raid5 an Intel Raid 5

Wichtig ist dabei eher ne gute Stripe / Blocksize und ne ungerade Anzahl Platten.

ZFS is top, super lesend, super schreiben - RAM intensiv ist es auch. Zudem schlecht erweiterbar im Raid5, bzw garnicht.
Beim Win Storage Spaces auch etwas schwer mit erweitern, beim Intel Raid ging das noch am besten (platte dazu und gut) - aber halt auf 6 Platten limitiert und bei 6 eventuell langsamer als bei 5.

Wenn Controller, wieso dann nich sowas:

http://geizhals.de/adaptec-raid-5805-bulk-2244300-r-a319081.html

199€ grad, kann man nich meckern
 
Zuletzt bearbeitet:
Schreibend ist RAID5 immer ein Problem, weil es einfach rechenaufwendig ist. Bzgl. Speed, ich woltle halt einfach Minimum 250 MB/s, da der Server über ein NIC-Team aus den beiden INTEL Nics verfügt...

Man kann sich noch Storage Tiers angucken und eben den besagten SSD-Cache...
Ich bin grad in der kompletten Neustrukturierung meines Netzwerks mit S2S-VPN zu nem Kumpel und seinem Netzwerk und Co, da experimentieren wir aktuell viel rum mit Storage Pools, da er noch nicht die Masse an SSDs hat, die bei mir verbaut sind...

Hardwareausfall ist natürlich mies... LSI hat aber genug Alternativen auf Lager, ob die den Verbund erkennen, will ich nur mit aktuellem Backup testen ;)
Der Storage Pool jedenfalls wurde gestern 1zu1 nach Neuinstallation des Hosts wiedererkannt und konnte ihn wieder an den Server hängen...
 
Zurück
Oben