Projekt "µATX NAS" in ITX Gehäuse

Du hast nur 130W Peak? Glaube ich nicht ganz, da müsste jeder Festplattenmotor eig 10 bis 15 Watt ziehen.
Aber das Kabel für die Platten, kannst Du mal genau zeigen wie Du das gemacht hast? Ich werde wohl bald auch sowas brauchen ^^.
 
mehr SATA ports würde ich sagen aber es gibt ein Asus H77 itx das hat 6 sata ports und wenn man auf eine detizierte gpu verzichtet kann man sata ports via pcie karte nachrüsten ;)
 
nice selbstbau doch gibt es ein programm welches unter windows meine videos musik etc in mein netzwerk einbindet
 
WOW! Ich bin geplättet. Ich hätte nicht gedacht dass das doch eher "spezielle" Thema so viel Anklang findet. und nach längerer Zeit noch jemand interessiert.

Da schaut man mal paar Tage nicht rein und schon landet der Artikel auf der Startseite.

VIELEN DANK DAFÜR!

@Cookie1990: Die 130W Peak habe ich mit meinem Energie-Meßgerät (Brennstuhl PM 230) gemessen. Ich schließe nicht aus, dass vielleicht eine "Reaktions- bzw. Verzögerungszeit" des Gerätes Grund dafür ist. Ich meine damit, dass der "wahre" Peak höher ist als die gemessenen 130W, aber der Peak zu kurz ist und es das Messgerät "nicht mitbekommt".
Meinst Du mit dem Kabel das selbst erstellte "Stromkabel"?

@Peter_Shaw: Wie bigdaniel bereits geschrieben hat waren bei mir die Erweiterbarkeit mit einem SATA / SAS-Controller, Netzwerk-Ports via DualPort / QuadPort Netzwerkkarte, etc die Gründe für ein μATX Mainboard. Hier ist es ja so, dass ich für die Daten-HDD's per vt-d den eingebauten SAS-Controller an eine Openindiana VM (virtuelle Maschine im ESXi) weitergereicht habe.

Da das "Weiterreichen" prinzipiell nur mit einem ganzen Controller geht und nicht mit einzelnen SATA-Ports, hätte ich mit einem ITX-Mainboard (und dem SAS-Controller in dem PCIe Steckplatz) keine weitere Möglichkeit mehr.
Der Hersteller Supermicro bietet zwar ein solches ITX-Mainboard Link an, aber die dort verbaute ATOM-CPU hat dieses vt-d Feature nicht und ich müsste dort das Openindiana direkt installieren, also nicht als VM.
Das wäre nicht mein Ziel gewesen, da ich meine Lösung, Dank des ESXi, auch für "virtuelle Test-Umgebungen" benutzen können wollte.

@domainhost: Meine Daten sind auf einem raidz1 Pool (am ehesten "vergleichbar / ähnlich einem Raid 5) gespeichert. Dieses habe ich mit Openindiana und ZFS als Dateisystem realisiert. Meine Daten stelle ich per CIFS und NFS zur Verfügung.
Nun zu, so verstehe ich Sie, Deiner Frage: Mit meinem Windows (mit Linux auch per NFS) kann ich nun ohne Zusatztools auf diese CIFS-Freigabe Wikipedia Link zugreifen.
Das Einrichten verschiedener User unter Openindiana (Solaris), die unterschiedliche oder gleiche Berechtigungen in der Freigabe haben ist problemlos möglich.

Ein Kollege von mir hat sich auch ein Openindiana basiertes Storage (mit dem oben erwähnten Supermicro ITX-MB + 8Port SAS Controller) gebaut, welches er innerhalb einer Active-Directory (AD) betreibt. Die Benutzer / Gruppen aus dieser AD werden in Openindiana durch sog. Mapping umgesetzt und zur Authentifizierung für das Share nutzbar gemacht.

@warlock2511: Ich habe mir die HDD-Temp's mal angesehen. Im oberen Bereich liegen diese bei ~37-39°C, der untere Bereich ist besser belüftet und liegt daher bei ~33-35° ( Zimmertemperatur 22-23°C). Wenn der obere Käfig besser, sprich luftiger, gebaut würde und die Größe / Anordnung der Frontlüfter darauf angepasst würde ,dann wären bestimmt auch niedrigere Temperaturen drin.
Ebenso hab ich im hinteren Bereich des Deckels keinen Lüfter verbaut. Mit einem Lüfter dort hätte man ja dann quasi einen besseren Luftstrom erzeugt (Wenn dabei der Netzteil-Lüfter zur Seitenwand zeigen würde).

Ich schaue jetzt wieder öfter hier rein ;) und stehe weiterhin gerne für Fragen / Anregungen zur Verfügung.

EDIT:

Ich habe mir eben mal die neuen Mainboards von Supermicro angesehen. Dort gibt es mittlerweile auch welche mit Embedded Core i5, mögliche 16GB RAM, 2x SATA3, 4x SATA2...

Damals gab es das noch nicht, aber ich sag mal so: Wenn ich keine Virtualisierung möchte (brauche), mir 6x SATA (respektive 8 / 16 weitere per zusätzl. SAS / SATA Controller) ausreichen, dann sind meines Erachtens die neuen ITX Mainboards von Supermicro einen Blick wert.

Noch ein Tipp:
IPMI ist bei manchen von Ihren MB verbaut.
Wer sowas braucht oder die Möglickeiten mal "Live" gesehen hat, der will es unbedingt haben.
Zweei Freunde von mir haben IPMI bei einem Mainboard gesehen und daraufhin Ihr NAS (Ihren Server) mit einem neuen, IPMI integrierten Supermicro Mainboard bestückt.

Ich bin kein sog. Fanboy und habe auch keine Aktien von Supermicro, aber diese Funktion IPMI ist
bei einem NAS / Servereinsatz allemal eine Überlegung wert.

Den persönlichen "Kosten / Nutzen-Faktor" muss jeder selbst bewerten.

Gruß
mlampe
 
Zuletzt bearbeitet:
Hallo,

@mlampe
dein Thread hat mich mittlerweile etwas nachdenklich gemacht, ob ich beim Bau meines geplanten Mini-Servers nicht auch auf ein Mini-ITX System wechseln soll. Bisher hatte ich die Planung, ein normales ATX-Mainboard plus Mini-Tower zu nehmen.

Anwendungsziel ist bei mir derzeit:
- Linux-Server als Plattform mit Virtualisierung
- eine virtuelle Win7 Maschine, da ich dies für eine Hausautomatisierungssoftware benötige
- virtuelle Maschine als NAS, wird sicherlich Linux inkl. Mediaserver darauf.
- virtuelle Maschine als Webserver, auch Linux
- virtuelle Maschine als Test-Server, auch Linux

Geplant habe ich mit einem Core i3 oder i5 und reichtlich Speicher, mind. 16 GB, eher 32 GB und da scheiden derzeit die meisten Mini-ITX Boards aus, die können max 16 GB, oder hast du schon andere gesehen ?

Als Plattearray werden nehmem:
- SSD fürs Betriebssystem
- 2 ( später 4/6 ) 3TB Platten, da ich die bereits aus meinem jetzigen NAS habe.

Die SSD kann man ja problemlos überall in einem Gehäuse befestigen, 6 3,5" Einbauplätze sind ja soweit ich das sehen kann, mittlerweile auch im MiniITX gehöuse kein Problem.

Ich werde nochmal in mich gehen....
 
Hallo Thomas4711,

Wird dein Server (komplett) 24x7 laufen oder nur zeitweise?
Benötigt deine Hausautomatisierungs-Software eine spezielle HW-karte, direkten Zugriff auf USB-Port, Serieller, Port,...?
Wenn dem so ist, dann wäre es nicht schlecht wenn deine MB / CPU Kombi "vt-d" als Virtualisierungs-Feature
unterstützt. Denn nur damit kannst du HW an eine VM weiterreichen, die dann nativ (und exclusiv) damit arbeiten kann.

Bei 24x7 würde ich an deiner Stelle überlegen ECC Speicher zu nehmen, um "gar" keine Speicherfehler zu riskieren.

Als ITX-MB wäre eventuell das Intel Server Board S1200KP eine Möglichkeit. Es bietet DDR3 ECC Speicher Unterstützung bis 16GB und XEON CPU E-1200 (Sockel 1155) Unterstützung. Der kleinste XEON-E-1220L Link hätte für ab 180€ das erwähnte vt-d Feature.

Link MB S1200KP

Ein weiteres ITX-MB für Core i3,5,7 mit 16GB non-ECC RAM, 6x SATA, Dual Intel NIC,... wäre dieses Supermicro MB.


Im Format μATX MB würde ich beispielsweise so etwas von Supermicro nehmen. Dort passt ebenfalls der oben erwähnte XEON E1220L drauf, aber auch ein Core i3, hat 6 SATA Ports, kann 32GB RAM und hat 3 x PCIe 2.0 x8 Plätze für weitere SATA Ports,... und IPMI!!

Info: Per IPMI (Webschnittstelle aus dem MB Bios heraus) lassen sich ISO's (zur OS Installation z.B.) über das Netzwerk "mounten". Bei dem Mainboard wird dann das ISO als "virtuelles USB-Laufwerk" umgesetzt. KVM per Netzwerk,...

Dann bräuchte der Server lediglich das LAN-Kabel und Strom. Fertig. Alles andere geht dann per Netz (natürlich ohne laufendes OS) :cool_alt:

Ich möchte IPMI nie wieder missen.

ACHTUNG: EIN Core i3 kann kein vt-d!!!

Ich hoffe diese Überlegungen / Anregungen bringen Dir etwas.

bis demnächst

Gruß
mlampe
 
Zuletzt bearbeitet:
Hallo,

Wird dein Server (komplett) 24x7 laufen oder nur zeitweise?
Benötigt deine Hausautomatisierungs-Software eine spezielle HW-karte, direkten Zugriff auf USB-Port, Serieller, Port,...?
Ja, wird 24/7 laufen.
Spezielle Hardware braucht es nicht, nur eine LAN-Schnittstelle nach aussen, evtl. später noch eine USB-Port für eine EnOcean-Anbingung, wobei ich da aber auch eher die LAN-Variante vorziehe, da ich das entsprechende Funk-Interface mit LAN dafür schon habe.


ACHTUNG: EIN Core i3 kann kein vt-d!!!
Die Core-i3 21xx ( Sandy Bridge ) können das. Aber ich tendiere derzeit eh mehr zum i5 und die können alle vt-d

Xeon´s oder ECC halte ich eher nicht für sinnvoll, treiben nur den Preis in die Höhe. Bei Mainboards bin ich aus der Erfahrung der Vergangenheit ziemlich auf Asus eingeschossen, da braucht auch nur eine Minimal-Hardware drauf sen.

IPMI ist ne nette Sache, brauche ich aber zuhause nicht. Das Basis-Linux wird per USB-Stick installiert am Schreibtisch, dann verschwindet die Kiste an ihren Standort im Abstellraum und der Rest geht per RemoteDesktop über LAN.
IPMI-ähnlichesm nutzen wir in der Firma, da stehen unsere Server aber auch 30 km entfernt im Rechenzentrum.

Ich hoffe diese Überlegungen / Anregungen bringen Dir etwas.
Auf jeden fall.
 
Hi,

Ich habe mal nachgesehen (hatte ich vorher nicht :rolleyes:) und Du hast recht.
Der Core i3 2115C hat vt-d ark.intel.com, alle anderen Core i3 (aktuell laut ark.intel.com) nicht.
Ja, beim Core i5konnte schon die erste Generation vt-d.


Ein Low-Entry Server-MB mit XEON-CPU ist teurer, ganz klar.
Ich wollte es blos erwähnt haben.

Ich habe ein AMD ASUS ITX-MB für 32GB RAM gefunden Link.
Ist aber AMD und nicht Intel, ich weiß...

Ansonsten würde ich mir beispielsweise hier von ein μATX-Mainboard nehmen und ein passendes kleines μATX Gehäuse.

Der Kollege von mir hat für sein ATOM-ITX basierenden Server folgendes Gehäuse genommen Sharkoon Tarea.
Dort kann er genug HDD's unterbringen, es ist günstig, gut verarbeitet und mitsamt einem großen Kühler/Lüfter ist ein leises System hinzubekommen.

Sind bloß Ideen... ;)

Gruß
mlampe
 
Hallo,

das Gehäuse steht auch auf meiner Einkaufsliste, gut und günstig und mehr braucht es nicht. Vor allem Platz genug drin. Der Server wird eh in ner Abstellkammer stehen.
Evtl. bau ich die Festplatten noch in einen Anti-Vibratiorsrahmen ein, da sind die 5,25" Schächte eh die bessere Wahl.

Bei der CPU ist die Wahl bei mir gefallen auf einen Core-i5 IvyBridge, 32GB Ram da rein und eine 120 GB SSD um genug Leistungsreserven für andere Aufgaben zu haben.

Platten kommen rein: erst mal die 2 3TB-Platten aus meinem derzeigen NAS und ggf. noch 2 weitere 3TB Platten bei Bedarf.

Mainboard wird ein einfaches ASUS mit 2xSATA3 ( einen für die SSD ) und 4x SATA3 Anschlüssen, Grafikkarte onboard, mehr brauch ich nicht.
 
Also als erste muss ich sagen super Projekt ;) vorallem die Umsetzung auf ESXi und einem zfs nas sind sehr interessant.

Um im "home" Server bereich richtung virtualisierung zu gehen stellt sich mir noch die frage nach einer replikation der Bestände.

Weisst du ob es mögich ist das Openindiana System auf ein anderes zu replizieren?
Vorzugsweise sogar in einem ISCSI Konstrukt wo der entrypoint dann ein loadbalancing auf eines der Openindiana systeme geht.

So ein bischen alle P4xxx von HP ;)

Bin gespannt auf deine Antwort

Viele Grüsse

Sanktis
 
Hallo,

@mlampe
Warum hast du eigentlich ZFS benutzt ?

Wenn ich mir ansehen, mit welchen Probleme wir mit ZFS in der Firma uns rumschlagen, die eigentlich nur noch nervig sind und von Oracle bereits längst gepacht sein sollen - aber immer da sind - währe das das allerletzte Filesystem, was ich nutzen würde.
z.b. gibt ZFS unter Solaris zeitweise Speicherplatz nicht frei, zeigt den aber als frei an, vollkommen reboot-fest. Dann wundert man sich, warum Softwareupdate mit "No space left on device" ständig abbrechen, aber das Betriebssystem behaupte, da währen etliche GB frei.

In der Firma fliegt es demnächst raus, hab aber eher Gründe im Wechsel des Betriebssystems, weg von Solaris hin zu RedHat Enterprise Server
 
@sanktis: Vielen Dank für die "Blumen" ;)

Wenn ich das jetzt richtig im Kopf hab gibt es in Openindiana die Möglichkeit per "ZFS send" und "ZFS receive" einen "ZFS Pool" auf ein anderes System zu replizieren. Ein Kollege von mir hat dafür, glaube ich, ein Shell Script geschrieben. Laut seiner Aussage war das wohl kein riesen Akt. Ich selbst hab damit keine Erfahrung.

Bezogen auf Cluster / High Availability mit Openindiana gibt es folgenden Wiki-Eintrag Link OI Wiki.
Näher habe ich mich damit nicht beschäftigt und kann Dir daher keine Erfahrungen mitteilen.

Unabhängig dazu würde mir zwar noch eine andere Möglichkeit einfallen, aber die ist komplexer und doch eher "unkonventionell", sprich das ist nicht wirklich eine Lösung!
Zwei Server, jeder ein ZFS-Pool für sich mit einer iSCSI-Lun. Dann beispielsweise zwei weitere Linux-Server, die diese beiden iSCSI-Luns angebunden haben und mit Linux die gewünschte Clusterfunktionalität bereitstellen.:rolleyes:


@ Thomas4711: Die von Dir beschriebenen Probleme sind bis jetzt nicht in irgendeiner Weise aufgetreten, aber ich habe auch Openindiana und nicht Solaris 10 oder 11 im Einsatz. Ich mit meiner "kleinen", einfachen Openindiana Lösung komme auch nicht an die Komplexität, die Ihr auf der Arbeit sicher habt, heran.

Ich habe mich unter anderem für ZFS entschieden, da ich die "Gesamtheit" von ZFS genial finde. Sprich durch einen Scrub (oder Lesevorgang) defekte Blöcke reparieren zu können, die Möglichkeit pooled Storage zu haben den ich, auch mit ZIL und L2ARC, erweitern kann.
Ich weiß dass mit einer "LVM / MDADM" Kombination unter Linux auch viel möglich ist.
Dedub und Compression hab ich bis jetzt nicht im Einsatz.


Auf der Arbeit hatten wir bis vor kurzem noch den Plan ein 2-Node Linux-Storage-Cluster (CentOS) mit GlusterFS zu errichten. Dies sollte für ein "2-Node Hyper-V 2012 Cluster" der "HA-Storage" sein. Allerdings werden wir nach aktuellem Stand eine andere, Windows basierte Storage-Lösung einsetzen. Diese Entscheidung hat unter anderem etwas mit Support bzw. "Gesamt-Administrierbarkeit" durch Kollegen zu tun.


EDIT:

Ich bin per PN gefragt worden, wo ich denn die SATA Stromstecker zum Klemmen gekauft hab. Ich poste die Info hier für alle die es Interessiert.

Ich habe über diesen Shop bei Farnell bestellt.
Siehe Hier.
Dieser erwähnte Shop kann auf das komplette Sortiment
von Farnell zugreifen, auch wenn etwas in dem Shop nicht direkt gelistet wird.
Die Stecker und die Abdeckkappen geören nicht zusammen und müssen einzel bestellt werden.




Gruß mlampe
 
Zuletzt bearbeitet:
Hallo,

@mlampe
Kann sein das Openindiana davon nicht betroffen ist. Wir nutzen Solaris 10u9 auf x86 Maschinen im grossen Umfang ( rund 350 Bladeserver ).

Der Bug ist einfach, das ZFS Plattenspeicher nach dem löschen von Dateien nicht mehr sauber freigibt aber jede Abfrage darauf diesen Platz als frei ausgibt ( du, df, usw. ).
Lt. Oracle soll das Problem mit 10Update8 behoben sein, ist es aber nicht. Der Support von Oracle ist mittlerweile eh unterste Schublade, die wollen mit Gewalt auch ihre letzten Kunden vergraulen.

Ich hab in den letzten Tagen meine Server-Hardware bestellt:
- Gehäuse: Lian Li PC-A04B Micro-ATX Tower - gedämmt
- Mainboard: ASUS P8Z77-M Pro Z77 Micro-ATX
- CPU: Intel Core i5, 4x 3,1Ghz ( bekomme ich günstig gebraucht )
- 32 GB Ram
- 128 GB SSD
- 4 x WesternDigital Platten 3 TB für 24x7 Betrieb ( 2 davon habe ich ja bereits )
- Kleinkram für Montage usw.
 
Hallo,

update: Meiner Server läuft mitlerweile, nachdem endlich auf der PC-Händler das Mainboard geliefert hatte.

- Betriebssystem ist Ubuntu 12.04 LTS 64Bit
- darauf läuft VirtualBox mit einer Windows 7 64Bit Maschine für mein Homeautomatisierung
( 2 virt. CPU, 30 GB Plattenplatz )
- Ein Samba-Server stellt die Netzwerkfreigaben zur Verfügung
- Die Platten sind derzeit in einem RAID-5 Verbund mit einer Spare installiert, zu einem späteren Zeitpunkt kann ich somit problemlos weitere Platten zufügen, sollte ich den Platzbedarf haben.
- zwei weitere virtuelle Maschinen mit Linux werden in Kürze noch folgen, die sollen als Webserver und als Mail-Server dienen.


Stromverbrauch: ca. 65W bei intensiven Datenkopieren auf das RAID, ansonsten geht der auf unter 60W runter, da ist aber noch Luft drin durch Abschaltung der Festplatten und Energiesparoptinen des Mainboards.
 
Hallo,

Dank der SSD müsste die Reaktionsgeschwindigkeit des Host-OS und der VM recht hoch sein, oder?
Verstehe ich Dich richtig, dass dein Raid-5 aus 3 x 3TB + 1x 3TB Hotspare besteht (ca. 5.4TB nutzbar)
oder 4 x 3TB als Raid-5 (ca. 8.1TB nutzbar)?

Ich überlege auch, ob ich die Betriebssystem-Festplatte gegen eine SSD austausche. Im Moment fühlt es sich etwas träge an (gemessen an meinem Windows 7 PC mit einer SSD) ;-)

Ich würde schätzen, dass Du mit Festplattenabschaltung und Eneergiesparoptionen bestimmt auf 40W, vielleicht auch unter 40W kommst.

Ich denke ebenfalls, dass Du das 1GBit Netzwerk per Zugriff auf den Samba-Server locker gesättigt bekommst, oder?

Gruß
mlampe
 
Hallo,

war etwas länger nicht hier:

Dank der SSD müsste die Reaktionsgeschwindigkeit des Host-OS und der VM recht hoch sein, oder?
Ja, max. 15 sec. bis Ubuntu läuft und alle drei VM´s online sind ( Windows7, Linux-Webserver, Linux Mailserver )

Verstehe ich Dich richtig, dass dein Raid-5 aus 3 x 3TB + 1x 3TB Hotspare besteht (ca. 5.4TB nutzbar) oder 4 x 3TB als Raid-5 (ca. 8.1TB nutzbar)?
Aktuell 3x3Tb + 1 Spare = 5,6 TB.
Ich musste den Festplattenkäfig um 90° drehen, da die Platten sonst mit den SATA-Anschlüssen auf dem Board ins Gehegen gekommen währen. Sopasst aber der zwei Rahmen nicht obendrauf. Da muss ist erst mal wenn ich Urlaub habe, alles nich mal ausbauen und am Einbaurahmen für die CD-Laufwerke ein Stück wegdremeln.

Aktuell brauch ich den Plattenplatz aber auch nicht komplett, so das eine Erweiterung schon notwendig währe.

Ich denke ebenfalls, dass Du das 1GBit Netzwerk per Zugriff auf den Samba-Server locker gesättigt bekommst, oder?
Schreibraten von 750MBit/s über Netz war das Maximum was ich gemessen habe, mit sehr grossen Dateein. Bei den Platten hatte ich Schreibraten von 250 MB/s im Peak. Mehr schafft aber auch mein Notebook nicht mehr zu senden, da ist dann auch die Grenze von der SSD erreicht, zumal die nur an SATA-2 hängt und -3 könnte.

Da ich aber eh den Server derzeit noch über PowerLan angeschlossen habe, geht nicht mehr als 350 MBit/s brutto übers Netz dahin, netto wohl rund 250MBit/s.
Da werde ich aber noch Lankabel hinlegen, weil ich den Server auch als Firewall nutzen werde.
 
Zurück
Oben