FatNAS/Fileserver gesucht

benneque schrieb:
"Silent-on-demand" haha. Lebst du im Jahr 2000? :D
Nope, ich denke hier liegt ein Missverständnis vor.

Die Idee ist den Maximaltakt abzusenken, so dass auch unter Last (der hat schließlich potenziell etwas zu tun) ruhig ist wenn er soll. Dafür Überwacht ein Script die natürlich automatisch geregelte Lüfterdrehzahl. Wenn nun Ruhe gewünscht ist beginnt er ab einer bestimmten Drehzahl den Maximaltakt zu senken so dass auch die Spannung und damit die Temperatur sinkt und der Lüfter nicht hochdreht.
Dazu könnte er beispielsweise von einem Script auf dem Arbeitsrechner informiert werden was gerade gewünscht ist. Das absenken des Maximaltaktes über den Linux Kernel hat keinen Einfluss auf die normalen Stromsparmechanismen der CPU. Wenn er nichts zu tun hat wird es keinen Unterschied machen, sehr wohl aber WENN er etwas zu tun hat. Dann soll er das aber bitte leise tun können bei Bedarf und wenn es etwas langsamer wird.

benneque schrieb:
Und wenn du das Teil nicht ständig unter Volllast laufen lässt, kannst du den Turbo ruhig aktiviert lassen. Der wird ja nur benutzt wenn er benötigt wird.
Meines Wissens nach stimmt auch das nicht, zumal ich wie gesagt keine Lust habe persönlich aufzupassen was der Server gerade tut. Wenn der gerade sämtliche PNGs durch OptiPNG jagen darf oder ein Video encoden wird der auch längere Zeit unter Last stehen.
Abgesehen davon glaube ich dass der Turbo auch bei busy waiting aktiv wird. Festplatten I/O lässt die CPU ziemlich viel warten. Außerdem beschleunigt der Turbo nur solchen Code der auch von der CPU gebremst wird und verbraucht dabei mehr Energie als an Zeit eingespart wird. Es lohnt also nur wenn Zeit kritischer ist als Energieverbrauch.

Die Variante mit getrennten Maschinen ist schwierig. Ich habe hier recht begrenzten Raum und leider noch wenig Zeit. Einen Tower bekomme ich noch unter, zwei wird schon schwieriger. Zumal zwei kleine und leichtere Tower leichter umzuwerfen sind. ~8-9 Kg Katzen sind da nicht zu unterschätzen.
Auch klingt das für mich nach einer eher wenig vertrauenerweckenden Variante. Gebrauchte Hardware hinterlässt immer einen schalen Beigeschmack, ich weiß nie wie die vorher behandelt wurde. Elektronik die 1 Jahr an ihrer thermischen Grenze betrieben wurde ist eher ein Risiko. Ich habe zu viele negative Erfahrungen mit der Einstellung zur pfleglichen Hardwarebehandlung gemacht, meist heißt es '90°C, na und? Läuft doch wunderbar.'
Außerdem nehme ich lieber ein z.b. bei Computerbase getestetes Netzteil als eines zu dem ich praktisch nichts finde. Möglicherweise ist der Vertrauensvorschuss in Seasonic gegenüber einem guten kleinem oder externen Netzteil nicht gerechtfertigt, aber da bin ich lieber zu vorsichtig.

Außerdem stellt sich auch mir die Frage inwiefern das Stromsparend ist 2 Computer zu betreiben statt einem. Wie schon von benneque geschrieben: 2 Boards, 2 mal RAM, 2 mal Netzteil, 2 mal CPU
Serverhardware braucht auch gerne mal mehr Strom im gegenzug für erhöhte Sicherheit. Da wird die Spannung gegenüber den bereits oft schon sehr vorsichtig eingestellten Desktop Chips eher noch mal erhöht. Im Serverraum stört es ohnehin niemanden, die Lüfter dort sind immer laut.
Möglicherweise ist es effektiv die Masse der Festplatten vom Server im Dauerbetrieb zu trennen, in meinem Fall jedoch ist der Unterschied nicht so groß fürchte ich. Aber ich werde sehen wie es mit dem Stromverbrauch aussieht. Zu ZFS hatte ich gelesen dass man die Festplatten eher nicht abschalten lassen sollte.

Übrigens ist es eher so dass die sehr hoch taktenden CPUs von Intel im idle sparsamer sind als die niedriger taktenden da die Chips besser sind. Je größer die Leckströme, desto niedriger der mögliche Takt, desto niedriger die Einstufung. In den Computerbase Tests bewegen sich die Unterschiede allerdings im 1 W Bereich, nichtsdestotrotz liegen die i7 fast durchweg unter den niedriger getakteten i5. Die besten Quadcore Dies werden eben eher i7.

Suspend to RAM ist KEIN Standby. Standby ist einschaltbereit mit vorhandener Betriebsspannung. Suspend to RAM ist mit zumindest teilweise aktivem Board und RAM mit aktivem Self-refresh. Das sollte ein, zwei Watt pro Riegel nehmen.
 
Den Stromsparaspekt kann ich überhaupt nicht nachvollziehen:

Schade :)

1. Es ist völlig egal, ob man einen Celeron, Pentium, i3, i5, i7 oder Xeon hernimmt. Im Idle unterscheiden die sich kein bisschen. War bei Ivy Bridge auch so, wie man hier gut sehen kann.


Auch wenn es bei den Haswells hätte anders sein können. Letztendlich unterscheiden sich aber die Leistung und der Preis.

2. Wenn sich die Festplatten schlafen legen (also wirklich ausgehen und sich nicht mehr drehen), sinkt der Verbrauch auch auf ca. 0 und dazu hört man sie nicht mehr.

Nun ja jedes Gerät das nicht mechanisch getrennt wird wird wohl auch weiterhin Strom ziehen aber das ist hier nicht der Punkt. Das Szenario beinhaltete bei mir ZFS und da gehen die Festplatten nicht einfach so in den IDLE. Hinzu kommt das die wenigsten 20TB im Direktzugriff benötigen (ich jedenfalls nicht) sondern ein Großteil davon abgelegte Daten sind. Vier TB oder sollte ich aufrüsten halt 8TB sind genug für mein home NAS für die DVD Sammlung. Da ich von Raid6 gesprochen habe funktioniert in diesem Fall auch nicht das selektive abschalten einzelner Festplatte. Somit ist es immer ganz oder gar nicht und das macht 40+ Watt aus.

3. Virtualisierung ist doch genau dafür da, dass man nur 1x Hardware braucht und man darauf viele Systeme betreiben kann, die jeweils zu 90% keine CPU Last erzeugen.

Und steigert die Komplexität sofern Hardware durchgereicht werden soll. Was für ZFS und den Controller eventuell notwendig geworden wäre und auch nicht empfohlen wird.

Und ich hoffe, du meinst mit "VMWare" nicht VMWare Workstation, sondern VMWare ESXi (Oder als Alternative KVM, Xen oder Hyper-V) Das ist ein riesiger Unterschied in Sachen Effizienz!

Doch ich sprach von einem Windows System, ich habe ESXi noch nicht getestet. Vielfach sind Linux oder Linux Derivate und dazu zähle ich mal auch ESXi nicht genauso Effizient beim Stromsparen (laut CT). Das liegt einfach daran das die Hersteller ihre Treibber auf Windows hin optimieren. Gerade bei ESXi glaube ich nicht das der Fokus auf Stromsparen liegt da ist der Anwendungsfall ein ganz anderer. Für die 2-4 VMwares die ich vielleicht betreiben will reicht mir daher die Asrock Lösung vor allem da du richtig ausgeführt hast die CPU last meist eher gering ist. Von daher benötige ich dann auch keine hohe Effizienz was Rechenleistung bzw. nahezu Rechnergleiche Performance anbelangt.

Das VT-D Argument zählt natürlich auch nicht, weil jede brauchbare CPU VT-D hat (im Server werden keine Overclocker Teile eingesetzt). Und wenn man eine "Spielwiese" braucht: 2 Klicks und man hat eine neue VM laufen.

Ja aber nicht jedes (günstige/billige) Mainboard hat (brauchbares) VT-d aber bei einem echten Serverboard wird das leisten. --> Serverboard + Xeon = 350-400 Euro ohne ECC Ram ... was preislich ca. auch meine Ebay + Asrock Lösung gekostet haben wird (da 2 Netzteile + 2*Ram etc). Nicht vergessen das ECC teurer ist ...

4. Bei zwei Rechnern hast du dann aber auch wieder 2 Boards die doppelt Strom saugen, 2x so viele RAM Riegel die Strom saugen, etc. pp. Außerdem hast du dann noch entweder ein HDD/Stromverbrauchsproblem oder ein Bandbreiten Problem: Wenn im zweiten Rechner auch wieder so viele HDDs stecken, frisst das Teil ja noch mehr Strom. Aber wenn man sie weglässt, ist die starke CPU von der winzigen Gigabit Ethernetbandbreite abhängig. (Eine 10Gbit/s Verbindung kostet 300€ Aufwärts und frisst 15-30W).

??? Ich schrieb doch das der eine Rechner mit einer 4TB Platte als zulieferer dient und der ZFS Rechner als Datengrab. Und bevor man 10Gbit verbaut vom notwendigen Switch und dem Preis dafür kommt man günstiger weg wenn man einen ordentlichen managed Switch kauft und 2 Gigabit zusammenfasst. Für Zuhause sollte das eigentlich reichen ...

Wie gesagt: Im Grunde liegt der effektive Mehrverbrauch bei 0 - vor allem weil in deiner Lösung zeitweise 2 Rechner gleichzeitig an sind.

Siehe oben darüber hinaus ist "zeitweise" aber nicht 24/7.


... Im Betrieb laufen bei dir 2 Rechner, die sowohl im Idle als auch unter Last deutlich mehr Strom ziehen als ein einzelner.
....
Und: Weil bei dir RAM und Netzteil da waren, kannst du den Preis hier nicht so drücken Ich hätte gerade nichts von beidem hier und müsste da noch mal 100€ investieren.


Wie gesagt es läuft ein Rechner und dieser Zeitweise im Suspend to RAM. Die Asrock Lösung kostet dich selbst bei den Rampreisen heute neu eher 180 Euro also weniger als ein ordentliches Synology NAS. Es hat mehr Leistung und zieht weniger Strom. Sofern man also wirklich noch RAM besitzt aus graue Vorzeit als es nicht so teuer war ist dies sicherlich eine günstigere Lösung als zu heutigen Zeiten ECC. Man kann darüber hinaus auch 4GB verwenden und kommt dan auch ca im Preis den ich genannt habe hin - sollte auch ausreichen für das von mir verwendete Szenario.

Aber sicherlich ist die Kosten/Nutzen kalkulation abhängig von der Differenz im Stromverbrauch das muss jeder selbst entscheiden. Ich finde 2.5 W im Suspend to Ram, 15 Watt im Idle (sofern die Festplatte wie du sagst komplett keinen Strom mehr benötigt) doch recht charmant.

Letzdendlich hat aber jeder ein anderes Anwendungszenario. Sobald ich Zeit habe teste ich auch mal ESXi auf den idle verbrauch.

Mein Beitrag sollte auch nur als Anregung dienen.
Ergänzung ()

@Bigeagle

Die Variante mit getrennten Maschinen ist schwierig. Ich habe hier recht begrenzten Raum und leider noch wenig Zeit.

Verstehe ich :) Ich kann meinen Tower (10+ Platten) in die Ecke stellen und den NAS (1x4TB als Desktop) ins Wohnzimmer unter den Fernseher :)

Auch klingt das für mich nach einer eher wenig vertrauenerweckenden Variante. Gebrauchte Hardware hinterlässt immer einen schalen Beigeschmack, ich weiß nie wie die vorher behandelt wurde. Elektronik die 1 Jahr an ihrer thermischen Grenze betrieben wurde ist eher ein Risiko. Ich habe zu viele negative Erfahrungen mit der Einstellung zur pfleglichen Hardwarebehandlung gemacht, meist heißt es '90°C, na und? Läuft doch wunderbar.'

Auch das verstehe ich. Mein ZFS Server wird aber meist nur für relativ kurze Zeit laufen. Die Hardware stammt aus Servern aus einer größeren Serverfarm (sollte also relativ ok gekühlt gewesen sein). Sollte das ganze abrauchen kann ich den Controller umstecken (ich habe 2 davon) bzw. die Platten an ein consumer Board stecken und mit Freenas neu booten und die Platten einbinden da es sich um ein Software Raid handelt.

Wie ich verstanden hatte wolltest du aber eh etwas mehr Geld in die Hand nehmen und dann wäre zu überlegen ob man die 100 Euro mehr für ein Serverboard ausgibt.

Außerdem nehme ich lieber ein z.b. bei Computerbase getestetes Netzteil als eines zu dem ich praktisch nichts finde. Möglicherweise ist der Vertrauensvorschuss in Seasonic gegenüber einem guten kleinem oder externen Netzteil nicht gerechtfertigt, aber da bin ich lieber zu vorsichtig.

Es gibt auch gute kleine von Seasonic. Meins ist ein Fortron und die sollen auch nicht so schlecht sein.

Außerdem stellt sich auch mir die Frage inwiefern das Stromsparend ist 2 Computer zu betreiben statt einem. Wie schon von benneque geschrieben: 2 Boards, 2 mal RAM, 2 mal Netzteil, 2 mal CPU

Benneque hatte nicht erfasst das der eine Rechner als "Arbeitsrechner" und der andere als Datengrab dient. Vielleicht ist das auch nicht richtig rübergekommen. Das Datengrab hat halt ECC, ZFS und Raid6 und dient eben nicht nur für DVD sondern auch für eigene Filme,Bilder und Dokument als backup. Bei mir reicht auch wöchentliches abgleichen mit dem NAS bzw. direktes aufspielen von der SD Karte auf den ZFS Rechner.


Möglicherweise ist es effektiv die Masse der Festplatten vom Server im Dauerbetrieb zu trennen, in meinem Fall jedoch ist der Unterschied nicht so groß fürchte ich. Aber ich werde sehen wie es mit dem Stromverbrauch aussieht. Zu ZFS hatte ich gelesen dass man die Festplatten eher nicht abschalten lassen sollte.


Nun ja es gibt kein Festplatte aus sondern nur idle und das sind dann bei 10 Platten locker 50 Watt alleine durch die Festplatten. Sobald du schreibst oder liest laufen darüber hinaus auch alle Platten an da du ja einen Software Raid laufen lässt und da sind nun mal alle Platten dran beteiligt :mad:

Ohne ZFS bzw. besser gesagt ohne Raid sieht die Sache natürlich anders aus da kann sich dann jede der 10 Platten einzeln schlafen legen. Wenn man aber keinen Raid fahren will dann kann man auch 5x4 TB Platten nehmen und spart dadurch 20W im idle.

In den Computerbase Tests bewegen sich die Unterschiede allerdings im 1 W Bereich, nichtsdestotrotz liegen die i7 fast durchweg unter den niedriger getakteten i5.

Wenn ich das letzte Watt rausholen wollte würde ich eine Pico PSU oder ähnliches brauchen aber das gibt 3-5 Watt bei 50+ Euro kosten also ca 2-6 Jahre bis ich das raushabe.


Suspend to RAM ist KEIN Standby. Standby ist einschaltbereit mit vorhandener Betriebsspannung. Suspend to RAM ist mit zumindest teilweise aktivem Board und RAM mit aktivem Self-refresh. Das sollte ein, zwei Watt pro Riegel nehmen.


Richtig :) und tut es scheinbar auch dennoch war ich positiv überrascht. Funktioniert bisher tadellos, wacht schnell auf und sind nur 1-2 Watt mehrverbrauch. Mein Synology NAS verbraucht derzeit definitiv mehr Strom (ca 20W) und ist bei weitem nicht so leistungsfähig.

Wie ich schon oben schrieb war das ganze als Denkanstoß gedacht. Für meinen Anwendungsfall scheint die Lösung ganz gut zu sein aber erst der Langzeittest wird zeigen ob alles so klappt wie man sich das wünscht dennoch bin ich bisher von dem Asrock sehr positiv überascht.
 
Nun steht die Kiste hier und hat bisher einen gemischten Eindruck hinterlassen.

Positiv:
Groß, bequemer Einbau, schwer und bisher nicht umgeworfen
Kühl
hohe Performance erreichbar
headless möglich

Negativ:
Stromverbrauch höher als erwartet
allein nur mit Mühe zu bewegen, an tragen ist nicht zu denken ohne Training
momentan nicht leise genug

Testbetrieb Lubuntu 14.04 mit samba
In Zahlen:
Bandbreite: ich habe ab ca. 16 MB großen Dateien die 100 MB/s erreicht
Intel NASPT
HD Video Playback: 106,7
2x HD Playback: 82,3
4x HD Playback: 81,3
HD Video Record: 1582,3
HD Playback and Record: 106,7
Content Creation: 15,1
Office Productivity: 51,6
File copy to NAS: 877,1
File copy from NAS: 94,2
Dir copy to NAS: 23,0
Dir copy from NAS: 24,2
Photo Album: 13,6

Der Cache beim client hat deutlich sichtbar 2 mal die Ergebnisse verfälscht. Ansonsten sind die Ergebnisse verglichen mit den bei CB getesteten NAS ganz gut, abgesehen vom 'Photo Album'
Ich denke ich werde das noch mit Win7 auf Serverseite probieren um zu sehen ob das irgendwo deutlich zurückhängt.

Stromverbrauch:
Standby: ~ 2 W (etwas viel finde ich)
Idle mit HD5450, 2 WD Red 4TB, 1 Samsung Ecogreen 1,5 TB: 44 W
Ohne Grafik: 36 W
Linpack: ~150 W Spitze
Firestarter: 156 W

ohne Turbo:
Linpack: 98 W (möglicherweise probleme)
Firestarter: 139 W

Temperaturen mit Turbo und standard Gehäusebelüftung lagen unter Firestarter bei ca. 80-82 °C
Mit Turbo und Scythe Glidestream PWM bis 1300 U/min bei ca. 74°C
jeweils bei max Lüfterdrehzahl

ohne Turbo mit Glidestream unter Firestarter bei ca. 65°C und 75% Lüfterdrehzahl

Letzlich gefällt mir an der Kühlung das Verhalten des Heatspreaders nicht, im Idle komme ich zwar auf <= 5 °C über Raumtemperatur, unter Last jedoch brät die CPU ohne dass der Kühler mehr als handwarm wird.
Die CPU zu köpfen um die Kühlung zu verbessern ist mir jedoch zu riskant. Unter Firestarter erkennt man auch deutlich den ansteigenden Stromverbrauch durch die steigende Temperatur. Ich schätze dass man noch 5 W sparen könnte wenn man die CPU unter 50 °C hält.

Stromverbrauch wurde mit einem Steckermessgerät von Brennenstuhl (PM 231 E) gemessen.

Ansonsten habe ich momentan einige Konfigurationsprobleme.
Wake on LAN funktioniert problemlos per MagicPacket. WOL bei Uni/Multicast habe ich nicht hinbekommen weil meine einstellungen irgendwo überschrieben werden und damit auf MagicPacket zurückgesetzt werden.
Power on LAN, bzw Power on PCIe Device funktioniert sogar so gut dass der Server nun bootet sobald er Strom bekommt, selbst nachdem ich sämtliche Optionen dieser Art im BIOS wieder deaktiviert habe (!). Da steht noch ein zurücksetzen der Einstellungen aus, hoffentlich wird es dabei behoben.

Eine Sache an die ich garnicht gedacht hatte war die Gehäusegröße und die Kabellängen. Ich kann mit den mitgelieferten Kabeln nur 4 Festplatten anschließen, da eines der Seasonic SATA Stromkabel garnicht bis zum Festplattenkäfig reicht. Auch andere Kabel sind teils recht knapp bemessen. Das Gehäuse ist doch recht groß.

Nas4free in einer Virtualbox VM und über vmdk eingebundene physische Festplatte erreicht zwar gute Werte im reinen Schreiben per dd, lesen liegt auch nahe den erwarteten 100 MB/s, jedoch scheint das schreiben nur mit 60% zu laufen, egal ob ich per LAN oder WLAN darauf zugreife. Mir ist völlig unverständlich warum per LAN 60 MB/s möglich sind und per WLAN 10 MB/s lesen und nur 6 MB/s schreiben.

Interessant wäre wenn jemand eine solche Konfiguration mit einem anderen Board testen würde, das müsste der Schuldige sein was den hohen idle Verbrauch angeht.
 
Zurück
Oben