Sparsame Serverhardware

waxweazle2001

Cadet 2nd Year
Registriert
Nov. 2014
Beiträge
30
Hallo Leute,

ich betreibe zur Zeit einen Home Server auf Windows Basis mit einem 4130T und einem Asusboard (keine Ahnung welches es jetzt genau ist).
Da ich demnächst vorhabe auf ein größeres Gehäuse umzustellen und in diesem Zuge auch die Hardware zu erneuern wollte ich mich mal schlau machen wo man ggfs. auch noch etwas Strom einsparen könnte.

Die Frage an sich wäre erstmal AMD oder Intel, hier wäre ich völlig aufgeschlossen, hab hier oft gelesen in anderen Foren dass die 12er Intel Reihe ganz gut sein soll um Strom zu sparen.

Hier hatte ich für die Intel Zusammenstellung den

Intel Core i3-12100 oder den Intel Core i5-12400

im Auge gehabt und für den Part mit AMD den

AMD Ryzen 5 5500GT​

was hier besser ist kann ich aber nicht beurteilen, da auch grade beim Ryzen der vergleich der Leistung pro W fehlt.

Auf dem Server läuft hauptsächlich Plex, ein Dokumentenmanagement, eine Zeitlang lief auch DVBViewer darauf, Drivepool sowie Snapraid für die Redundanz. Linux kommt nicht in Frage weil ich keine Lust habe mich damit auseinander zu setzen und es teilweise doch viel fummelei ist.

Die Frage zu einem sparsamen Setup betrifft jetzt auch hauptsächlich die Mainboards zu den oben genannten CPUs.

Anforderungen wären:

  • 1x m.2 Slot
  • min. 2x RAM Slot (wenn möglich DDR4 da ich hier noch 2x16GB von meinem alten Gamingrechner rumliegen habe)
  • 2.5Gbit LAN Onboard
  • min. 2x PCI-e Slots wobei einer min. mit 16xPCIe 3.0 angebunden sein sollte für die SAS Expanderkarte. Der zweite Slot wäre dann noch als Reserve wenn ich doch wieder eine TV Karte einbauen möchte für DVBViewer.

Für AMD hatte ich hier schon einmal Recherchiert und einige Mainboards rausgesucht, wie Stromsparend die sind weiß ich allerdings nicht.

ASUS TUF Gaming B550-Plus​

GigaByte A520M S2H​

ASRock B550 PG Velocita​


Gibt es hier weitere Empfehlungen für ein sparsames Setup was nicht ein halbes Vermögen kostet?
Zur Zeit betreibe ich 12 3,5" HDDs im Server, hier soll dann mit dem neuen Gehäuse auf 24 HDDs aufgerüstet werden.
Netzteil habe ich ein Seasonic, hier weiß ich aber grad auch nicht welches genau, war aber damals schon eines was eine sehr stabile Lane hatte für den Einschaltstrom und ich meine wenigstens silber Zertifiziert war, kann aber auch noch besser gewesen sein. Da hatte ich mich aber auch hier im Forum bereits in einem separaten Thread zu informiert wenn hier ein neues Netzteil kommen sollte.

Grüße
Wax
 
waxweazle2001 schrieb:
Die Frage zu einem sparsamen Setup betrifft jetzt auch hauptsächlich die Mainboards zu den oben genannten CPUs.
Geldmäßig sparsam wäre das vorhandene einfach weiter zu nutzen.

Energie sollte ja nicht das Ding sein, HBA und 12/24 Platten fressen halt ordentlich.


Wenn dann würde ich entweder auf einen halbwegs aktuellen AMD (sprich 8XXXG) oder halt einen der kleineren Intel (XX400) setzen, das Board halt mit sovielen Features wie nötig, das spart am meisten. Intel hat halt den Quicksyncvorteil und du könntest deinen RAM noch nutzen.
 
Ich sehen hier keine Serverhardware..

24 Platten und kein ECC-Ram? - Gewagt, gewagt.

Irgendwie bin ich der Meinung, dass du dir das ganze nochmal durch den Kopf gehen lassen solltest.
Zumind. würde ich ne AMD Pro nutzen, um ECC nutzen zu können.
Die G-CPUs sind im Idle paar Watt sparsamer als die non-Gs.
Welche Boards es damit unterstützen, weiß ich leider nicht.
 
  • Gefällt mir
Reaktionen: whats4
Früher waren die Fujitsu Boards besonders sparsam, Vlt gilt das auch für den Nachfolger (Kontron), Supermicro soll auch recht sparsam sein.
Ich weiß nicht ob man sich mit nem ollen Gamer Board ein Gefallen tut.
 
  • Gefällt mir
Reaktionen: Skudrinka
waxweazle2001 schrieb:

ASUS TUF Gaming B550-Plus​


Wir haben einige Server mit diesem Board. Mit einem 5800X, einer kleinen Grafikkarte, 128GB ECC RAM und zwei Enterprise-SSDs braucht so ein Server ca. 40W. Wenn Du stattdessen der 5800X und der Grafikkarte einen (Pro) 5700G oder (Pro) 5600G verwendest, sollte der deutlich weniger Strom verbrauchen (ich lese so von 10W Unterschied). Wenn Du ECC verwenden willst, musst Du einen nicht-G oder einen Pro-Prozessor besorgen.

Zur Zeit betreibe ich 12 3,5" HDDs im Server, hier soll dann mit dem neuen Gehäuse auf 24 HDDs aufgerüstet werden.
Netzteil habe ich ein Seasonic, hier weiß ich aber grad auch nicht welches genau, war aber damals schon eines was eine sehr stabile Lane hatte für den Einschaltstrom

Die Festplatten sollten dann so eingestellt werden, dass sie nicht beim Einschalten hochlaufen, sondern das Board oder Betriebssystem sollte sie nach der Reihe mit zeitlichem Abstand hochfahren bzw. entsprechend darauf zugreifen.
 
Skudrinka schrieb:
Ich sehen hier keine Serverhardware..

24 Platten und kein ECC-Ram? - Gewagt, gewagt.

Irgendwie bin ich der Meinung, dass du dir das ganze nochmal durch den Kopf gehen lassen solltest.
Zumind. würde ich ne AMD Pro nutzen, um ECC nutzen zu können.
Die G-CPUs sind im Idle paar Watt sparsamer als die non-Gs.
Welche Boards es damit unterstützen, weiß ich leider nicht.
Naja ECC-Ram habe ich bisher noch nie gebraucht, habe auch auf meinem Heimrechner bisher keinerlei Fehler gehabt, und wenn dann sind diese durch den Betriebssystem absturz aufgefallen. Der Server soll ja auch nicht der einzige bleiben. Die wichtigen Daten sind zusätzlich auf einem kleinen NAS gesichert welches auch regelmäßig die wichtigsten Ordner Backupt.
Zusätzlich dazu dann die Snapraid "Sicherung", denke dass sollte schon passen. Die Frage dabei wäre auch wieviel würde es mich mehr kosten ECC zu implementieren und ist es mir das Wert? Hauptteil sind ja Filme, Serien etc. andere Daten sind wie gesagt redundant gesichert.

mae schrieb:
Wir haben einige Server mit diesem Board. Mit einem 5800X, einer kleinen Grafikkarte, 128GB ECC RAM und zwei Enterprise-SSDs braucht so ein Server ca. 40W. Wenn Du stattdessen der 5800X und der Grafikkarte einen (Pro) 5700G oder (Pro) 5600G verwendest, sollte der deutlich weniger Strom verbrauchen (ich lese so von 10W Unterschied). Wenn Du ECC verwenden willst, musst Du einen nicht-G oder einen Pro-Prozessor besorgen.
Ok das ist ja zumindest eine Aussage wenn das Board auch ECC unterstützt wäre dass ja auf jeden Fall eine Option. Muss ich nur mal schauen welche CPU ich dann verwende und was mich der ganze Spaß dann hinterher mehr kostet.
mae schrieb:
Die Festplatten sollten dann so eingestellt werden, dass sie nicht beim Einschalten hochlaufen, sondern das Board oder Betriebssystem sollte sie nach der Reihe mit zeitlichem Abstand hochfahren bzw. entsprechend darauf zugreifen.
Wo kann man da denn eine Verzögerung genau einstellen? Hab ich noch nirgends gesehen dass es da so eine Spin On Delay gibt oder so. Außerdem ist dann die Frage wie das genau läuft. Weil zur Zeit zumindest mit meiner SATA Erweiterungskarte wartet er mit dem Start des Betriebssystems immer bis alle Platten initialisiert wurden. Das dauert so schon ewig, außerdem musste ich mir einen Workaround basteln weil wohl grade die Festplatten größer 18TB beim ersten Boot von Windows nicht sauber erkannt werden vom System. Dass hat mich immer viel Arbeit mit dem Plex gekostet. Daher habe ich mir ein Skript geschrieben welches den Server neu startet und eine txt-Datei anlegt in einem Ordner wenn diese nicht vorhanden ist, und wenn diese bei Windowsstart vorhanden ist, die Datei löscht und das Skript beendet.
Denn nach einem Neustart von Windows waren die Platten auch da, denke dass da die Anlaufzeiten oder ähnliches Probleme machen. Hot Swap ist aber eigentlich aktiviert. War alles nicht so einfach, auch Wake On LAN hat irgendwie nicht geklappt mit der OnBoard Karte auf mehreren Wegen, daher wird der Server mit ner Fritz Steckdose eingeschaltet und der Option Power On auf dem Mainboard.

Ich hoffe, dass sich diese Probleme dann mit einer SAS-Karten Anbindung der Festplatten und dem neuen Mainboard auch beheben lassen.
 
Wie schon erwähnt wurde, die Anzahl an HDDs + SAS HBA-Controller erübrigen sonstige Diskussionen zur Energieeffizienz.

Staggered SpinUp (SSU) benötigt einen Controller, der PIN11 vom Stromkabel (bei Sata) steuern kann und so Laufwerken signalisiert, wie sie sich zu verhalten haben, wenn Strom zugeschaltet wird.
Alternativ kann man HDDs auch Parameter in Software setzen. Unter Linux wäre das hdparm -s2 /dev/DRIVE[1]. WENN du sowas vorhast, achte aber darauf die Dokumentation von HBA-Controller, Laufwerk und der Software zu lesen, die solche Paramater setzt!

Edit: Und wie der Betriebsystmkernel die Zugriffe auf die HDDs verteilt macht auch einen Unterschied.
Edit2: Aber manchmal hilft auch Rechnerei. Je Laufwerk sind mit 2,5..3A Belastung auf der 12V Schiene zu rechnen. Bei 12HDDs sind also maximal 430W und bei 24Laufwerken 860W zu erwarten. Das Problem kann man also tendenziell mit Hardware erschlagen. Muss aber aufpassen, wie man den Strom im System verteilt.

[1] Ich würde empfehlen hdparm an der Stelle lieber über "by ID" abzuwickeln statt der eher willkührlichen Vergabe der Laufwerksnamen durch den Kernel. Dies gilt auch für Windows


waxweazle2001 schrieb:
Naja ECC-Ram habe ich bisher noch nie gebraucht, habe auch auf meinem Heimrechner bisher keinerlei Fehler gehabt, und wenn dann sind diese durch den Betriebssystem absturz aufgefallen.
:D
Selbst bei modernen Betriebssystemen sind die kritischen Teile vom Betriebssystem recht klein. Wenn dir ein System abstürzt, weil sich der Betriebssystemkernel verschluckt hat aufgrund eines Speicherfehlers, dann hat dir der selbe, defekte Speicher vorher schon Daten verhunzt. Nur hast du keine Chance das festzustellen.


ECC bedingt bei Intel teuere Mainboards, die so teuer sind, dass es sich im Regelfall lohnt eine AMD PRO APU zu kaufen. Da du 2.5GBe Netzwerk willst, würde ich da empfehlen direkt zu AM5 zu gehen, da gibt es dann eher Mainboards mit ECC und schnell Netzwerk.



Die ketzerische Frage wäre aber, welche Features von SAS willst du nutzen, dass der Aufpreis für SAS HBA+Laufwerke gerechtfertigt ist bei tendenziell höherem Stromverbrauch?! Denn an sich stellst du zu viele Fragen, als dass es den Eindruck macht, als hättest du etwas von SAS. Auch wäre dir Windows/Linux wahrscheinlich egal, denn SAS Features + angemessenes Monitoring wird so oder so ein Kampf in der Shell.


Edit: Und bei 12..24Laufwerken. Das sind die Bereiche wo Vibrationen von HDDs sich deutlich untereinander beeinflussen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Skudrinka
waxweazle2001 schrieb:
Naja ECC-Ram habe ich bisher noch nie gebraucht,
Frage, wie hättest du es bemerkt, dass du ECC gebraucht hättest?
Den gekippten Bit im Ram bemerkst du oft nicht.
Bilder, Filme etc. sind nicht kritisch und vertragen auf den ersten Blick ein gekipptes Bit.
Erst wenn dann ein einzelne Bild (Als Beispiel) irgendwelche sichtbaren Bild-Fehler aufweist, oder es sich nicht öffnet, bemerkt man es erst und dann ist es zu spät.

Bei der großen Menge an Speicher würde ich auf ein Dateisystem mit Prüfsummen setzen, denn auch Datenträger lassen Bits kippen. Die theoretische Wahrscheinlichkeit dafür findest du im Datenblatt der HDDs.
Pauschal, je größer die Platten/der Verbund werden, desto höher wird die Wahrscheinlichkeit.
Aber wenn man auf ein "Selbstheilendes" Dateisystem greift, dann ist ECC einfach nur eine konsequente Schlussfolgerung.
Bits kippen immer, es ist eine Wahrscheinlichkeit, welche gar nicht soo gering ist.
Moderne Dateisysteme sind sehr stabil, dass sie nicht gleich wegen einem Bit in die Knie gehen.
Was es aber mit deinen Daten macht, ist was völlig anderes.

Als Beispiel, mein alter Ram den ich vorher in meinem ehemaliger NAS hatte, war defekt.
Den Defekt habe ich so nicht bemerkt und gar MemTest hat nichts gefunden.
Erst als ich diesen gegen ein neues Kit ausgetauscht habe(auf Verdacht), hörte das Gemecker des Prüfsummen-Checks auf.
Wahrscheinlich wäre ein derartiger Ram im normalen Umfeld nie auffällig geworden - doch mit der Konsequenz, dass Daten unbemerkt korrumpiert wären..
Seit dem bin ich da vorsichtig geworden :)
 
  • Gefällt mir
Reaktionen: waxweazle2001
Skudrinka schrieb:
Bei der großen Menge an Speicher würde ich auf ein Dateisystem mit Prüfsummen setzen, denn auch Datenträger lassen Bits kippen. Die theoretische Wahrscheinlichkeit dafür findest du im Datenblatt der HDDs.

In der Praxis kommen dann z.B. die Dauer der Daten auf der HDD, die Umweltbedingungen und die Häufigkeit eines Scrubs als Faktoren hinzu. Bitrot betrifft in der Realität m.W. nur selten einen einzelnen Sektor.


Skudrinka schrieb:
Bilder, Filme etc. sind nicht kritisch und vertragen auf den ersten Blick ein gekipptes Bit.

Musik und besonders Filme auf jeden Fall deutlich mehr als Bilder. Aber ja, dies dürfte der Grund sein, warum die meisten Nutzer so etwas nie bemerken.

Auch ECC-RAM ist eine Frage der Wahrscheinlichkeit. Nur lässt sich diese ebenso wie die Wahrscheinlichkeit bei HDDs in der Praxis schwer einschätzen. Ein Durchschnittsnutzer, der im Jahr nicht etliche TB bis PB bewegt, wird im Jahr wahrscheinlich 0-3 Bitfehler haben. Machen wir uns nichts vor, der überwiegende Teil der Nutzer kommt gut ohne ECC-RAM klar. Womit ich nicht sagen will, dass er nicht sinnvoll ist und nicht eigentlich zum Standard gehören sollte.
 
  • Gefällt mir
Reaktionen: waxweazle2001 und Skudrinka
waxweazle2001 schrieb:
Die Frage dabei wäre auch wieviel würde es mich mehr kosten ECC zu implementieren

Bei AM4 derzeit ca. EUR 1/GB fuer das RAM und ca 20EUR Aufpreis des Pro 5655G gegenueber dem 5600G, bei AM5 mehr.

Weil zur Zeit zumindest mit meiner SATA Erweiterungskarte wartet er mit dem Start des Betriebssystems immer bis alle Platten initialisiert wurden.

Bei so einer Karte wuerde ich erwarten, dass die mit diesem Feature zurechtkommt, weil das sollte fuer sie normal sein; also dass die zwar wartet, bis die Platten mit ihr reden, dass sie aber nicht alle Platten hochdrehen laesst. Und ich wuerde auch nicht erwarten, dass die Platten alle dauerhaft drehen, das wuerde ca. 7-10W pro Platte kosten. Also wenn Du es verschmerzen kannst, dass ein Film einmal ein paar Sekunden braucht, bis die Platte hochgefahren ist.
 
waxweazle2001 schrieb:
Weil zur Zeit zumindest mit meiner SATA Erweiterungskarte wartet er mit dem Start des Betriebssystems immer bis alle Platten initialisiert wurden.
Wenn das Betriebssystem der Meinung ist, alle Volumes zum Bootzeitpunkt einzubinden, dann dauert der Bootvorgang so lang wie das Einbinden dauert. Da kann man dem Betriebssystem aber auch erklären, dass das nicht sein muss. Also, ich bin mir recht sicher, dass das unter Windows irgendwie geht, vielleicht... Das ist dann aber auch wieder etwas anderes als SSU.
 
Piktogramm schrieb:
Wie schon erwähnt wurde, die Anzahl an HDDs + SAS HBA-Controller erübrigen sonstige Diskussionen zur Energieeffizienz.

Staggered SpinUp (SSU) benötigt einen Controller, der PIN11 vom Stromkabel (bei Sata) steuern kann und so Laufwerken signalisiert, wie sie sich zu verhalten haben, wenn Strom zugeschaltet wird.
Alternativ kann man HDDs auch Parameter in Software setzen. Unter Linux wäre das hdparm -s2 /dev/DRIVE[1]. WENN du sowas vorhast, achte aber darauf die Dokumentation von HBA-Controller, Laufwerk und der Software zu lesen, die solche Paramater setzt!

Edit: Und wie der Betriebsystmkernel die Zugriffe auf die HDDs verteilt macht auch einen Unterschied.
Edit2: Aber manchmal hilft auch Rechnerei. Je Laufwerk sind mit 2,5..3A Belastung auf der 12V Schiene zu rechnen. Bei 12HDDs sind also maximal 430W und bei 24Laufwerken 860W zu erwarten. Das Problem kann man also tendenziell mit Hardware erschlagen. Muss aber aufpassen, wie man den Strom im System verteilt.

Piktogramm schrieb:
[1] Ich würde empfehlen hdparm an der Stelle lieber über "by ID" abzuwickeln statt der eher willkührlichen Vergabe der Laufwerksnamen durch den Kernel. Dies gilt auch für Windows

Also bei dem ganzen Kram den du zu den HDDs und hdpam etc. geschrieben hast bin ich mal komplett raus und habe nur den Zug vorbeirauschen hören. Hab jetzt nicht entnehmen können wofür ich hdparm verwenden sollte und was mir das für Vorteile bringt und wieso über ID und nicht Systemkernel. Also da habe ich einfach nichts von dem Verstanden was du mir eigentlich sagen wolltest.

Das mit dem Strom werde ich ggfs. über ein neues Netzteil regeln, welches ich eh in Planung habe wenn ich dann Aufrüste.

Piktogramm schrieb:
:D
Selbst bei modernen Betriebssystemen sind die kritischen Teile vom Betriebssystem recht klein. Wenn dir ein System abstürzt, weil sich der Betriebssystemkernel verschluckt hat aufgrund eines Speicherfehlers, dann hat dir der selbe, defekte Speicher vorher schon Daten verhunzt. Nur hast du keine Chance das festzustellen.


ECC bedingt bei Intel teuere Mainboards, die so teuer sind, dass es sich im Regelfall lohnt eine AMD PRO APU zu kaufen. Da du 2.5GBe Netzwerk willst, würde ich da empfehlen direkt zu AM5 zu gehen, da gibt es dann eher Mainboards mit ECC und schnell Netzwerk.

Ok dass ist ja schon mal eine Aussage, mit der ich arbeiten kann.

Piktogramm schrieb:
Die ketzerische Frage wäre aber, welche Features von SAS willst du nutzen, dass der Aufpreis für SAS HBA+Laufwerke gerechtfertigt ist bei tendenziell höherem Stromverbrauch?! Denn an sich stellst du zu viele Fragen, als dass es den Eindruck macht, als hättest du etwas von SAS. Auch wäre dir Windows/Linux wahrscheinlich egal, denn SAS Features + angemessenes Monitoring wird so oder so ein Kampf in der Shell.


Edit: Und bei 12..24Laufwerken. Das sind die Bereiche wo Vibrationen von HDDs sich deutlich untereinander beeinflussen.

Also erstmal vorab, Windows/Linux ist mir nicht egal, weil mit Linux einfach zuviel fummelarbeit ist und ich Software nutze die unter Windows und nicht Linux läuft. Ich habe auch keine Lust mich hier in Linux einzuarbeiten.

Bezüglich HBA, das ist durch das Gehäuse bedingt, denn die Gehäuse, die ich im Auge habe mit 24 HDDs haben intern dann die Anbindung über SAS, sonsten werden in den Gehäusen aber normale SATA HDDs betrieben.

Und was meinst du mit Monitoring? Ich habe bei mir auf dem Server Drivepool laufen und auch die Scansoftware dazu welche die Festplatten auf Fehler Scant im laufenden Betrieb und auch die S.M.A.R.T. Daten abruft und mir bei festgestellten Problemen mit einer Platte eine Email schickt.

Skudrinka schrieb:
Frage, wie hättest du es bemerkt, dass du ECC gebraucht hättest?
Den gekippten Bit im Ram bemerkst du oft nicht.
Bilder, Filme etc. sind nicht kritisch und vertragen auf den ersten Blick ein gekipptes Bit.
Erst wenn dann ein einzelne Bild (Als Beispiel) irgendwelche sichtbaren Bild-Fehler aufweist, oder es sich nicht öffnet, bemerkt man es erst und dann ist es zu spät.

Bei der großen Menge an Speicher würde ich auf ein Dateisystem mit Prüfsummen setzen, denn auch Datenträger lassen Bits kippen. Die theoretische Wahrscheinlichkeit dafür findest du im Datenblatt der HDDs.
Pauschal, je größer die Platten/der Verbund werden, desto höher wird die Wahrscheinlichkeit.
Aber wenn man auf ein "Selbstheilendes" Dateisystem greift, dann ist ECC einfach nur eine konsequente Schlussfolgerung.
Bits kippen immer, es ist eine Wahrscheinlichkeit, welche gar nicht soo gering ist.
Moderne Dateisysteme sind sehr stabil, dass sie nicht gleich wegen einem Bit in die Knie gehen.
Was es aber mit deinen Daten macht, ist was völlig anderes.

Als Beispiel, mein alter Ram den ich vorher in meinem ehemaliger NAS hatte, war defekt.
Den Defekt habe ich so nicht bemerkt und gar MemTest hat nichts gefunden.
Erst als ich diesen gegen ein neues Kit ausgetauscht habe(auf Verdacht), hörte das Gemecker des Prüfsummen-Checks auf.
Wahrscheinlich wäre ein derartiger Ram im normalen Umfeld nie auffällig geworden - doch mit der Konsequenz, dass Daten unbemerkt korrumpiert wären..
Seit dem bin ich da vorsichtig geworden :)

Ahhh ok, das macht natürlich Sinn, klar hatte ich hier und da auch schon mal ein Bild welches dann Bildfehler hatte oder so, wo ich damals aber dachte es kommt durch den Kopiervorgang von der CD auf die Platte weil es eigentlich eher alte Bilder waren oder welche die aus dem Internet kamen und wo ggfs. der Download defekt war. So zumindest meine Vermutung, aber dann werde ich da auf jeden Fall wenn ich eh alles noch einmal angehe doch mal nach ECC kompatibilität schauen und das mit einplanen.

mae schrieb:
Bei AM4 derzeit ca. EUR 1/GB fuer das RAM und ca 20EUR Aufpreis des Pro 5655G gegenueber dem 5600G, bei AM5 mehr.



Bei so einer Karte wuerde ich erwarten, dass die mit diesem Feature zurechtkommt, weil das sollte fuer sie normal sein; also dass die zwar wartet, bis die Platten mit ihr reden, dass sie aber nicht alle Platten hochdrehen laesst. Und ich wuerde auch nicht erwarten, dass die Platten alle dauerhaft drehen, das wuerde ca. 7-10W pro Platte kosten. Also wenn Du es verschmerzen kannst, dass ein Film einmal ein paar Sekunden braucht, bis die Platte hochgefahren ist.

Naja gut, dass sind Preis die Vertretbar sind und da würde ich dann wirklich auf ECC setzen.

Ja das Problem ist halt nur beim Booten, dass da dann lange gewartet wird. Bis der Server geladen ist, alleine durch meinen erneuten Neustart der Notwendig ist, damit ich überhaupt alle Platten sauber im System habe dauert es dann nochmal ne Zeit. Denke der Server braucht zur Zeit ca. 2-3 min. minimum, bis er einsatzfähig ist.
Der Server läuft halt nicht durchgehend sondern wird nur bei Bedarf gestartet, zumindest momentan, weil ich auch eine Festplatte mit S.M.A.R.T. Fehlern habe und diese erst tauschen muss, bevor ich überhaupt neue Daten auf dem Server schreibe.

Piktogramm schrieb:
Wenn das Betriebssystem der Meinung ist, alle Volumes zum Bootzeitpunkt einzubinden, dann dauert der Bootvorgang so lang wie das Einbinden dauert. Da kann man dem Betriebssystem aber auch erklären, dass das nicht sein muss. Also, ich bin mir recht sicher, dass das unter Windows irgendwie geht, vielleicht... Das ist dann aber auch wieder etwas anderes als SSU.
Ich denke nicht dass es am BS liegt, sondern an der Hardwareerkennung des BIOS, das Warten hier ist ja alles noch vor dem Boot des BS.
 
waxweazle2001 schrieb:
Also bei dem ganzen Kram den du zu den HDDs und hdpam etc. geschrieben hast bin ich mal komplett raus und habe nur den Zug vorbeirauschen hören.
TLDR: Das Zeitversetzte anlaufen von HDDs benötigt Aufwand in Hard- und/oder Software aber vor allem beim Lesen von Dokumentation von HBA-Controller, Softwarekomponenten, Laufwerken.
waxweazle2001 schrieb:
Hab jetzt nicht entnehmen können wofür ich hdparm verwenden sollte und was mir das für Vorteile bringt und wieso über ID und nicht Systemkernel.
hdparm ist zum Konfigurieren von HDDs gut.
"by ID": Laufwerke bzw. Partitionen haben UUIDs. Es empfiehlt sich immer diese UUIDs zu nutzen um spezifisch Laufwerke/Partitionen anzusprechen. Dann ist es (halbwegs) egal, wenn eine HDD mal an einem anderen Anschluss steckt, der Controller gewechselt wird etc. die UUID bleibt.

waxweazle2001 schrieb:
Und was meinst du mit Monitoring? Ich habe bei mir auf dem Server Drivepool laufen und auch die Scansoftware dazu welche die Festplatten auf Fehler Scant im laufenden Betrieb und auch die S.M.A.R.T. Daten abruft und mir bei festgestellten Problemen mit einer Platte eine Email schickt.
Wenn du ne Email bekommst wenn die HDDs komische Smart-Werte liefern und/oder Pools auseinanderfallen, dann ist das Monitoring. Unerwarteter Qualität (das bekommen viele Systemhäuser so nicht hin)
waxweazle2001 schrieb:
Ich denke nicht dass es am BS liegt, sondern an der Hardwareerkennung des BIOS, das Warten hier ist ja alles noch vor dem Boot des BS.
Jain. An sich ist es möglich, dass ein modernes UEFI hinterlegt hat, auf welchem Laufwerk der Bootloader vom Betriebssystem liegt. Wenn das UEFI gescheit implementiert ist, der HBA-Controller mitmacht und die Laufwerke mitmachen, dann kann das UEFI nur das Laufwerk mit dem Bootloader des Betriebssystems initialisieren, den Bootloader laden und an diesen übergeben und das Betriebssystem initislisiert dann alle sonstige Hardware.
Naja und so einem Betriebssystem kann man ja dann sagen, dass N Sekunden nachdem der Userspace verfügbar ist, dass der Storage initialisiert werden sollte. Was auch den Vorteil hat, dass das Betriebssystem viel schneller verfügbar ist, das Monitoring schneller verfügbar ist und wenn dann der Storagepool nicht will alles etwas Leichter wird (imho)

Und im besten Fall hat mein ein gescheit implementiertes UEFI, einen dummen HBA-Controller (der von allein keine Laufwerke initialisiert) und gibt den Laufwerken mit hdparm -s <Laufwerk by ID> mit, dass sie im Standby starten.

Und dieses Gefrickel ist unter Linux echt leichter als unter Windows. :)
 
Piktogramm schrieb:
TLDR: Das Zeitversetzte anlaufen von HDDs benötigt Aufwand in Hard- und/oder Software aber vor allem beim Lesen von Dokumentation von HBA-Controller, Softwarekomponenten, Laufwerken.

Naja wenn man dann einen HBA Controller hat, ich habe zur Zeit nur eine 8 Port SATA Karte am laufen und halt die internen SATA Ports am Mainboard. Zukünftig wird es aber eine HBA, da die Gehäuse, welche ich rausgesucht habe damit arbeiten, was ja auch durchaus Sinn macht bei 24 Platten.

Piktogramm schrieb:
hdparm ist zum Konfigurieren von HDDs gut.
"by ID": Laufwerke bzw. Partitionen haben UUIDs. Es empfiehlt sich immer diese UUIDs zu nutzen um spezifisch Laufwerke/Partitionen anzusprechen. Dann ist es (halbwegs) egal, wenn eine HDD mal an einem anderen Anschluss steckt, der Controller gewechselt wird etc. die UUID bleibt.

Ja das mit der UUID weiß ich schon, die nutzt Snapraid ja auch, aber was ich damit extra konfigurieren sollte weiß ich halt nicht.

Piktogramm schrieb:
Jain. An sich ist es möglich, dass ein modernes UEFI hinterlegt hat, auf welchem Laufwerk der Bootloader vom Betriebssystem liegt. Wenn das UEFI gescheit implementiert ist, der HBA-Controller mitmacht und die Laufwerke mitmachen, dann kann das UEFI nur das Laufwerk mit dem Bootloader des Betriebssystems initialisieren, den Bootloader laden und an diesen übergeben und das Betriebssystem initislisiert dann alle sonstige Hardware.
Naja und so einem Betriebssystem kann man ja dann sagen, dass N Sekunden nachdem der Userspace verfügbar ist, dass der Storage initialisiert werden sollte. Was auch den Vorteil hat, dass das Betriebssystem viel schneller verfügbar ist, das Monitoring schneller verfügbar ist und wenn dann der Storagepool nicht will alles etwas Leichter wird (imho)

Ich hab ein altes 1150er Asus Board in meinem Server zur Zeit laufen, was da UEFI genau angeht weiß ich nicht. Ich hab mich in der Tiefe nicht damit befasst und es geht hier ja auch nicht um einen Server im Firmenumfeld sondern nur Privat als Datengrab mit Sicherheitsaspekt.
Ja dass Snapraid keine Sicherung ist, ist mir bewusst, aber dazu hab ich noch ein externes Backup für die wichtigsten Daten.
Was da den Storagepool mit der Initialisierung angeht oder der Verzögerung, keine Ahnung wie man das bei Windows macht und ob dass, dann ggfs. auch Probleme mit meiner Drivepool Software macht.

Piktogramm schrieb:
Und im besten Fall hat mein ein gescheit implementiertes UEFI, einen dummen HBA-Controller (der von allein keine Laufwerke initialisiert) und gibt den Laufwerken mit hdparm -s <Laufwerk by ID> mit, dass sie im Standby starten.

Und dieses Gefrickel ist unter Linux echt leichter als unter Windows. :)

Wie gesagt, Linux ist für mich keine Option, ist mir zuviel gebastel, werde weiterhin nur Windows fahren und den HBA habe ich zur Zeit noch nicht und müsste erstmal schauen was man da wo konfigurieren kann. Habe da auch keinerlei Erfahrung.
 
waxweazle2001 schrieb:
Intel Core i3-12100
Ich habe hier einen Srv2019 mit einem i3-12100, einem B660M DS3H, 1TB SSD + 2x 16GB HDD am Laufen. Die CPU braucht im Idle keine 2W und das gesamte System kommt im Idle auf 26-28W. Unter Volllast etwa 70W.

Das Hauptproblem ist einzig und allein die Menge an Festplatten… Darf man fragen wie groß die Platten sind die du in Verwendung hast?
 

Anhänge

  • i3-12100.JPG
    i3-12100.JPG
    35 KB · Aufrufe: 14
waxweazle2001 schrieb:
Ich hab ein altes 1150er Asus Board in meinem Server zur Zeit laufen, was da UEFI genau angeht weiß ich nicht. Ich hab mich in der Tiefe nicht damit befasst und es geht hier ja auch nicht um einen Server im Firmenumfeld sondern nur Privat als Datengrab mit Sicherheitsaspekt.
Ob Firma oder privat, 24HDDs die gleichzeitig andrehen brauchen exakt gleich viel elektrische Leistung. Da kann man Gegensteuern.
waxweazle2001 schrieb:
Was da den Storagepool mit der Initialisierung angeht oder der Verzögerung, keine Ahnung wie man das bei Windows macht und ob dass, dann ggfs. auch Probleme mit meiner Drivepool Software macht.
hdparm -s <dev by ID> auch unter Windows
waxweazle2001 schrieb:
aber was ich damit extra konfigurieren sollte weiß ich halt nicht.
Das was in der Dokumentation unter -s steht (Groß-/Kleinschreibung beachten!):
https://www.man7.org/linux/man-pages/man8/hdparm.8.html
waxweazle2001 schrieb:
Wie gesagt, Linux ist für mich keine Option, ist mir zuviel gebastel, werde weiterhin nur Windows fahren und den HBA habe ich zur Zeit noch nicht und müsste erstmal schauen was man da wo konfigurieren kann. Habe da auch keinerlei Erfahrung.
Ja, Linux bzw. *nix ist sooo sehr gebastel, dass die Softwarewerkzeuge aus der *nix-Welt auf Windows portiert werden, damit man die Windowskisten überhaupt aus Spur bringen kann :freak:
 
Tronix schrieb:
Ich habe hier einen Srv2019 mit einem i3-12100, einem B660M DS3H, 1TB SSD + 2x 16GB HDD am Laufen. Die CPU braucht im Idle keine 2W und das gesamte System kommt im Idle auf 26-28W. Unter Volllast etwa 70W.

Das Hauptproblem ist einzig und allein die Menge an Festplatten… Darf man fragen wie groß die Platten sind die du in Verwendung hast?

Momentan sind die Größten 20TB. Gesamtvolumen momentan ca. 134TB über alle Platten. Daher muss ich auch bald aufrüsten weil der Speicher aus geht. ;-) :-D

Piktogramm schrieb:
Ob Firma oder privat, 24HDDs die gleichzeitig andrehen brauchen exakt gleich viel elektrische Leistung. Da kann man Gegensteuern.

hdparm -s <dev by ID> auch unter Windows

Das was in der Dokumentation unter -s steht (Groß-/Kleinschreibung beachten!):
https://www.man7.org/linux/man-pages/man8/hdparm.8.html

Ja, Linux bzw. *nix ist sooo sehr gebastel, dass die Softwarewerkzeuge aus der *nix-Welt auf Windows portiert werden, damit man die Windowskisten überhaupt aus Spur bringen kann :freak:
Werde mir dass mal anschauen wenn ich dann den Wechsel mache mit hdparm und auch die Hardware mit dem HBA etc. habe. Momentan läuft der Server ja noch so wie er ist.

Das mit dem Linux mag ja alles sein, trotzdem bin ich kein Freund davon und mag mich mit Linux nicht auseinander setzen. ;-)
 
Zurück
Oben