1. #1
    Lt. Commander
    Dabei seit
    Dez 2014
    Beiträge
    1.874

    [Projekt, Worklog, HowTo] Server in Eigenregie

    Inhaltsverzeichnis

    1. Prolog

    2. Ausgangslage

    3. erste Maßnahmen

    4. Konzeptioneller Lösungsansatz
    i. Allgemeines
    ii. Konkretes

    5. Einkaufslisten
    i. Der Produktivserver
    ii. Das produktive Ersatzteillager
    iii. Der Sicherungsserver

    6. Umzugsszenario

    7. Ressourcenzuteilung
    i. CPU
    ii. Arbeitsspeicher
    iii. Festplattensystem
    iv. Sonderfall virtualisierter Domänencontroller
    v. Energiesparfunktionen

    8. Worklogs, Burn-Ins und Tests
    i. Der Sicherungsserver
    ii. Der Produktivserver
    iii. Das Produktive Ersatzteillager

    9. Die kleine Firma
    i. Der Server
    ii. Die Clients

    10. Andere Beispiele in Kürze
    i. ein anderer Doppelserver - under Construction


    1) Prolog

    aktueller Status des Projektes:

    Klicke auf die Grafik für eine größere Ansicht 

Name:	Live 20161111.jpg 
Hits:	905 
Größe:	497,5 KB 
ID:	590924

    Klicke auf die Grafik für eine größere Ansicht 

Name:	Live3 20161111.jpg 
Hits:	425 
Größe:	149,9 KB 
ID:	590928

    Klicke auf die Grafik für eine größere Ansicht 

Name:	Live2 20161111.jpg 
Hits:	396 
Größe:	170,0 KB 
ID:	590926

    Klicke auf die Grafik für eine größere Ansicht 

Name:	Live4 20161111.jpg 
Hits:	441 
Größe:	1,42 MB 
ID:	590929

    Der Sicherungsserver läuft von Anfang an völlig störungsfrei.

    Der Produktivserver hat seinen Dienst am 28.05.2015 zunächst völlig problemlos aufgenommen. Dann gab es einen Absturz. Ein Blick in das Ereignisprotokolls hat gezeigt, dass es sich um ein Biosthema handelte (im Zusammenhang mit dem neuen Energiemanagement der CPU). Es gab keinen Datenverlust (Einstellungen haben sich also bewährt). Ausfallzeit wenige Minuten. Und es gibt bereits längst ein neues Bios. Also auch hier kein großes Thema.

    Eine der beiden Server-CPUs war defekt und wurde eingetauscht. Die Ersatz-CPU war ebenfalls defekt und musste erneut eingetauscht werden. Die Dritte ist jetzt eingetroffen und funktioniert, das produktive Ersatzteillager kann jetzt in Betrieb gehen. Dennoch: keine Auswirkung auf den Produktivbetrieb :-). Mit der Standardlösung (24h vor Ort Austauschservice) sind genau solche Szenarien unangenehm - bei hiesigem Konzept recht belanglos.

    Nach einer ausstehenden Änderung durch die Telekom soll auch der Telefonserver auf hier gegenständlichen Server virtualisiert werden. Dann ist die Serverlandschaft von 4 Servern auf einen Server geschrumpft. Zusätzlichist angedacht, den zweiten kleineren Betrieb per VPN einzubinden - also die 2 dortigen Server zu virtualisieren und einfach auf hiesigen Server zu legen. Daraus ergeben sich auch bzgl. der benötigten Lizenzen, vor allem für die diversen Datenbanksysteme, deutliche Einsparungen - und noch mal zwei Server weniger. Wir werden das 1 Woche im Realbetrieb testen - reicht die Internetverbindung nicht, geht das wieder zurück und wird irgendwann in Zukunft umgesetzt.


    Achtung Nerd-Porn:

    Klicke auf die Grafik für eine größere Ansicht 

Name:	Nerd-Porn.jpg 
Hits:	1871 
Größe:	313,9 KB 
ID:	556047

    Klicke auf die Grafik für eine größere Ansicht 

Name:	rechte Seite.jpg 
Hits:	1944 
Größe:	562,9 KB 
ID:	556071

    Klicke auf die Grafik für eine größere Ansicht 

Name:	linke Seite.jpg 
Hits:	1845 
Größe:	464,3 KB 
ID:	556072

    Klicke auf die Grafik für eine größere Ansicht 

Name:	Fenster.jpg 
Hits:	1620 
Größe:	471,0 KB 
ID:	556081

    Klicke auf die Grafik für eine größere Ansicht 

Name:	vorne.jpg 
Hits:	1404 
Größe:	285,8 KB 
ID:	556082

    Der Thread wird unvollständig begonnen und parallel zum Fortschritt weiter entwickelt. Enthalten ist bisher die Ausgangslage, die Planung sowie der bereits umgesetzte Teil der Planung. Im Weiteren folgt dann der Rest der Umsetzung. Die noch fehlenden Teile sind im Inhaltsverzeichnis grau dargestellt. Fotos und Screenshots werden gleichsam noch nachgelegt.

    In Summe stehen hier 6 Server in 2 Unternehmen zum Wechsel an.

    Das Thema Sever im Eigenbau vs. fertige Server ist strittig. Die Entscheidung ist hier zugunsten des Eigenbaus gefallen. Fertigserver werden hier derzeit verwendet und sollen im Rahmen einer nötigen Erneuerung durch Eigenbauserver ersetzt werden. Dieses Thema ist damit abgehandelt und off-Topic (siehe hierzu 4.i). Das Konzept kann auch mit fertig gekauften Servern umgesetzt werden, fände man welche, die geeignet sind. Das scheitert aber schnell zum Beispiel an der Lautstärke und Erweiterbarkeit.

    Die hier vorliegende Situation ist klassisch und eignet sich daher sehr gut als Fallstudie.

    Es soll anhand eines Praxisbeispiels veranschaulicht werden, wie man selber oder in Kooperation mit einem Systemhaus vorgehen kann und wie diverse Problemstellungen abgedeckt werden können. Ich denke, auch Systemhäuser können hier Ansätze für ihre kleinen und mittleren Kunden entnehmen. Das Konzept wurde bereits in anderen Zusammenhängen und verschiedenen Variationen erfolgreich praktiziert.

    Konstruktive Kritik, Beiträge und Fragen hierzu sind willkommen. Hierzu bitte den Diskussionsthread Server in Eigenregie nutzen. Für Fragen und Unterstützungen zu eigenen Projekten hingegen bitte im passenden Fachforum einen eigenen Thread eröffnen und ggf. mich per PN darauf aufmerksam machen.

    Einkaufslisten, Worklogs sowie Burn-ins begleitet von diversen Tests soll auch enthalten sein. Ggf. wird dies auch weitergeführt, um hier Erfahrungen, sofern diese hardware- oder konzeptbezogen sind, verfügbar zu machen, quasi als Langzeitstudie.


    2) Ausgangslage

    Es handelt sich um ein Unternehmen mit 11 Arbeitsplätzen, wobei ich die Nummer 11 bin. Es liegt damit bei zwei internen Personen IT-Erfahrung vor. Zusätzliche Begleitung durch 2 externe Systemhäuser ist gegeben. Im Hintergrund gibt es ein zweites Unternehmen, welches einem der Gesellschafter (dem mit IT-Kenntnissen) alleine gehört und 4+1 Arbeitsplätze beinhaltet.

    Die Arbeitsplätze sind klassische vielseitige Office-Umgebungen im Servicebereich mit datenbankbasierten System wie Warenwirtschaft, Produktionsplanungssystem, Abrechnungssystemen sowie Buchhaltungssystem.

    Zustand der IT ist/war bedenklich und überarbeitenswert aber dennoch überdurchschnittlich gut.

    Es wird mit Remote Desktops und ThinClients gearbeitet (= RDS oder altsprech Terminalserver). Sehr gut. Idealvoraussetzungen für ortsunabhängiges Arbeiten, insbesondere zusammen mit VPN, sowie sehr geringer Wartungsaufwand, besonders, da die verschiedenen Datenbanksysteme häufige Updates mit sich bringen, die dann nicht mehr auf allen Clients durchgeführt werden müssen.

    Ein Expansionskurs besteht nicht. Dieser Bestand aber auch zuvor nicht und es wurden dennoch über die Jahre 11 Arbeitsplätze. Es gibt also eine gewisse Eigendynamik. Potentiell stehen irgendwann neue Auszubildende/Mitarbeiter an, da Gesellschafter und Mitarbeiter älter werden. Das Ergebnis geringer Fluktuation wegen hoher Mitarbeiterzufriedenheit. Es käme dann mindestens temporär zu weiteren Arbeitsplätzen für diverse Jahre. Die Eigendynamik lässt aber vermuten, dass dies nicht zwingend komplett temporär bliebe.

    Im Rahmen der Workflows digitalisiert sich die Arbeit immer weiter. Hierbei kommen zum Beispiel beim Wareneingang, der Buchhaltung und in anderen Zusammenhängen mehr und mehr digitalisierte Belege mit Schrifterkennung zum Einsatz. Aus Gründen der Anonymisierung möchte ich dies beispielhaft lediglich an der Buchhaltung genauer erläutern, da Buchhaltung nun mal allgemein ist.

    In der Buchhaltung bedeutet dies, dass die Belege als PDF an jedem Buchungssatz angehängt werden. In diesem Zusammenhang werden die Belege auch mit Schrifterkennung durchforstet und interpretiert. Hieraus werden automatisierte Buchungsvorschläge generiert, was die Erfassung vereinfacht. Diese Systematik kann weiter trainiert werden. Das Finanzamt hat angekündigt, dies bis zum Jahr 2020 verbindlich zu machen.

    Mit dem Einlesen der Dokumente geht aber eine starke Leistungsbeanspruchung einher – bei CPU und natürlich dem Festplattensystem. Dieser Prozess dauert derzeit mit einem Xeon DP E5504 (4x2GHz ohne HT und Turbo) an Seagate 15.000rpm SAS im RAID1 für einen durchschnittlichen Arbeitsdurchgang ca. 15 Minuten. CPU-Auslastung sinkt dabei schnell auf 50% (alle Kerne gleichmäßig), mehr Arbeitsspeicher wird kaum abgerufen. Das Festplattensystem ist also zu langsam, die Anwendung skaliert mit Kernen. Das Warten auf Abschluss des Einlesevorganges ist teils ungünstig, aber noch kein wirkliches Problem, da bisher nur wenige Vorgänge auf digitale Belegerfassung umgestellt wurden. Dies wird aber weiter zunehmen.

    Aus den Angaben lässt sich das Verhältnis von benötigter Laufwerksleistung zu CPU-Leistung ableiten, so dass zukünftig kein Flaschenhals mehr besteht.

    Im Weiteren ist zu erkennen, dass die digitale Belegführung Bedarf an Scannern, vor allem aber an zusätzlichen Bildschirmflächen schafft.

    Die bisherigen Leistungsanforderungen sind ansonsten sehr gering. Obiger Xeon DP E5504 (Datenbankserver) sowie ein Xeon UP X3470 (Terminalserver) langweilen sich entweder oder zeigen kürzere Lastphasen im Bereich von 30% bis 50%. Der 1-kernige Pentium im Domänenserver hingegen ist überlastet. Da jetzt quasi Bildverarbeitung Einzug hält, ist eine massive Zunahme der Anforderungen binnen der kommenden 5 Jahre anzunehmen. Ggf. ergänzt durch weitere Arbeitsplätze. Aber: weiß man’s? Und wie hoch ist das anzusetzen? Wie kann ich eine große Leistungsspanne realisieren, ohne, sollte sich die Annahme nicht bestätigen, überdimensioniert zu haben und ohne dass es teuer wird?

    Das derzeitige Gesamtvolumen der drei Produktivserver liegt nach unten beschriebenen ersten Maßnahmen bei 320 GB. Die drei Produktivserver belegen im Betrieb zusammen ca. 22GB RAM, es stehen 40GB zur Verfügung.

    Vorgefunden habe ich hier 4 Windows Server 2008 R2: Domänenserver (inkl. DHCP-, DNS-, Exchange- und Dateiserver), Datenbankserver, Terminalserver sowie Sicherungsserver (letztlich ein NAS).

    Es gab mannigfaltige Störungen, deren Zuordnung zu einem konkreten Grund schwierig war. Dies resultiert daraus, dass das System nicht konzeptionell entworfen sondern entlang akutem Bedarf historisch gewachsen ist.

    Auffällig waren Störungszusammenhänge mit der Linux-basierten ThinClient Anbindung, besonders im Zusammenhang mit Maßnahmen, die der Schaffung zusätzlicher Bildschirmfläche dienten. Verschwindende Mauszeiger oder massives Endlosruckeln beim Scrollen zum Beispiel. Mit der Linux-basierten Anbindung der ThinClients entsteht ein heterogenes Netzwerk, was immer zusätzliche Störungsquellen mit sich bringt. Ein rein homogenes Netzwerk (durchgängig das gleiche System) ist deutlich wartungsärmer und im Ergebnis billiger, selbst wenn man hier zum Beispiel Windows als Software für die ThinClients einsetzen würde.

    Im Weiteren Störungen, die trotz gleicher Basis der Nutzer (RDS-Server – alle arbeiten ja mit demselben Rechner) sich von Nutzer zu Nutzer unterschieden. Programmabstürze zum Beispiel, besonders bei Internetnutzung. Dies weist auf die Benutzerprofile hin.

    Mit den Telefonen (VoIP) gab es auch Störungen (Störgeräusche, zu leise, Abbrüche, Schaltungsfehler – teils wurden Verbindungen reproduzierbar nicht hergestellt). Es kommen DECT- sowie kabelgebundene Geräte zum Einsatz.

    Das Netzwerk scheint auch Störungsbilder beizutragen. Die verschiedenen Störungsbilder überlagern sich teilweise auch. Die Ausdifferenzierung war daher schwierig.

    Die bestehenden Server sind zu laut (und zu viele). Trotz separatem Serverraum. Der Eingangsbereich sowie ein Arbeitsplatz sind akustisch verseucht. Ich sitze gerade mit Abstand Eingangsbereich, einem Büro und dann der Raum, in dem ich ganz am anderen Ende sitze, zusammen 19 Meter entfernt, und kann die Biester klar und deutlich hören. Allerdings ist es gerade außerhalb der Bürozeit, also sehr leise Umgebung – während der Bürozeit muss ich an diesem Platz hinhören, um die Server wahrzunehmen. Im Eingangsbereich und dem ersten Büroraum hingegen sind die Server deutlich wahrnehmbar, schwer zu überhören.

    Die Temperaturen der Server waren deutlich zu hoch. Die 4 Server plus der Telefonserver mit einigen Kleingeräten produzieren so viel Abwärme, dass die Tür zum Serverraum offen bleiben muss. Um einen gewissen physikalischen Schutz zu gewährleisten, wurde ein Serverschrank eingesetzt. In dem staut sich aber gleichsam die Abwärme. Außerdem sind die eingebauten Komponenten schwer zugänglich.

    Für keinen der Server bestand noch Hardwareverfügbarkeit. Es gab ursprünglich die klassischen 24/7 Austauschverträge, aber jeweils nur für drei Jahre, die selbst beim neuesten Server lange schon vorbei sind. Also alte Hardware, die über den gesamten Betriebszeitraum auch noch zu heiß betrieben wurde. Nicht unerwartet sind dann hier auch 3 Festplatten in kurzer Zeit ausgefallen. Fiele aber mehr als nur Festplatten aus, entstünde die Situation, dass man sich erst mal Gedanken über Ersatzbeschaffung machen müsste und dabei feststellen würde, dass passende Ersatzhardware teilweise gar nicht oder nur mit langen Lieferzeiten beschaffbar wäre.

    Datensicherungen (Windows Serversicherung) dauerten viel zu lange und waren daher auch störanfällig. Im weiteren gingen damit deutliche Ressourcennutzungen einher.


    3) Erste Maßnahmen

    Die erste Maßnahme bestand natürlich darin, die Situation zu analysieren und ein Konzept auszuarbeiten. In diesem definierten Rahmen fanden dann folgende Maßnahmen bereits statt:

    Vor und hinter den Serverschrank je einen großen Ventilator postiert (push-pull). Temperaturen damit wieder im grünen Bereich.

    Systembereinigung (Frühjahrsputz). Servergespeicherte Benutzerprofile abgeschaltet, da diese in einer RDS-Umgebung meist überflüssig bis kontraproduktiv sind. Ordnerumleitung per Gruppenrichtlinie für Benutzerordner aktiviert, was bei servergespeicherten Benutzerprofilen sehr vorteilhaft ist aber viel zu oft nicht gemacht wird. Aber auch ohne servergespeicherte Benutzerprofile immer noch die Administration und Störungsbeseitigung vereinfacht und ein klarer gegliedertes System ergibt. Die Benutzerprofile erneuert (bzw. der Registryteil derselben, der Rest ist ja umgeleitet ins jeweilige Basisverzeichnis). Die Konfiguration der linuxbasierten ThinClients erneuert. Nicht (mehr) benötigte Software deinstalliert. Benötigte Software teils neu installiert, teils bereinigt. Einzelne Bestandteile der dateibasierten Einstellungen in den Benutzerprofilen (AppData) erneuert. Alle Updates geprüft und im Zweifel neu installiert. Zündkerzen poliert, Scheiben wischen, fertig ;-)

    Das System läuft seit dem weitgehend störungsfrei und unnötige Systemlast ist deaktiviert. Detailarbeit (Konsolidierung) steht noch aus.

    Die Virtualisierung der Server wurde erfolgreich geprobt.

    Zur Datensicherung wurde hier jetzt Acronis (Universal License) eingekauft und vorläufig auf einem der Produktivserver installiert. Bisher wurde und wird die windowseigene Serversicherung verwendet. Dies bleibt wahrscheinlich in der kleinen Firma auch weiterhin, da Acronis dort unverhältnismäßig teuer scheint. Dies muss aber noch mal geprüft werden.

    Obige Änderungen haben die Netzwerklast um 60GB pro Tag reduziert. Festplattenlast um 120GB, jeweils hälftig Schreib- und Leselast, davon 30GB Schreiblast auf SSDs (Intel 320 Series), weshalb deren Lebensdauer (15TBW) so weit beschränkt wurde, dass diese nun ausgetauscht werden müssen.

    Die Software der Telefone wurde aktualisiert. Einige Störungsbilder sind damit verschwunden. Ein Update der Software der Telefonanlage kommt in Kürze. Die bisher bereits realisierte Entlastung des Netzwerkes scheint gleichsam einen positiven Effekt zu haben. Seit dem entstehen Störungen vorrangig noch während der Datensicherungen, was sich bald ja erledigt. Ansonsten nur vereinzelt bei den Funktelefonen und gehäuft an einem einzelnen Arbeitsplatz an einem Funktelefon (DECT), der offenbar funkverseucht ist. Quelle aber nicht identifizierbar. Kreuztest durch Austausch der Endgeräte ohne Erfolg – mit dem anderen Endgerät blieb die Störung bestehen, während das ursprüngliche Endgerät am anderen Platz plötzlich störungsfrei arbeitete. WLAN und alle anderen potentiellen Störquellen deaktiviert – ohne Besserung. Lösung ausstehend.

    Der Sicherungsserver wurde vorgezogen. Hiermit wurde quasi auch wieder Hardwareverfügbarkeit hergestellt - bzw. ein Notfallszenario. Mehr dazu im Kapitel „Der Sicherungsserver“


    4) Konzeptioneller Lösungsansatz

    Grundsätzlich: keep it simple!


    4.i) Allgemeines

    Es gibt zahlreiche sogenannte Best Practice Empfehlungen sowie zahlreiche vermeintlich zwingende Dinge, die man tun soll oder lassen soll.

    Tatsache ist aber, dass es keine allgemeingültigen Empfehlungen gibt. Denn jede Empfehlung steht immer unter dem Vorbehalt, ob sie denn tatsächlich im jeweiligen Szenario Sinn ergibt. Es spielt auch keine Rolle, welcher (möchtegern-) IT-Guru die Empfehlung ausgesprochen hat. Denn im Zweifel wird nicht dieser Guru, sondern der zuständige IT-Betreuer zur Verantwortung gezogen. Der Verweis auf einen IT-Guru hilft dann nicht weiter.

    Das gilt natürlich auch für alle meine Empfehlungen und Ansätze. Und tatsächlich habe ich in anderen Situationen auch schon gegenteilige Lösungsansätze zu Hiesigen praktiziert, wobei hiesiger Rahmen meistens passt.

    Im Weiteren ist es auch nicht Aufgabe der IT, Bedingungen festzulegen. Dies ist Aufgabe der Geschäftsführung, die bei diesen Vorgabenerstellungen natürlich auf das Fachwissen der IT zurückgreift. Und dann ist das die Bibel - und nicht das, was irgendein IT-Guru vorgibt. Es ist dann auch im Weiteren Aufgabe der Geschäftsführung, das entsprechende Budget dafür zur Verfügung zu stellen.

    Die Geschäftsführung muss zum Beispiel definieren, wie lange die Ausfallzeiten welcher Systeme sein dürfen. Ob 24h zum Beispiel tragbar sind oder nicht - sondern binnen 2h wieder verfügbar gemacht werden muss. Auch gilt es zu differenzieren, welche Systeme. So ist es zum Beispiel für Mitarbeiter oft ein schweres Problem, wenn keine eMails mehr versendet oder empfangen werden können. Hingegen ein geringeres Problem, wenn der alte eMailbestand eine Zeit lang nicht verfügbar ist. So wäre also die Mailfunktionalität zum Beispiel binnen einer Stunde, aber der Mailbestand binnen 24h verfügbar zu machen.

    Natürlich ist es auch Aufgabe der IT, die Geschäftsführung proaktiv auf Probleme und Risiken hinzuweisen.

    Im Weiteren gilt: Je weniger Spezialwissen nötig ist, um das System beherrschen zu können, um so besser! Betriebe in hier gegenständlicher Größenordnung können in große Schwierigkeiten kommen, wenn das Konstrukt zu komplex ist und die eingesetzten Technologien zu viel Spezialwissen erfordern. Um so mehr, wenn dieses Spezialwissen schwer zugänglich ist. Reduce to the max!

    Um zu ermitteln, ob eine angedachte Lösung sinnvoll ist, empfehle ich, sich konkrete Szenarien einmal vorzustellen. Zum Beispiel: Was passierte, fiele das Netzteil aus. Was, fiele das Mainboard aus. Was, reichte die CPU-Leistung nicht mehr, etc, etc, etc.


    4.ii) Konkretes

    Die drei Produktivserver sollen in Virtualisierungen umgewandelt und auf einem einzelnen neuen Server betrieben werden. Weniger Hardware = geringere Ausfallwahrscheinlichkeit und Kosten, Aufteilung auf mehrere virtuelle Server = geringere Komplexität des einzelnen Servers = geringere Ausfall- und Störungswahrscheinlichkeit.

    Zum 14.01.2020 stellt Microsoft den Support für Server 2008 R2 ein, also können diese noch maximal 3,5 Jahre weiter laufen. Dann muss auf eine neuere Version migriert werden, da es keine Sicherheitsupdates mehr gibt. Voraussichtlich können dann mit einer Lizenz zwei Server betrieben werden, so dass sich eine Verdichtung auf zwei Virtualisierungen aus Kostengründen abzeichnet. Der Server 2016 R2 dürfte dann für weitere 10 Jahre gut sein. Merke: Lizenzcheck und -Strategie ist wichtig. Die Windows Server 2008 R2 wurden hier in 2012 angeschafft ausgehend von Server 2003, zuvor Server 2000. Das ist dann halt um ein vielfaches teurer - in der Anschaffung sowie der Implementierung.

    Der Aufpreis für ein 2011-3 System, das im Bedarfsfall einen zweiten Prozessor aufnehmen kann, entsteht bei Mainboard und Netzteil und beträgt netto 40,- € gegenüber einem Einsockelsystem. Daher kommt ein Zweisockelsystem mit zunächst nur einem Prozessor zum Einsatz und wir verfügen damit über eine massiv erweiterbare Grundlage, Stichwort Skalierbarkeit. Daraus ergibt sich auch das Potential, den Server sehr lange zu betreiben.

    Supportverträge für Hardwareverfügbarkeit laufen entweder 3 oder 5 Jahre, länger nicht. Für 5 Jahre kostet das dann bei hiesiger Größenordnung an die 1.500,- €. Dafür wird Verfügbarkeit binnen 24h garantiert.

    Dies reicht uns nicht. Wir wollen den Server deutlich länger betreiben, 10 Jahre sind angedacht, gerne mehr. Das ist ökonomischer und ökologischer. 24h Warten im Störungsfall ist ebenso inakzeptabel. Auch führen diese Verträge in kleineren Unternehmen dazu, dass nach Ablauf der Servicezeit die Hardware weiter verwendet wird, da diese noch ausreicht. Lediglich die Verfügbarkeit ist dann nicht mehr gewährleistet, was aber teuer werden kann. Das fällt dann aber erst auf, wenn es zu spät ist. Und das Risiko steigt natürlich mit der Betriebsdauer. Während der Vertragslaufzeit hingegen ist das Risiko sehr gering – also Angebot und Bedarf laufen hier genau gegensätzlich. Das Gleiche gilt für die Verfügbarkeit bzgl. Aufrüstung. Bedenkenswert. Erneuert man aber zum Ende der Vertragslaufzeit, so ist man zeitlich gebunden. Man kann also zum Beispiel keine auf Sweet-Spots angelegte Beschaffungsstrategie fahren.

    Obige 1.500.- € sehen wir daher als Budget, den Server quasi ein zweites Mal anzuschaffen und an nicht kritischer Stelle einzusetzen, hier als „ThinClient“. Dies nenne ich ein produktives Ersatzteillager.

    Damit haben wir Hardwareverfügbarkeit binnen 0h anstatt 24h - ohne zeitliche Begrenzung auf 3 oder 5 Jahre. Garantie haben wir auch, je nach Bauteil zwischen 3 und 10 Jahren. Wir sparen einen ThinClient (300 €). Gleichzeitig haben wir eine Entwicklungs- und Teststation. Auch können wir im Störungsfall austesten, welche Komponente tatsächlich defekt ist. Alternativ kann direkt der Ersatzserver herangezogen werden (Festplattensystem umbauen, fertig). Auch zum Beispiel Bios- und Treiberupdates können besser auf Verträglichkeit geprüft werden. Wir wissen auch, da wir dies validieren, dass die Hardware in beliebiger Kombination kompatibel ist und durch den Betrieb als Client wissen wir auch, dass die Hardware funktioniert. DOA und Inkompatibilität mit Ersatzhardware im Störungsfall ist ausgeschlossen.

    Dies gilt auch, wenn wir irgendwann aufrüsten wollen. Es kann nämlich zum Beispiel sein, dass eine später gekaufte neuere Version der gleichen CPU nicht mit der älteren Revision zusammen läuft, ähnlich wie gleiche RAM-Riegel nicht immer zusammen laufen. Dies ist hier ausgeschlossen, da wir eine passende CPU in der Hinterhand haben. Das produktive Ersatzteillager kann insofern auch im Falle einer Aufrüstung herangezogen werden, so dass die Aufrüstung nichts oder sehr wenig kostet und mit validierten Bauteilen erfolgen kann. Auch bei einem RAID-Array kann es passieren, dass zu dem Zeitpunkt, wo man es erweitern möchte, baugleiche Laufwerke auf dem Markt nicht mehr verfügbar sind. Dann müsste man entweder einen schmutzigen RAID fahren oder alle Laufwerke neu beschaffen.

    Zum Beispiel: Nach 8 Jahren wird es CPU-seitig eng, für die verbleibenden 2 Jahre wird die CPU aus dem produktiven Ersatzteillager in den Produktivserver eingebaut. Findet man noch günstig gebraucht einen alten Server mit der gleichen CPU, nur die CPU oder eine kleine CPU, kann man das auch noch machen, um das produktive Ersatzteillager in Betrieb zu halten. Muss man aber nicht. Es sind ja nur noch 2 Jahre und die CPU bleibt ja redundant. Will man aber den Server noch länger betreiben oder wird die CPU früher eingesetzt, spricht umso mehr für Ersatzbeschaffung.

    So oder so – es gibt in jeder Situation Optionen und die Folgekosten sind stark minimiert. In jeder Situation kann man ganz entspannt und hoch flexibel agieren und den Betrieb wieder zum laufen bringen oder beschleunigen um dann in der Nacharbeit ohne jeden Zeitdruck die weitere Verfahrensweise festzulegen und umzusetzen.

    Die Hardwarebeschaffung kann ebenfalls günstiger erfolgen, da man nicht auf besonderen Service oder Kulanz eines Händlers angewiesen ist. Man kann also sehr gut über Geizhals bei Händlern, die viele positive Bewertungen haben, einkaufen.

    Gleichzeitig kann hier das produktive Ersatzteillager auch noch für die andere kleinere Firma zur Verfügung stehen. So etwas könnte man auch durch Kooperationen mit Geschäftsfreunden oder Gebäudenutzern realisieren. Damit entfällt dort sowie in jedem anderen potentiell eingebundenem Unternehmen gleichsam ein entsprechender Vertrag vollständig und die Vorteile gegenüber einem solchen Vertrag kommen dort größtenteils gleichsam zur Geltung.

    Allerdings wird hier für die kleinere Firma zunächst aus der vorhandenen Hardware beider Unternehmen mit kleinen Ergänzungen, quasi als Resteverwertung, ein neuer Server gebaut bzw. früher oder später deren Virtualisierungen auf hiesigem Server abgelegt und per VPN zugegriffen. Glücklicherweise wurde teils gleiche Hardware in beiden Unternehmen verwendet, so dass hier ebenfalls ein System gebaut werden kann, bei dem alle maßgeblichen Bauteile noch mal als Ersatz vorliegen. Da die Teile über oder gegen 5 Jahre alt sind, wäre ansonsten ein weiterer Betrieb nicht möglich, da die Verfügbarkeit nicht mehr gegeben wäre. So aber können die Teile noch ein paar weitere Jahre eingesetzt werden, bis das Internet eine ausreichend stabile VPN-Verbindung hergibt.

    Zu beachten ist, dass normalerweise das produktive Ersatzteillager nicht als Sicherungsserver für die Daten verwendet werden kann. Denn bei einem Hardwareausfall, bei dem das produktive Ersatzteillager ausgeschlachtet würde, könnte in dieser Situation nicht mehr ohne Weiteres auf die Datensicherung zugegriffen werden. Es bestünde aber genau dann eine erhöhte Wahrscheinlichkeit, dass dies nötig würde. Der Sicherungsserver könnte aber als produktives Ersatzteillager für einen anderen Server dienen, zum Beispiel in einem anderen Unternehmensteil oder hier für die kleine Firma. Bzw. wird er hier früher oder später in den kleinen Betrieb wechseln, die Sicherungen per VPN dorthin geleitet (sind dann gleichzeitig Außerhaussicherungen) und dieser Sicherungsserver so konfiguriert, dass er bei länger anhaltendem Internetausfall die Virtualisierungen der kleinen Firma lokal übernehmen kann und dann temporär als Produktivserver dient.

    Vorläufig werden die beiden Unternehmen zur Außerhaussicherung zukünftig gegeneinander gesichert. VPN zwischen den Unternehmen besteht ja bereits.

    Oben gezeichnete Lösung bräuchte keinen Serverraum mehr sondern könnte auch in eines der kleinen separierten Büros. Dies machte ein zusätzliches Büro frei, entstünde der Bedarf.

    Der Lösungsansatz ergibt im Weiteren eine deutliche Einsparung beim Stromverbrauch. Dies finanziert die neuen Anschaffungen. Absolut gesehen sinkt damit der Stromverbrauch aber derart tief, dass zukünftige potentielle Einsparungen durch höhere Energieeffizienz neuer Technik nicht mehr hoch genug werden können, als dass ein Wechsel wegen Energieeffizienz ökonomisch oder ökologisch Sinn ergäbe. Auch verlangsamt sich nun laut Intel die Weiterentwicklung. Kaufzeitpunkt also Sweet Spot. Broadwell-EP zeigt vor allem im Zusammenhang mit Virtualisierungen deutliche Verbesserungen. Die Leistungssteigerung im Allgemeinen zur Vorgängergeneration erlaubt es auch, eine Leistungsklasse tiefer zu gehen, was nochmals 500,- € spart. Auch hier: Sweet Spot.

    Der Einsatz von Acronis (inkrementelle Sicherung sowie Einstellung der Ressourcennutzung) reduziert die Netzwerklast weiter massiv – bisher gibt es Telefonstörungen, wenn die Sicherungen beginnen. Die Sicherungen dauern auch viel zu lange.

    Mit oben beschriebener Lösungsansatz besteht im Weiteren die Hoffnung, die Kommunikation der Server untereinander aus dem physikalischen Netzwerk herausnehmen zu können. Mit dem zukünftigen Server kann ggf. auch der Internetverkehr aus dem internen Netzwerk separiert werden. In Summe mit den ersten Maßnahmen und hier dargestellten Vorhaben reduzierte sich die Netzwerklast derart, dass eine sonst nötige Erneuerung des Netzwerkes (1.500 €) nicht mehr nötig wäre. Aktuellere Windows Server beinhalten darüber hinaus neue Funktionen, die geeignet sein können, den Netzwerkverkehr softwareseitig weiter zu optimieren.

    Das System soll dann gut dokumentiert werden, um Unabhängigkeit von Personen und Systemhäusern zu befördern. Gut geeignet hierfür ist Microsoft One-Note. Daraus wird dann auch ein Notfallhandbuch gezogen, welches in ausgedruckter Form griffbereit gehalten wird. Die Notfallszenarien werden regelmäßig (möglichst 1x jährlich) getestet.

    Mit oben beschriebenem Konzept könnte man jetzt behaupten, man solle doch dann direkt einen Failovercluster betreiben. Davon rate ich dringend ab. Keep it Simple - und genau das ist ein Failovercluster nicht mehr. Solche Technologien bergen hohe Risiken und man benötigt weit mehr Fachwissen. Die drohenden Probleme können selbst für einen bestens ausgebildeten und erfahrenen Admin zu einem Alptraum werden. Es gibt vor allem ein viel komplexeres Gebilde in dem viel mehr Abhängigkeiten zu beachten sind. Dafür ist ein solches Unternehmen zu klein - und der Nutzen zu fraglich.

    Bezogen auf beide Unternehmen und inkl. Telefonserver, so werden die derzeit betriebenen 7 Server auf einen Produktivserver, einen Sicherungsserver (eigentlich ein NAS) und ein produktives Ersatzteillager (der ja eigentlich nur ein Client ist) reduziert. Damit einher geht eine deutliche Absenkung der Lizenzkosten von mehreren tausend Euro jährlich. Keep it simple!
    Geändert von slsHyde (08.02.2018 um 00:14 Uhr)

  2. Anzeige
    Logge dich ein, um diese Anzeige nicht zu sehen.
  3. #2
    Lt. Commander
    Ersteller dieses Themas

    Dabei seit
    Dez 2014
    Beiträge
    1.874

    AW: [Projekt, Worklog, HowTo] Server in Eigenregie

    5) Einkaufslisten

    Zu den Problemen beim Eigenbauserver im Vergleich zu fertigen Servern gehört natürlich, dass es sich in der Regel um Prototypen handelt. Daher ist sorgfältige Konfiguration natürlich entsprechend wichtig. Hilfreich ist auch, frühzeitig mit der Planung anzufangen und eine erstellte Konfiguration noch reifen zu lassen und weiter zu entwickeln. Hierzu eignen sich die Wunschlisten bei Geizhals sehr gut. Beim weiterem drüber Nachdenken oder auch weiterem Analysieren des Bedarfs sowie konkreter Szenarien ergeben sich noch Änderungen. Auch kann man verschiedene Konfigurationen erstellen, um den Sweet-Spot zu ermitteln.

    Auch sollte man in Kauf nehmen, dass ggf. die ein- oder andere Komponente sich in der Praxis als ungeeignet erweist und gegen eine andere ausgetauscht werden muss, was zusätzliche Kosten bedeutet. So etwas merkt man dann in der Regel beim Zusammenbau, den Tests und der Konfiguration, also rechtzeitig vor dem Produktiveinsatz. Auch hier: reichlich Zeit einzuplanen ist sinnvoll. Intensive Tests vor Inbetriebnahme sind gleichsam wichtig, also zum Beispiel Leistungstests, Burn-In, Temperaturtests, Simulation von Ausfällen, etc. Das lohnt sich aber auch. Hier zum Beispiel ist danach für 10 Jahre Ruhe im Karton. Und die höchste Ausfallwahrscheinlich bei Hardware ist in den ersten Betriebswochen gegeben. Das nimmt man damit vorweg. Die Ausfallwahrscheinlichkeit danach ist sehr niedrig – und steigt erst nach 5 Jahren, bei Festplatten mit einem Zwischenpeak nach 3 Jahren, abhängig auch von Betriebstemperaturen. Konstant gute Temperaturen sind also wichtig – sowie Bauteile, die für die gewünschte Einsatzdauer ausgelegt sind.

    Eigenbauserver sind deutlich preisgünstiger als fertig gekaufte Server (hier wäre der Aufpreis mindestens 50%). Man muss aber die zusätzliche Arbeit und ggf. Lehrgeld ansetzen und Hardwarekosten betragen nur 10% der IT-Kosten. Aber es wird eben auch deutlich, dass für den zusätzlichen Arbeitsaufwand ein Budget zur Verfügung steht bzw. dass hier eine gute Spanne auch für professionelle IT-Betreuer besteht, die normalerweise Fertigserver anbieten und an dieser Position quasi nichts verdienen. Hier könnten sie berechtigt verdienen.

    Allerdings wird mit der Hardware auch viel anderes festgelegt, was starke Auswirkungen auf die Folgekosten hat (Verfügbarkeit, Erweiterbarkeit/Skalierbarkeit, Lizenzbedarf, Stromverbauch, Kühlkosten, Platzbedarf, etc.). Der konzeptionelle Blickwinkel ist also wesentlich entscheidender als die Frage Eigenbau oder nicht.
    Auch ergibt sich daraus, dass man bei der Wahl der Komponenten nicht geizig sein soll. Wichtiger ist, dass es die richtig dimensionierten Komponenten sind. Der Preis ist eher nebensächlich. Hardware sind nur 10% der IT-Kosten und davon ja dann auch wieder nur ein Teil, nämlich die Differenz zu einem billigeren Produkt. Im Weiteren reduziert sich der Preis auch durch steuerliche Relevanz. Wir sind natürlich netto und wir können abschreiben. Sogar im Vorfeld kann man Investitionen in Abzug bringen (Investitionsabzugsbetrag, früher Ansparabschreibungen). Mit 2016 wurden die Rahmenbedingungen hierfür deutlich verbessert.

    Im Weiteren: die Kosten sind durch die angesetzte Laufzeit sowie durch die Mitarbeiter zu teilen. Das zeigt dann auch wieder auf, dass sich Preisunterschiede einzelner Komponenten stark relativieren, auch wenn der Preis absolut betrachtet hoch erscheinen mag. Ist er aber nicht, wenn man es richtig macht. Dann ist es sehr preisgünstig, um nicht zu sagen: billig. Hier kostet zum Beispiel die Serverinfrastruktur inkl. Verfügbarkeit (Produktivserver, produktives Ersatzteillager, Sicherungsserver) pro Jahr und Mitarbeiter 35 €. Nähmen wir eine vergleichbare Leistung als Fertigserver mit 5-Jahresvertrag komme ich pro Jahr und Mitarbeiter auf über 100 €. Ökologisch ergibt sich ein vergleichbares Verhältnis. Hier steckt für Unternehmen sowie deren professionelle IT-Betreuer und die Umwelt Musik drin.

    Aber: auch Überdimensionierung ist nicht hilfreich. Mit einer Materialschlacht eine falsche Konzeption oder Konfiguration ausgleichen zu wollen ist kontraproduktiv.


    5.i) Der Produktivserver (2.350,- € netto)

    2 x Samsung SSD SM863 120GB
    Im RAID1 Onboard. Für den Hyper-V Host. Es sind von diesen Laufwerken an anderer Stelle im Unternehmen weitere 3 Stück an nicht kritischer Stelle eingesetzt. 2x in je einem Client und 1x im Sicherungsserver. Diese sind auch als quasi- oder produktive Hot-Spares zu verstehen.
    4 x Samsung SSD SM863 240GB
    Im RAID5 an Hardwarecontroller, montiert mit unten stehenden Adaptern in zwei 3,5“-Laufwerksschächten ganz unten. Für die Virtualisierungen. Von diesen Laufwerken werden insgesamt 2 weitere an nicht kritischer Stelle eingesetzt. 1x als externes Laufwerk und 1x im produktiven Ersatzteillager. Diese sind auch als quasi- oder produktive Hot-Spares zu verstehen.
    Bei der Auswahl von Laufwerken, besonders bei SSDs, ist darauf zu achten, dass diese auch für die anstehende Schreiblast ausgelegt sind (TBW = TB written). Modelle für den privaten Gebrauch sind für den Servereinsatz meist nicht ausreichend belastbar - aber auch bei SSDs für Server gibt es massive Unterschiede. Bei diesem Modell hier kein Thema - da können wir uns anstrengen wie wir wollen, die maximale Schreiblast von 1540 TB (pro SSD) werden wir in den angedachten 10 Jahren nicht erreichen können. Wichtig ist dies umso mehr in einem RAID-Verbund, da die Laufwerke quasi identisch belastet werden. Es drohte mithin ein sehr zeitnaher Ausfall aller Laufwerke, wäre dies nicht berücksichtigt.
    Für komplexe Crossloads ist auch auf niedrige Timings als Eigenschaft der SSD zu achten - was hier ebenfalls mit Bestwerten gelöst ist. Für den Betrieb in einem RAID-Verbund muss bedacht werden, dass ein solcher RAID immer die Summe der schlechtesten Eigenschaften der eingebundenen Laufwerke bildet. Daher ist Leistungskonsistenz (quasi niedrige Produktionstolleranzen) ein weiteres relevantes Kriterium.

    2 x Corsair 3.5" Dual SSD Adapter, 2.5" Einbaurahmen
    Achtung: es gibt kaum Einbaurahmen mit Bohrungen im Boden, die sich für Festplatteneinschübe wie in hiesigem Gehäuse eignen.
    2 x SATA-Kabel rot 0.5m mit Arretierung, gerade/gerade
    Zum Lieferumfang des Mainboards gehören zwar ausreichend SATA-Kabel, allerdings sind diese schwarz. Ich bevorzuge aus Gründen der Übersichtlichkeit etwas mehr Farbe, da es sonst schwer werden kann, im Notfall die richtigen Strippen zu identifizieren. Außerdem sollte man diversen Kleinkram im Bestand haben.
    SATA-Kabel mit Arretierung sind kritisch zu sehen. Je nachdem wie dicht die Mainboardanschlüsse liegen, passen keine zwei nebeneinander und außerdem kann man oft die Arretierung nicht lösen, ohne andere SATA-Kabel zuvor zu entfernen. Daher entweder welche ohne Arretierung nehmen oder alle mainboardseitigen Arretierungen abbrechen. Das geht problemlos.

    2 x LSI mini SAS HD x4 (SFF-8643) auf 4x SATA, 0.6m
    1 x Intel Xeon E5-2620 v4, 8x 2.10GHz
    Das Lizenzmodell für Server 2016 (wir spekulieren auf 2016 R2) sieht vor, dass die Basislizenz 2x8 Kerne beinhaltet. Darüber würden weitere Lizenzgebühren fällig. Im Endausbau schöpften wir also die Lizenz voll aus, ohne Fälligkeit weiterer Lizenzgebühren.
    1 x Kingston ValueRAM 4x16GB, DDR4-2133, reg ECC
    Windows Server 2008 R2 kann nur 32GB RAM. Also wären obige 64GB Unfug. Es muss aber später auf einen höheren Server (2016 R2) aufgerüstet werden. Der kann 64GB bzw. mehr. ValueRAM Riegel wie hier haben den Nachteil, dass spätere Editionen nicht mehr die gleichen Chips enthalten und daher eventuell nicht zusammenarbeiten würden. Höherwertige qualifizierte Riegel, bei denen das nicht zu befürchten wäre, kosten aber das Doppelte. Also kann ich auch direkt die 64GB kaufen und habe Geld gespart. Mehr als 64GB RAM wird nämlich hier nicht nötig werden. Selbst wenn die Aufrüstung auf 64GB ausbleiben sollte, habe ich Ersatzriegel ohne Aufpreis.
    Außerdem: Den Hyper-V-Server stellt Microsoft auch kostenlos zur Verfügung – als Core-Installation. Da kann man sich dann die jeweils aktuellste Version nehmen, hier also 2012 R2. Und da gehen dann u.a. auch direkt die 64GB. Alternativ könnte man auch Windows 10 Professional als Host-System nehmen, das beinhaltet auch den Hyper-V-Server und hat im Gegensatz zum kostenlosen Hyper-V-Server eine GUI. Die Core-Installation, also ohne grafische Benutzeroberfläche, ist insofern für ein Unternehmen wie hier wiederum schwer beherrschbar, was schwerer wiegen dürfte als die Vorteile der Core-Installation (Ressourcenschonender, weniger Angriffsfläche, weniger Störquellen)
    Es ist darauf zu achten, dass entweder vom Mainboardhersteller oder vom RAM-Hersteller der Arbeitsspeicher für das Board validiert ist.
    Natürlich ECC-RAM, da mit Speichermenge sowie Laufzeit ohne Neustart das Risiko von Bitfehler steigt.

    1 x LSI MegaRAID SAS 9361-8i, PCIe 3.0 x8
    1 x Noctua NF-A6x25 FLX 60mm
    Zur Montage direkt auf den Kühlkörper des RAID-Controllers.
    1 x InLine Staubschutz für USB A Buchse, 50 Stück
    1 x InLine Frontpanel Staubschutz-Set
    Mit unten gelisteten USB-Konvertern werden alle internen USB-Ports des Mainboards belegt. Es bleiben also keine für die Anbindung der Frontports des Gehäuses, was nicht weiter schlimm ist. Aber daher möchte ich diese mit den Buchsen "verschließen", um Irritationen vorzubeugen. Gleiches gilt für die Audio-Ports.
    1 x ASUS Z10PA-D8
    In einer Umgebung wie hier lohnt es sich, darauf zu achten, dass das Board von der Ausstattung "etwas weniger Server" ist. Ein Server in großen Unternehmen ist sehr spezialisiert und daher oft spartanisch ausgestattet. Ein Server in kleinen Unternehmen muss eher eine Eierlegendewollmilchsau sein. Also möglichst z.B. PCIe-X16 Slot, PS/2, viele PCIe-Slots, vernünftige Kühlkörper, hohe Kompatibilität, gute Lüftersteuerung, die mehr bietet als die Wahl zwischen drei Versionen von Laut. Es sollte von der Ausstattung eher in Richtung Workstationboard gehen oder gar eines sein.
    1 x Pioneer DVR-221BK schwarz
    1 x extern/intern USB 2.0-Konverter
    1 x extern/intern USB 3.0-Konverter
    Um USB-Dongles ins Gehäuse zu verlegen (Schutz vor Beschädigung). Wobei sich noch erweisen muss, ob das für alle Systeme geht, wir haben drei Dongles und es ist nicht dokumentiert, ob ich die Dinger wirklich in die Virtualisierungen durchgeschliffen bekomme. Alternative wäre dann USB über LAN, das ist dokumentiert.
    2 x Noctua NF-A14 PWM 140mm
    Vorne einblasend bei 7V.
    Noctuas besonderes Merkmal ist Qualität in jeder Hinsicht. Mithin genau das, was hier passt.

    1 x Noctua NF-A9 PWM 92mm
    Wird bei 7V außen am Gehäuse hinter die PCIe-Slotblenden aussaugend betrieben, um den RAID-Controller optimal zu kühlen.
    1 x Lüftergitter/Schutzgitter für Lüfter 92mm
    Damit von außen niemand in obigen Lüfter greift.
    1 x Arctic MX-2, 8g
    Hält besonders lange. Dennoch: alle paar Jahre mal austauschen. Wenn Sich die CPU-Temperaturen mit der Zeit verschlechtern, liegt das oft an ausgetrockneter Wärmeleitpaste.
    1 x Noctua NH-U9DX i4
    Wird so montiert, dass die Lüfter von unten nach oben blasen. Da die semi-passiven Kühleigenschaften nicht ausreichend sind, ist es hier wichtig, dass der Kühler über 2 Lüfter verfügt (Kühlungsredundanz). Betrieb mit 7V. Beim CPU-Kühler ist darauf zu achten, dass dieser die Arbeitsspeicherriegel möglichst wenig blockiert. Im Notfall wäre es nämlich ärgerlich, müsste man zum Wechsel von Arbeitsspeicher oder bei Aufrüstung erst den CPU-Kühler demontieren.
    1 x Fractal Design Define R5 Black mit Sichtfenster
    Mit Sichtfenster wegen Sichtinspektion (Transparenz in der IT). Alle vorhandenen Gehäuselüfter werden ausgebaut und durch obige ersetzt. Fronttür wird entfernt. Mindestens ein Teil der PCIe-Blenden wird entfernt. Obiger Laufwerkskäfig wird entfernt. Modulare Gehäusedeckel werden entfernt. Möglichst offenes Konstrukt als Bestandteil der Kühlungsredundanz, gleichzeitig staubfrei wegen Überdruck.
    1 x BitFenix Alchemy 2.0 Magnetic 12cm, 6 LED weiß
    Zur Erleichterung von Sichtinspektion und diversen Arbeiten wie zum Beispiel Festplattentausch.
    1 x Seasonic Platinum Series 660W ATX 2.3
    Mit Lüfteröffnung nach oben verbaut. Hybrid-Modus aus – das sorgt für optimale Temperaturen und unterstützt eine lange Lebensdauer. Im hier betriebenen Lastbereich hingegen arbeitete das Netzteil auch ohne Lüfter, so dass ein Lüfterausfall kein Problem wäre. Da das Netzteil vollmodular ist, kann es sehr schnell getauscht werden, ohne die sorgsam verlegten Kabel aufdröseln zu müssen.
    Was Noctua bei Lüftern und Kühlern ist Seasonic bei Netzteilen. Qualität in jeder Hinsicht.



    5.ii) Das produktive Ersatzteillager (1.100,- netto abzgl. 300€ wegen Nutzung als Client)

    Dies wird meine zukünftige Arbeitsstation :-)

    Einzig der RAID-Controller wird nicht als Ersatzteil beschafft. Der ist recht teuer und im Notfall kann man einen RAID5 auch über das Mainboard betreiben.

    2 x Western Digital WD Red 1TB,
    Resteverwertung
    4 x Intel SSD 320 120GB
    Resteverwertung. Sind bereits im derzeitigen Terminalserver vorhanden. Für den Produktiveinsatz wegen falscher Systemkonfiguration (servergespeicherte Benutzerprofile, auch noch ohne Ordnerumleitung) zu ausgelutscht. Die dürfen sich hier mit zusätzlichem Overprovisioning zur Lebensverlängerung und Performancesteigerung als Scratch-Disks für die Entwicklungs- und Testumgebung ihr Gnadenbrot verdienen.
    1 x Samsung SSD SM863 240GB
    1 x SATA Kabel rot 0.7m mit Arretierung, gerade/gerade
    1 x SATA-Kabel rot 0.5m mit Arretierung, gerade/gerade
    1 x Intel Xeon E5-2620 v4, 8x 2.10GHz
    1 x ASUS GT720-SL-2GD3-BRK
    1 x ASUS Z10PA-D8
    1 x ASUS DRW-24F1MT schwarz
    1 x Noctua NH-U9DX i4
    1 x Fractal Design Define R5 Black
    Hier ohne Sichtfenster. Das Gehäuse kommt auch im Sicherungssever zum Einsatz (siehe unten), so dass das Gehäuse dreimal vorhanden ist. Wegen der modularen Festplattenkäfige ist das hier sehr sinnvoll, da es ja auch möglich ist, 16 Festplatteneinschübe (2 Käfigtürme nebeneinander) á 3,5“ umzusetzen. Diese können für 2,5“-Laufwerke und zusätzlichen Einbaurahmen mit je zwei SSDs bestückt werden, was also 32 Laufwerke wären. Dies wird so natürlich nicht passieren, aber: definitiv genug Platz für Erweiterungen. Die durchgängig modulare Konstruktion dieses Gehäuses erlaubt es auch darüber hinaus, jeden der drei Rechner optimal zum Beispiel bzgl. der Luftzirkulation individuell zu gestalten und im Bedarfsfall zu verändern.
    2 x Corsair 3.5" Dual SSD Adapter, 2.5" Einbaurahmen
    1 x Seasonic Platinum Series 660W ATX 2.3


    5.iii) Der Sicherungsserver (630,- € netto)

    Die Idee zur Veröffentlichung entstand erst nach Bau des Sicherungsservers. Daher gibt es hier keinen Worklog. Der Sicherungsserver wurde mittels Acronis auf die neue Hardware portiert, eine Neuinstallation daher nicht nötig.

    Die Anschaffung des Sicherungsservers wurde vorgezogen. Es besteht nämlich längst keine Hardwareverfügbarkeit für die derzeitigen Produktivserver. Sollte es also bis zum Einsatz des neuen Produktivservers zu einem Ausfall eines der drei Bestehenden kommen, kann hier sofort ersatzweise der betreffende Server als Virtualisierung betrieben werden.

    Außerdem stand der Sicherungsserver bisher zusammen mit den Produktivservern in einem Raum. Daher war kein Schutz vor Wasser, Feuer oder Einbruchdiebstahl gegeben. Da fertig gekaufte Server nun mal zu laut sind, kam ein Umzug in einen anderen Raum nicht in Frage. Tatsächlich aber liegen hier Idealvoraussetzungen vor, da im Laufe der Entwicklung zwei Bürotrakte zusammengelegt wurden. Zwischen diesen Trakten gibt es eine sehr massive Feuerschutztür, die außerhalb der Betriebszeiten immer abgeschlossen ist. Der neue Sicherungsserver liegt jetzt natürlich in dem anderen Bürotrakt hinter der massiven Tür mit sehr viel räumlichen Abstand und bietet damit in hohem Maße Schutz vor Wasser, Feuer und Einbruchdiebstahl.

    Der Sicherungsserver soll auch zur Sicherung der kleineren Firma dienen, so dass dort interne Festplatten zur lokalen Sicherung ausreichen. Hier bestünde auch die Möglichkeit, später in der kleinen Firma einen Server auf Basis dieses Sicherungsservers aufzubauen, da der Sicherungsserver ja dann die Hardwareverfügbarkeit stellte.

    Der Sicherungsserver kann potentiell auch noch zusätzlich als ThinClient genutzt werden. Bei späterer Migration auf ein neues Serverbetriebssystem wird hier natürlich kein Serverbetriebssystem mehr aufgesetzt sondern einfach ein Windows Professional herangezogen.

    Testweise und als Vorbereitung für den kommenden Umzug der Produktivserver wurde der Sicherungsserver um die Rolle als Hyper-V-Server erweitert und die bestehenden Produktivserver dort als Virtualisierungen erfolgreich getestet. Die eingangs beschriebenen ersten Maßnahmen konnten dann dort auch teils zuerst ausprobiert werden, bevor ich das jeweils an den Produktivservern umgesetzt habe.

    3 x Western Digital WD Red 3TB, 3.5", SATA 6Gb/s
    Zwei davon waren bereits vorhanden (Resteverwertung, sind daher auch in obiger Preisangabe nicht enthalten).
    1 x Samsung SSD SM863 120GB
    1 x Intel Xeon E3-1225 v5, später Intel Pentium G4400
    Derzeit überdimensioniert, es sei denn, uns fällt jetzt noch einer der alten Server aus. Dreht sich aber zu einem späteren Zeitpunkt raus, da er dann gegen den bereits vorhandenen Pentium getauscht wird. Obige Summe beruht auf dem Pentium, da das letztlich der tatsächliche Preis sein wird.
    1 x Fujitsu D3417-B
    Sehr cooles Board. Hervorragend auch für kleinere Produktivserver oder für Workstations. Sehr günstig obendrein. Allerdings sehr RAM-zickig - unbedingt die QVL beachten.
    Beim Mainboard achte ich speziell in kritischen Einsatzszenarien auf PS/2 Ports. Wenn USB nicht funktioniert, hat man eine Alternative, den Rechner zu bedienen. Hat sich auch hier bereits bewährt. Windows 7 (alias Windows Server 2008 R2) kann nämlich von Haus aus kein USB 3.0. Der hier verwendete aktuelle Intel-Chipsatz hat zwar USB 2.0-Ports, diese werden aber gleichsam vom USB 3.0-Controller bereitgestellt - und damit bei der Installation nicht erkannt. Den Treiber kann man aber auch nicht installieren - mit Maus und Tastatur, die über USB angeschlossen werden. Kein Ding: USB auf PS/2 Adapter und los geht's - wenn man PS/2 am Mainboard hat. Es reicht auch ein einzelner Port, da man mit der Maus zum Beispiel die Bildschirmtastatur bedienen kann.

    1 x Samsung DIMM 8GB, DDR4-2133, CL15-15-15, ECC

    Spoiler!

    1 x Samsung SH-224DB schwarz
    Der aufmerksame Leser hat festgestellt, dass in allen drei Rechnern unterschiedliche ODDs eingesetzt werden. Damit ist schergestellt, dass quasi jede CD gelesen werden kann, unabhängig von Mängeln in der Firmware eines der Laufwerke.
    3 x be quiet! Silent Wings 2, 140mm
    2x Vorne einblasend, 1x hinten aussaugend, jeweils bei 7v.
    1 x Thermalright HR-02 Macho Zero
    Der Rechner wird zunächst semi-passiv, also ohne CPU-Lüfter, aufgebaut. Wenn das wunschgemäß funktioniert, kommt ein Lüfter dazu. Das ergibt eine ideale Kühlungsredundanz.
    1 x Fractal Design Define R5 Black
    Alle Gehäuselüfter sowie oberer Festplattenkäfig entfernt.
    1 x be quiet! Straight Power 10 400W
    Mit Lüfteröffnung nach oben verbaut. Im Nachhinein ärgere ich mich doch etwas, nicht ein Seasonic 400W Platinum genommen zu haben. Aber letztlich nicht schlimm: es ist kein Produktivserver und es wird sich schon noch eine günstige Gelegenheit zum Tausch finden.


    6.) Umzugsszenario

    Die drei bestehenden Server sollen als Virtualisierung umgewandelt und auf einem Hardwareserver betrieben werden.

    Grundsätzlich empfiehlt sich bei einem solchen Umzug, die bestehenden Hardwareserver möglichst nicht per Umwandlung der bestehenden Installationen in eine Virtualisierung umzuziehen sondern die virtuellen Server direkt neu zu installieren. Der Umzug per Umwandlung wird viel praktiziert und funktioniert in den meisten Fällen zwar gut, man verpasst aber ein Chance, mit einer sauberen Installation weiter zu arbeiten und auch, die Installation besser auf die Virtualisierung anzupassen.

    Aus praktischen Gründen werde ich hier wahrscheinlich aber dennoch den Weg gehen, zumindest zunächst einfach umzuwandeln und nachdem dies erfolgreich abgeschlossen und alles umgestellt ist, ggf. auf rein virtueller Grundlage die Systeme neu aufzusetzen, sofern noch Bedarf besteht. Immerhin sind die Systeme gründlich gewartet worden. Den Vorteil hier sehe ich darin, dass der Wechsel sich einfacher gestaltet. Da ich bereits testweise die bestehenden Installationen problemlos in Virtualisierungen umwandeln und betreiben konnte, weiß ich, dass dies funktioniert. Ist das System erst einmal virtualisiert, lässt sich leichter auf eine neue Installation umstellen oder aber, was hier nicht unwahrscheinlich ist, es bleibt dabei, wenn die Betriebspraxis keine Veranlassung mehr gibt.

    Nachtrag: die Systeme brauchen nicht neu installiert zu werden, da sie mittlerweile sehr schön rund laufen.

    Beim Umzug selber ist peinlich genau darauf zu achten, dass niemals alter und neuer Domänencontroller gleichzeitig aktiv sind!
    Geändert von slsHyde (02.10.2016 um 01:25 Uhr)

  4. #3
    Lt. Commander
    Ersteller dieses Themas

    Dabei seit
    Dez 2014
    Beiträge
    1.874

    AW: [Projekt, Worklog, HowTo] Server in Eigenregie

    7.) Ressourcenzuteilung

    Virtualisierungen erlauben eine sehr hohe bzw. dichte Ressourcenausschöpfung, was hier nur begrenzt umgesetzt werden kann, da "zu wenig" Server virtualisiert werden. In komplexeren Szenarien geht das natürlich noch besser.

    Im Wesentlichen lebt diese Verdichtung davon, dass die Summe der den einzelnen Virtualisierungen zugewiesenen Ressourcen die Summe der tatsächlichen physikalischen Ressourcen übersteigt - um ein vielfaches.


    7.i ) CPU

    Bei der Aufteilung der CPU-Ressourcen sind Überzeichnungen im Verhältnis 1:4 oder 1:8 gängig und werden auch von Microsoft unterstützt. Dies bedeutet:

    Wir haben hier zunächst physikalisch einen 8 Kerner. Mit Hyperthreading (HT), also insgesamt 16 logische Prozessoren. Bei einem Verhältnis von 1:4 wären das also 4x16=64 virtuelle Prozessoren (vCPU), die man dann auf die einzelnen Virtualisierungen verteilt.

    Es gilt aber gleichsam, dass man einer einzelnen Virtualisierung nicht mehr Ressourcen zuweisen sollte, als diese benötigt. Als Maßstab hierfür kann man durchaus die Überlegung heranziehen, wie viele Kerne man nähme, wollte man den Server physikalisch betreiben.

    Dies liegt zum Beispiel daran, dass der Hyper-V-Server eine Zuweisung für einen Taktzyklus immer nur dann vornehmen kann, wenn die entsprechende Anzahl an Kernen gleichzeitig frei ist. Weise ich also einem Server 4 vCPUs zu, muss der warten, bis gleichzeitig 4 logischen Prozessoren frei sind. Weise ich 8 vCPUs zu, kann es also eher zu Verzögerungen kommen, da es länger dauert, bis ein passender Zyklus frei ist und gleichzeitig werden für andere Virtualisierungen Zyklen blockiert.

    Hier haben wir Server1 als Domänen- und Exchangeserver. Diesem würde ich physikalisch maximal einen i3 zuweisen, also 4 vCPUs (es würden aber auch 2-3 reichen). Für den Server2, Terminalserver, würde ich hier maximal einen 4Kerner mit HT sehen, also 8 vCPUs (es würden auch 6 reichen). Den Server3, Datenbankserver, über den auch die Bilderkennung läuft, würde ich maximal mögliche Ressourcen zuweisen, hier also alle 16 vCPUs. Es bleiben 4vCPUs für den Host, was reichlich ist, und man käme zusammen auf 32 vCPUs, also ein Verhältnis von 1:2, was sehr moderat ist. Außerdem käme jeder Server spätestens mit jedem zweiten Zyklus zum Zuge: Host, Server1 sowie Server2 passen zusammen in einen Zyklus. Alternativ könnte man auch 2 vCPUs für Server 1 und 14 vCPUs für Server3 nehmen, das könnte die Verfügbarkeit von Zyklen verbessern und noch stärker verhindern, dass die Bilderkennung andere Prozesse blockiert. Man muss dann sehen, wie das in der Realität skaliert.

    Es kann unter Vollauslastung bei einem SQL-Server dazu kommen, dass dessen Performance massiv einbricht, da bei der Zuweisung ggf. ausschließlich logische Prozessoren, also HT-Kerne, zugewiesen werden, deren Leistung natürlich dann sehr gering wäre. Je aktueller das System, desto geringer diese Wahrscheinlichkeit, da mit neueren Systemen die Zuweisung dieses Problem stärker berücksichtigt wird. Ist man hiervon betroffen, kann man zunächst über ein anderes Zuweisungschema der vCPUs versuchen, dies zu bessern – oder eben HT abschalten. Dass man evtl. HT abschalten muss, sollte in der Dimensionierung der Hardware Berücksichtigung finden.

    Nachtrag: tatsächliche Einstellungen aus dem Produktivbetrieb:


    Klicke auf die Grafik für eine größere Ansicht 

Name:	cpuDomainserver.JPG 
Hits:	532 
Größe:	37,4 KB 
ID:	580872 Klicke auf die Grafik für eine größere Ansicht 

Name:	cpuDatenbankserver.JPG 
Hits:	390 
Größe:	37,8 KB 
ID:	580873 Klicke auf die Grafik für eine größere Ansicht 

Name:	cpuRemotedesktopserver.JPG 
Hits:	364 
Größe:	37,7 KB 
ID:	580874


    7.ii) Arbeitsspeicher

    Der Hyper-V-Server erlaubt es, Arbeitsspeicher dynamisch zuzuweisen. Man legt also eine Mindestmenge fest, mit der dieser Server startet, und weist eine maximale Größe zu, die dieser Server sich dann bei Bedarf ziehen kann.

    Die Summer der Mindestmengen darf natürlich den tatsächlich vorhandenen Speicher nicht überschreiten, da sonst nicht alle Server starten können, weil ihnen kein Arbeitsspeicher mehr bleibt. Allerdings verteilen sich dann die freien Arbeitsspeicherressourcen im Betrieb dynamisch bedarfsgerecht, wobei auch hier das Problem entstehen kann, dass bei Neustart eines virtuellen Servers dieser plötzlich keinen ausreichenden Arbeitsspeicher mehr hat und ebenfalls wieder nicht starten kann. Insofern also nicht übertreiben.

    Eine Ausnahme bildet hierbei der Exchangeserver. Der ist nicht in de Lage, eine dynamische Speichererweiterung zu veranlassen. Hier muss also die Mindestzuweisung den Bedarf des Exchangeservers fix beinhalten. Dies tritt auch in geringerem Maße für den SQL-Server zu, wobei der SQL-Server Express ja sowieso im Arbeitsspeicher limitiert ist. Da sowohl der Exchange- als auch der SQL-Server aber auch immer noch andere Prozesse betreibt, mach eine zusätzliche dynamische Zuweisung Sinn, da diese Prozesse sich im Bedarfsfall dann sehr wohl zusätzlichen Arbeitsspeicher ziehen können.

    In hiesigem Fallbeispiel gibt es da mit 64GB RAM kein Thema. Server1 (Domäne+Exchange) belegt derzeit 6 von 8 GB RAM. Server2 (Datenbank) belegt 8 von 20GB und Server3 (Terminal) 8 von 16GB, zusammen also 22GB von 44GB. Da wir in Zukunft 64GB RAM haben, brauche ich gar nicht zu überzeichnen. Server1 bekommt wahrscheinlich min 8GB und max 12GB, Server2 bekommt min 16GB und max 24GB, Server3 dito. Da bleibt dann genug für den Host (sollten 2-4GB sein) und noch Platz für ggf. andere Sachen.

    Nachtrag: tatsächliche Einstellungen aus dem Produktivbetrieb:

    Klicke auf die Grafik für eine größere Ansicht 

Name:	Domainserver.JPG 
Hits:	369 
Größe:	62,9 KB 
ID:	580866 Klicke auf die Grafik für eine größere Ansicht 

Name:	Datenbankserver.JPG 
Hits:	286 
Größe:	57,9 KB 
ID:	580867 Klicke auf die Grafik für eine größere Ansicht 

Name:	Remotedesktopserver.JPG 
Hits:	265 
Größe:	59,2 KB 
ID:	580868


    7.iii) Festplattensystem

    Virtualisierungen werden im Normalfall auch auf virtuellen Datenträgern betrieben. Dabei handelt es sich letztendlich um Dateien. Die Größe der virtuellen Datenträger kann fix oder dynamisch eingestellt werden. Dynamisch bedeutet, dass man eine Größe angibt. Dies ist aber nur die Maximalgröße. Die Datei selber ist nur so groß, wie deren Inhalt und vergrößert sich mit der zunehmenden Belegung. Allerdings verkleinert sich die Größe nicht, wenn man zum Beispiel etwas löscht.

    Hiermit geht ein Performanceverlust von 1-2% einher, was letztlich schwerlich eine Rolle spielt. Spielte es eine Rolle, wäre eine Virtualisierung sowieso eher nicht der geeignete Ansatz.

    Damit kann man letztlich also das Festplattensystem mit mehr virtuellem Festplattenplatz belegen, als physikalisch vorhanden ist. Natürlich muss man sein System im Auge behalten (Monitoring).

    Die einzelnen Virtualisierungen kann man natürlich jeweils auch mit mehreren virtuellen Festplatten ausstatten. Diese werden dann wie bei einem physikalischem Rechner als Laufwerke mit Laufwerksbuchstaben eingebunden.

    Es empfiehlt sich, einen einzelnen virtuellen Rechner derart zu gestalten, dass man im Ergebnis die virtuellen Festplatten danach belegt, wie schnell die Daten jeweils sein müssen. Also zum Beispiel eine vDisc für das System und eine für Daten. Oder auch zwei für Daten, nämlich zum Beispiel eine für Daten wie Office-Dokumente und eine für Datenbankdaten oder andere Daten, auf die ein schneller Zugriff nötig ist. Dann kann man nämlich die einzelnen virtuellen Laufwerke auf die jeweils für diesen Zweck passenden physikalischen Festplattensysteme legen.

    Dies empfiehlt sich auch dann zumindest zu überlegen, wenn zunächst kein Bedarf dafür vorzuliegen scheint. Wie zum Beispiel hier, da sowieso alles auf einem RAID5 aus SSDs kommt. Im Laufe des weiteren Betriebes kann sich dies nämlich ändern. Dann kann man das System um entsprechend geeignete physikalische Festplattensysteme ergänzen und die jeweils dazu passenden virtuellen Festplatten einfach dahin verschieben, wo sie am besten hinpassen.


    7.iv) Sonderfall virtualisierte Domänencontroller

    Bei der Virtualisierung eines Domänencontroller muss man beachten, dass Windows standardmäßig den Domänencontroller als Zeitgeber für andere Domänenmitglieder nutzt, der sich dann wieder gegen den Host synchronisiert. Aus Verwaltungsgründen empfiehlt es sich aber, auch den Host zum Domänenmitglied zu machen. Dieser würde sich als solches wieder gegen den Domänencontroller synchronisieren. Das kann zum einen zu falschen Zeiten im System und im Weiteren auch zu einer Endlosschleife beim Starten des Hosts führen. Also muss die Grundeinstellung beim Host geändert und dieser gegen eine andere Zeitquelle synchronisiert werden.

    Wird mit mehreren Domänenservern gearbeitet, zum Beispiel einem Failovercluster, ergeben sich weitere Problemstellungen, die hier aber außen vor bleiben. Kurz aber: es empfiehlt sich dann, einen der Domänenserver physikalisch zu betreiben sowie das AD, sofern ansonsten eine imagebasierte Sicherung genutzt wird, separat mit anderen Mitteln zu sichern. Snapshots von Virtualisierungen sowie sämtliche anderen vergleichbaren Techniken beinhalten dann gleichsam hohe Risiken, mit denen man sich auseinandersetzen muss. Stichworte: USN-Rollback und split-brain.


    7.v) Stromspareinstellungen

    Leider wird viel zu häufig empfohlen, Stromsparmechanismen im Bios und Betriebssystem zu deaktivieren. So auch zum Beispiel von den Herstellern der hier betriebenen Datenbanksysteme.

    Ich halte das für kontraproduktiv. Denen geht es lediglich um ihre eigenen Interessen und eine Entlastung ihres Supportes. Auch hat sich die Technik massiv weiterentwickelt - solche Ratschläge sind einfach nur alte Zöpfe, die abgeschnitten gehören.

    Eine bessere Empfehlung sehe ich darin, zunächst einmal alle zu aktivieren. Zeigen sich im Betrieb dann Performanceeinbußen, kann man die Einstellungen testweise deaktivieren. Sollte sich keine Besserung zeigen, dann bitte wieder aktivieren und sich auf die Suche nach anderen Gründen für die Performanceeinbußen begeben.

    Nachtrag: Im Produktivbetrieb hier sind alle Stromspareinstellungen aktiv und es ist zu keiner Zeit spürbar. Alles läuft rund und flüssig, soweit dies hardwareabhängig ist.

    8) Worklogs, Burn-Ins und Tests


    8.i) Der Sicherungsserver

    Klicke auf die Grafik für eine größere Ansicht 

Name:	BS links.jpg 
Hits:	1014 
Größe:	232,9 KB 
ID:	560130

    Lüftersteuerung: 7V fix (so im Produktiveinsatz vorgesehen)
    Stressprogramm: Prime95 (maximum heat)
    Umgebungstemperatur: leider unbekannt, gut beheiztes Büro, Thermostat auf 20°C

    Lüfteranordnung

    Netzteillüfter: 135mm, ca. 195rpm
    Lüfter vorne: 2x140mm
    Lüfter hinten: 1x140mm
    CPU-Lüfter: keiner (semi-passiv)

    Lüftersteuerung (Gehäuse)


    5V: ca. 450 rpm
    7V: ca. 580 rpm (Standard im Produktivbetrieb)
    12V: ca. 950 rpm

    Anmerkungen

    Das Stressprogramm ist synthetisch. Es belastet den Rechner deutlich stärker, als selbst die leistungshungrigste Anwendungssoftware dies könnte.

    In allen Tests wurde der Turbo voll und dauerhaft ausgeschöpft.

    Da Hardwaremonitor das Board nicht erkennt, wurde mit einer Software gemessen, die zum Lieferumfang des Mainboards gehört.

    Akustik: Abends gegen 20:00, alle anderen Geräte, auch Drucker und Licht, ausgeschaltet. Fenster und Türen geschlossen. Rechner mit einer Festplatte auf dem Tisch, Sitzabstand ca. 50 cm: nicht wahrnehmbar. Ohr direkt am Rechnergehäuse: minimale Geräusche, eher ganz leichte Vibrationen, wahrnehmbar. Vorgesehene Einsatzposition: unter dem Schreibtisch. Einbau aller drei Festplatten: auf dem Tisch wie oben beschrieben wahrnehmbar. Unter dem Tisch nicht wahrnehmbar. Auf dem Boden, nicht aber unter dem Tisch: manchmal wahrnehmbar – abhängig von der Güte des Gehörs, Umgebungsgeräuschen und der Festplattenaktivität (tagsüber: Sleep, Sicherungen laufen nachts).

    Ergebnisse nach ca. 22 Stunden:

    PECI: 52°C
    Graphics: 27°C
    Ambient: 25°C
    Core: 64°C
    Memory: 27°C
    PCH: 31°C

    Weitere Tests:

    Nachfolgende Tests liefen jeweils für ca. 30 Minuten bei weiter laufendem Prime95 maximum heat. Die Ergebnisse werden, bis auf die letzten beiden, jeweils als Abweichung von obigen Werten angegeben.

    Lüfterausfall vorne unten Lüfterausfall vorne oben Lüfterausfall vorne beide Lüfterausfall hinten (*) Lüfter auf 12V Lüfter auf 5V nach 10 Minuten IDLE bei 7V während Virenscan 40% CPU-Last
    PECI: +1°C +0°C +2°C +34°C -4°C +7°C 25°C 25°C
    Graphics: +2°C +1°C +3°C +3°C -0°C +2°C 26°C 26°C
    Ambient: +0°C +0°C +0°C +2°C -0°C +1°C 25°C 24°C
    Core: +2°C +1°C +3°C +17°C -2°C +5°C 32°C 32°C
    Memory: +1°C +1°C +2°C +5°C -0°C +3°C 26°C 25°C
    PCH: +2°C +1°C +2°C +5°C -0°C +0°C 30°C 35°C

    (*): Abbruch Lüfterausfall hinten nach ca. 15 Minuten. Tendenz war langsam weiter ansteigend. Allerdings wurde der Turbo noch weiter voll ausgeschöpft, was zeigt, dass noch alles in Ordnung war und die CPU voll innerhalb guter Spezifikationen lief. Ich wollte lediglich die Hardware nicht unnötig stressen. Unter normaler, also nicht synthetischer Volllast sehe ich auch hier kein Problem, zumal hier später ein Pentium rein kommt. Man kann natürlich gleichsam noch einen Lüfter auf dem CPU-Kühler montieren - es wären sogar welche übrig (Gehäusezubehör). Mach ich dieser Tage noch - dann habe ich maximale Kühlungsredundanz.

    Temperaturen im Produktivbetrieb beim IDLEn tatsächlich noch etwas niedriger (1° bis 3°C), selten steht eine 3 am Anfang. Muss also hier noch etwas aufgeheizt gewesen sein. Vielleicht war die Umgebungstemperatur nach 25h Prime95 maximum heat noch erwärmt oder generell der jetzige Aufstellungsort etwas kühler (Mikroklima), vielleicht auch dadurch, dass der Rechner jetzt auf dem Boden und nicht auf dem Tisch steht.

    Bisher keine Auffälligkeiten im Produktivbetrieb.


    8.ii) Der Produktivserver


    erster Testaufbau

    Klicke auf die Grafik für eine größere Ansicht 

Name:	linke Seite.jpg 
Hits:	1156 
Größe:	464,3 KB 
ID:	556275 Klicke auf die Grafik für eine größere Ansicht 

Name:	rechte Seite.jpg 
Hits:	888 
Größe:	562,9 KB 
ID:	556276

    Wie man auf den beiden obigen Bildern sieht, ist das Ganze recht übersichtlich. Man hat Platz zum Arbeiten. Die Kühlung ist schnell erfasst - die viel kritisierte Farbe der Noctua-Lüfter macht hier Sinn. Die Kabelverlegung kommt komplett ohne Kabelbinder aus. Es finden nur die zum Gehäuse und dem Netzteil gehörenden Klettverschlüsse Verwendung. Dadurch lässt sich leicht etwas ändern. Dies Kabel lassen sich gut differenzieren. Der Aufbau ist insgesamt gut nachvollziehbar und sollte auch für Dritte beherrschbar sein.

    Die beiden kleinen SSDs auf der Rückseite (rote Kabel) bilden einen RAID1 am Mainboard. Die 4 größeren SSDs in den Frontschächten (blaue Kabel) bilden einen RAID5 am Hardware-RAID-Controller. Unter Windows 10 wurden beide bei der Installation sofort erkannt.

    Aktuell ist ein Windows 10 Professional als erste Testgrundlage installiert. Bis auf Nachfolgendes läuft alles wunschgemäß - daher erst mal Konzentration auf alles, was zu lösen ist:

    1) Controller-Temperaturen
    Der RAID-Controller ist mir noch viel zu heiß.
    Lüfter auf 50%: 79°C
    Lüfter auf 70%: 74°C (und zu laut)
    Also habe ich einen Noctua NF-A6x25 FLX 60mm bestellt mit der Absicht, diesen direkt auf dem Kühlkörper des Controllers zu montieren: 12,00€.
    Ergebnis: Temperaturen runter auf 46°C. Na Immerhin. Die Kühlkörper sind halt echt Mist. Ich probier noch aus, ob ich den Lüfter weiter aufdrehen kann, ohne das er hörbar wird. Den Lüfter ergänze ich in obiger Einkaufsliste.

    2.) SSD-Temperaturen
    Die beiden SSDs für das System (rote Kabel) zeigen 34°C. Wenn es im Sommer dann 10° wärmer ist, wären 44°C zu erwarten. Das ist suboptimal - vor allem bei der angedachten Betriebsdauer. Insofern werde ich die beiden SSDs wohl auch nach vorne legen.
    Ergebnis: auch nicht viel besser, es werden 32°C gemessen. Die anderen Festplatten werden vom RAID-Controller mit 29°C angegeben, was dann auch hier eher realistisch wäre. Aber so oder so, der Unterschied ist nicht allzu groß, dürfte letztlich nicht viel ausmachen. Da sie jetzt aber vorne drin und etwas kühler sind, bleibt es so.

    3.) interner USB 2.0
    Leider kämen sich eingesteckte Dongles mit dem RAID-Controller in die Quere. Also habe ich ersatzweise einen anderen DeLOCK extern/intern USB 2.0-Konverter bestellt, bei dem die USB-Ports nicht gewinkelt abgehen: 7,00 €.
    Ergebnis: passt jetzt - Einkaufsliste entsprechend geändert.

    4.) QPI-Fehler
    Weder im Bios noch unter Windows wird die zweite CPU mit ihren 32GB RAM erkannt. Das Mainboard meldet als Fehlercode AA, was ein QPI-Fehler ist (über QPI kommunizieren die beiden Prozessoren miteinander). Es leuchtet insofern auch die LED des Mainboards auf, die einen schwerwiegenden Fehler signalisiert. Die beiden LEDs, die laut Handbuch aufleuchten würden, wäre eine der CPUs defekt, leuchten beide nicht auf. Zuvor hängt es gelegentlich auch bei Statuscode B7 - AA kommt erst, nachdem das Betriebssystem gestartet ist.

    Da ich sowieso noch bestimmte Tests und Arbeiten vor mir habe, stört das den weiteren Ablauf erst mal kaum. Außerdem ist das insofern nicht unwillkommen, als dass dies eine Übung für spätere Störfälle darstellt. Das Bios werde ich hierbei auch kennen lernen. Es ergeben sich ggf. Hinweise, ob man etwas servicefreundlicher gestalten kann. Stress gibt es auch nicht - wir haben massig Zeit, das alte System läuft ja. Konzeptionell bedingt ist definitiv auch alles da, was benötigt wird.

    Es folgen also Kreuztests im Rahmen der weiteren Arbeit:

    a) Netzteiltausch
    Unwahrscheinliche Ursache, aber den will ich zumindest sowieso einmal geprobt haben. Da das Netzteil vollmodular ist, sollte das in wenigen Minuten erledigt sein. Anschließen wird noch das Stromkabel der CPU2 getauscht - das gibt Aufschluss, wie servicefreundlich die Kabel verlegt sind.
    Ergebnis: Wie erwartet keine Besserung. Aber Erfahrung: Netzteil- und Kabeltausch geht richtig schnell und einfach. Sehr servicefreundlich.

    b) CPU- und RAMtausch
    Die nicht erkannte CPU2 wird auf Sockel1 montiert und in die passenden RAM-Steckplätze kommt der gesamte Arbeitsspeicher von 64GB. Danach sollte erst mal klar sein, ob die zweite CPU überhaupt funktioniert und ob der RAM auch komplett funktioniert bzw. erkannt wird.
    Ergebnis: CPU2 funktioniert in Sockel1 mit den kompletten 64GB RAM. Allerdings nicht auf Anhieb, ein Reset war nötig (Fehler B7: RAM-Initialisierung). Aber dann lief es.
    Ich hab dann die andere CPU auch wieder eingebaut und den RAM umgesteckt - weiter QPI-Fehler. Auch nachdem ich nochmal die Bios-Defaults geladen habe. Gleichsam mit nur einem RAM-Riegel pro CPU. Also weiter mit Schritt C.
    Weitere Erfahrungen: Dank der sehr guten Sockel der Noctua-Kühler gestaltet sich auch ein CPU-Tausch sehr einfach. Auch ansonsten angenehmes Arbeiten. Zwei RAM-Plätze werden von den CPU-Lüftern blockiert. Da diese aber leicht demontiert werden können, geht das in Ordnung. Nicht ideal - aber die Kühlleistung trumpft hier.


    c) Mainboardtausch
    In der Form, dass das produktive Ersatzteillager gebaut wird und da dann testweise beide CPUs eingebaut werden.
    Ergebnis: Der RAM wird nicht erkannt, Fehlercode B7 (RAM-Initialisierung). Kein Bild.
    Letzter Test: die CPUs noch mal gegeneinander getauscht: siehe da - Fehlerbild jetzt genau umgekehrt, das produktive Ersatzteillager startet und der Produktivserver nicht mehr - mit Code B7.
    Damit haben wir wohl einen klaren Sieger: CPU2 hat einen weg, vielleicht der Speichercontroller. Dann mal Retour ...
    Weitere Erfahrung: Im produktiven Ersatzteillager habe ich den CPU-Kühler quer verbaut, also mit Blasrichtung der Lüfter nach hinten. Mit dieser Orientierung bleiben alle RAM-Bänke frei. Bei Gelegenheit mal testen, ob dies mit zwei verbauten CPUs dazu führte, dass die Zweite wärmer - bzw. wie viel wärmer sie - würde.
    Das Konzept hat hier direkt am Anfang auch bereits einige seiner Stärken ausgespielt. Durch das produktive Ersatzteillager ist das an Material vorhanden, was für Kreuztests zur Identifizierung von Fehlerursachen benötigt wird. Und: der Produktivserver soll ja sowieso erst mal mit nur einer CPU sowie 64GB RAM an den Start gehen. Insofern kann ich damit weitermachen. Der Hardwareausfall hat keinen Einfluss auf die Produktivität.



    Aufbau für den Produktiveinsatz

    Klicke auf die Grafik für eine größere Ansicht 

Name:	produktiv.jpg 
Hits:	906 
Größe:	145,5 KB 
ID:	560132

    In den Produktiveinsatz soll der Server ja erst mal mit nur einer CPU sowie 64GB RAM. Auf dem RAID5 befinden sich dann testweise auch aktuelle Virtualisierungen der derzeit noch physikalisch betriebenen Server. Auf dieser Grundlage finden die nachfolgenden Tests statt. Bilder folgen noch.

    Lüftereinstellungen:

    CPU: 2*55% (~ 1130 rpm)
    Front: 2*55% (~ 870 rpm)
    Controller: 85% (~ 2750 rpm)
    Rear: 55% (~ 1200 rpm)

    Während des Bürobetriebes unter dem Tisch stehend war der Rechner so nicht hörbar. Später soll er auf dem Tisch im Serverraum stehen und kann ruhig leicht hörbar sein. Das Feintuning wird dann erst vorgenommen.

    Einzig CoreTemp hat die CPU-Sensoren auslesen können. Hiervon wird jeweils der heißeste Kern genommen. Außentemperatur war laut (günstigem) Thermometer, welches im Lufteingang hing, schwankend zwischen 22 und 24°C. Prime95 maximum heat lief zunächst einmal für ca. 22 Stunden, dann bei weiter laufendem Prime nacheinander die Lüfter abgezogen und jeweils ca. 10 Minuten gewartet und gemessen. Dann 15 Minuten IDLE und dann der Virenscan auf allen drei Virtualisierungen gleichzeitig (also Maximallast, Minimallast und mittlere Last).

    Temperaturen

    Klicke auf die Grafik für eine größere Ansicht 

Name:	CPU-Z.JPG 
Hits:	461 
Größe:	57,1 KB 
ID:	557545 Klicke auf die Grafik für eine größere Ansicht 

Name:	CPU-Z IDLE.JPG 
Hits:	379 
Größe:	58,4 KB 
ID:	557543 Klicke auf die Grafik für eine größere Ansicht 

Name:	Virenscan CPU-Z.JPG 
Hits:	383 
Größe:	56,3 KB 
ID:	557554

    PRIME 95 IDLE Virenscan
    auf den 3 VMs
    CPU 48°C 24°C 33°C
    Controller 48°C 46°C 47°C
    SSDs RAID1 32°C 32°C 32°C
    SSDs RAID5 34°C 32°C 33°C

    Lüfterausfälle

    PRIME 95 CPU-Lüfter vorne unten vorne oben vorne beide hinten
    CPU 48°C +6°C +2°C +2°C +2°C -1°C
    Controller 48°C +0°C +1°C +0°C +3°C +0°C
    SSDs RAID1 32°C +0°C +2°C +0°C +3°C +0°C
    SSDs RAID5 34°C +0°C +6°C +0°C +6°C +0°C

    Nachtrag: Im Produktivbetrieb an den heißesten Tagen in 2016 lagen die Temperaturen der CPU während normalem Tagesbetrieb zwischen 33 und 36°C.

    Derzeit ist das Gehäuse oben offen. Wenn man das lieber zu haben möchte, zum Beispiel weil kein extra Raum für den Server zur Verfügung steht, sollte man hinten ausblasend einen weiteren Noctua nehmen und auf ca. 40% einstellen. Kann sein, dass ich das noch mache.

    Die Werte sind soweit hübsch stabil. Nicht getestet habe ich hier den Lüfterausfall des Controllers - aber darüber lagen ja schon Werte vor. Das geht dann Richtung 80°C beim Controller. Die sind zwar gebaut für den Betrieb mit hohen Temperaturen - aber dabei wird standardmäßig in den Dimensionen von 5 Jahren gedacht. Hier schaffte einzig ein besserer Kühlkörper Abhilfe. Das behalte ich mal im Hinterkopf, vielleicht findet sich was. Dass die Dinger flach sein sollen, ist ja verständlich. Aber ein bisschen mehr Fläche wäre wünschenswert. Aber unter 50°C ist wahrscheinlich dann bereits eines der kühlsten im Einsatz befindlichen Exemplare.

    Spoiler!


    Klicke auf die Grafik für eine größere Ansicht 

Name:	Cinebench.JPG 
Hits:	570 
Größe:	48,2 KB 
ID:	557540 Klicke auf die Grafik für eine größere Ansicht 

Name:	Atto.JPG 
Hits:	479 
Größe:	90,3 KB 
ID:	557541

    Im Bios gibt es noch leistungsteigernde Features, die ich mir noch anschauen werde. Es wird ausdrücklich im Bios auf die Abhängigkeit zu guter Kühlung und stabilem Strom hingewiesen. Na, da hab ich keine Sorge. Mehr Turbo wäre was nettes, mal sehen, was da kommt. Ausprobieren wahrscheinlich aber erst, wenn das produktive Ersatzteillager fertig ist - und dafür warte ich ja noch auf den Ersatz der CPU.

    Festplattenausfälle

    Im Weiteren habe ich Simulationen von Festplatten- bzw. hier SSD-Ausfällen durchgeführt - also ein Laufwerk jeweils entfernen (einfach SATA-Kabel ziehen) und die Reaktionen des Systems überwachen, das Laufwerk wieder hinzufügen und den Rebuild anstoßen/überwachen.

    Hierbei ist es wichtig, dass man die Laufwerke zuordnen kann. Der Controller gibt den Laufwerken jeweils eine Nummer - und man sollte wissen, welches Laufwerk zu dieser Nummer gehört, damit man direkt wüßte, welches Laufwerk auszutauschen wäre. Das Laufwerkskabel für den LSI-Controller unterteilt sich in 4 SATA-Kabel, die bereits ab Werk mit den Nummern 1-4 markiert sind. Im Controller werden die entsprechenden Laufwerke aber von 0 bis 3 durchgezählt. Meldet der Controller also, Laufwerk 3 sei ausgefallen, ist dies die SSD, die an Kabel 4 hängt. Am RAID-Controller des Mainboards habe ich einfach durch try&error die Zuordnung von SSD zu Laufwerksnummer ermittelt und das Kabel entsprechend markiert. Die Laufwerke sind so verbaut, dass jeweils die niedrigere Nummer unten liegt.

    Damit ist alles bestens vorbereitet, um bei einem echten Laufwerksausfall handlungsfähig zu sein. Wer wenig Erfahrung mit so etwas hat, sollte durchaus mehrere Durchläufe des simulierten Festplattenausfalles durchführen und sich Notizen und Screenshots anfertigen.

    Obiger Sreenshot des Festplattenbenchmarkes Atto war mit der Controllereinstellung "Always Write Back", was bedeutet, dass der Cache des Hardwarecontrollers beim Schreiben genutzt wird. Das kann bei einem Systemausfall aber dazu führen, dass Daten zerstört werden, da diese noch nicht vollständig vom Cache auf die SSDs geschrieben wurden (Dateninkonsistenz). Man müsste also auf eine Datensicherung zurückgreifen und die Arbeit seit der letzten Sicherung wiederholen. Dies kann man zum Beispiel mit einer zusätzlichen Batterie (BBU = Battery Backup Unit oder einer ähnlichen Lösung) abfangen, die dafür sorgen würde, dass der Schreibprozess autark abgeschlossen würde. Das ist aber nicht ganz billig und bedeutet Wartungsaufwand.

    Ein Test mit der Einstellung "Write Through", also ohne Nutzung des Caches beim Schreiben, zeigt auf, dass die Leseleistung etwas schneller (wahrscheinlich, da hierfür jetzt mehr Cache zur Verfügung steht), die Schreibleistung aber inkonsistenter und bis zu ca. 30% langsamer ist. Abhängig von der Dateigröße, wobei die stärksten Einbußen bei Dateigrößen liegen, die bei uns eher nicht vorkommen (Bei uns sind wohl eher nur 5 bis 10% Reduzierung vorhanden). Auch reicht die Schreibperformance für uns immer noch völlig aus, ich erwarte keinen spürbaren Unterschied. Datensicherheit und Leseleistung ist hier sehr wichtig, also ist dies die passende Einstellung. Wollte ich mehr Schreibleistung haben, wäre in hiesigen Fall die Ergänzung des RAIDs um eine weitere SSD billiger, schneller und wartungsärmer als eine BBU.

    Diese Konfiguration passt hier auch sehr gut mit den SSDs zusammen. Die haben ebenfalls einen Cache. Hier könnte das gleiche Problem entstehen. Da die hier zum Einsatz kommenden Modelle aber einen solchen "Batterieschutz" in Form von Kondensatoren bereits verbaut haben ("Data loss Protection"), ist das auf dieser Ebene abgefangen. Ein Systemabsturz kann hier schwerlich zu einer Beschädigung von Daten, vor allem Dantenbankdaten, führen. Hätten die SSDs eine solche Funktion nicht, stellte sich die Frage, ob die Abschaltung des Schreibcaches oder eine BBU überhaupt Sinn ergäbe. Oftmals reicht zur Absicherung aber auch bereits eine USV.

    Jedenfalls haben wir lesend 5GB Cache und schreibend immer noch 3GB.

    Schlusslicht:
    Das Fenster im Gehäuse in Kombination mit der LED-Statusanzeige ist wirklich klasse. Mehrere andere LEDs geben weiteren Aufschluss. Hilfreich bei Störungsbeseitigung. Später im Produktivbetrieb werden die entsprechenden Seiten des Handbuchs gut sichtbar platziert - zum Beispiel an die Wand gehangen. Die Sichtinspektion wird gleichsam damit sehr einfach und dennoch sehr aussagekräftig.

    Klicke auf die Grafik für eine größere Ansicht 

Name:	Status.jpg 
Hits:	1238 
Größe:	68,1 KB 
ID:	556248
    Geändert von slsHyde (15.09.2016 um 17:56 Uhr)

  5. #4
    Lt. Commander
    Ersteller dieses Themas

    Dabei seit
    Dez 2014
    Beiträge
    1.874

    AW: [Projekt, Worklog, HowTo] Server in Eigenregie

    8.iii) Das produktive Ersatzteillager

    Das Thema kürze ich an dieser Stelle brutal ab, da bereits weiter oben viel darüber geschrieben wurde. Die zweite CPU war ja DOA, also bereits bei Ankunft defekt, die neu bestellte CPU ebenfalls, erst die Dritte funktionierte. Das war insofern kein Problem, da der Produktivbetrieb nicht aufgehalten wurde. Das produktive Ersatzteillager hat sich hier also direkt am Anfang schon bewährt. Jetzt verrichtet es seinen Dienst als normaler Client.

    9) Die kleine Firma

    9.i) Server

    Der Unternehmer hatte sich umentschlossen und möchte nun einen komplett neuen Server einsetzen. Als Grundlage hierfür dienen größtenteils die Bauteile, die auch im Sicherungsserver der größeren Firma zur Anwendung kommen, so dass hierüber Verfügbarkeit sicher gestellt werden kann. Insofern gibt es da aber nicht viel Neues zu berichten, es kann Bezug genommen werden zu den Ergebnissen weiter oben zum Sicherungsserver.

    Zunächst einmal die Bauteile:

    2 Samsung SSD SM863a 480GB im RAID1
    1 Intel Xeon E3-1245 v5, 4x 3.50GHz
    2 Samsung DIMM 16GB, DDR4-2133, CL15-15-15, ECC
    1 Fujitsu D3417-B
    1 ASUS DRW-24D5MT
    1 DeLOCK extern/intern USB 2.0-Konverter
    1 Nanoxia 3-Pin Lüfter Y-Kabel 60cm, sleeved schwarz
    4 Noctua NF-A14 FLX, 140mm
    1 Thermalright Macho Rev. B
    1 BitFenix Alchemy 2.0 Magnetic 12cm, 6 LED weiß
    1 Fractal Design Define R5 Black, Acrylfenster, schallgedämmt
    2 BitFenix Alchemy 4-Pin Molex auf 3x 3-Pin 7V Adapter 20cm, sleeved schwarz/schwarz
    1 Seasonic Platinum Series Fanless 400W ATX 2.3
    1 InLine Frontpanel Staubschutz-Set

    Erfahrungen:

    Zuvor gab es zwei physikalische Server, die nun beide virtualisiert sind. Im IDLE zieht der Server 16 Watt, gemessen an der Steckdose, also inkl. Verlust des Netzteiles. Im vollen Betrieb (4-5 Mitarbeiter) liegt die Auslastung im Bereich von 10% bis 12%. Dabei zieht der Server um die 20 Watt aus der Steckdose. Hervorragend. Der Onboard-Controller für den RAID1 arbeitet auch sehr gut, insofern er ebenfalls lesend quasi als RAID0 arbeitet, also extrem schnell. Die Performance an den Arbeitsplätzen wurde von den Mitarbeitern als deutlich schneller denn zuvor empfunden, bzw. als perfekt.

    9.ii) Die Clients

    Die Arbeitsplätze werden auch ausgetauscht. In der großen Firma wird sukzessive das Gleiche umgesetzt. Hier zunächst die Geräte pro Arbeitsplatz:

    1x Zotac ZBOX Pico PI335 + Windows 10 (ZBOX-PI335-W3B)
    2x Dell UltraSharp U2415, 24.1" (860-BBEW/210-AEVE)

    Meist werden für Remote-Desktop ThinClients eingesetzt. Dabei hat dieser keine eigene Festplatte. Er zieht sich ein Linux-System über das Netzwerk beim Booten. Dies erfordert serverseitig eine dazu passende Installation. Gleichzeitig hat man ein Linux als Grundlage. Neben dem Nachteil der zusätzlichen Serverinstallation gibt es diverse Schwierigkeiten bei den Clients. So funktionieren an der Maus zum Beispiel die Vor- und Zurücktasten nicht, das Einbinden von Monitoren kann grausam sein und ist gerne ohne spezielles Fachwissen nicht handhabbar. Auch hat man keine Garantie, dass höhere Funktionen wie Remote-FX sauber funktionieren. Das Argument für diesen Mist ist, dass es ja günstiger sei, da man keine Betriebssystemlizenz kaufen müsse.

    Bereits in der Anschaffung sind die ThinClients aber teuer als oben gezeigter Client - bei gleichzeitig schlechterer Ausstattung. Und das Betriebssystem, hier ein Windows 10 Home, ist bereits enthalten. Ein Professional braucht es an dieser Stelle nicht, da der Client ja gar nicht in die Domäne eingebunden werden muss. Er dient ja nur als Konsole, um sich remote anzumelden. Im Weiteren gibt es im Vergleich zu klassischen ThinClients wesentlich weniger Verwaltungsaufwand und kein Bedarf an Spezialwissen. Auch werden weniger Sicherheitslücken erzeugt. Alles funktioniert Plug&Play out of the box, alle Funktionen werden unterstützt. ThinClients sind dagegen absoluter Müll, der extrem teuer werden kann. Bloß nicht machen!
    Geändert von slsHyde (24.12.2017 um 14:29 Uhr)

  6. #5
    Lt. Commander
    Ersteller dieses Themas

    Dabei seit
    Dez 2014
    Beiträge
    1.874

    AW: [Projekt, Worklog, HowTo] Server in Eigenregie

    10. Andere Beispiele in Kürze

    i. ein anderer Doppelserver


    Kleine Büroumgebung mit zwei Arbeitsplätzen, soll auf 5 anwachsen. Bisher kein Serverbetriebsystem und ein Rechner ist nicht dedizierter quasi-Server - er dient also sowohl als Arbeitsplatzrechner und auch als Server. Die Arbeitsplätze müssen flexibel sein und per VPN Remote Desktop genutzt werden können.

    In einem ersten Schritt soll die Serverfunktionalität zumindest per Virtualisierung abgetrennt werden. Später dann vollständig auf einen dedizierten Server mit Serverbestriebssystem und Terminalserver umgestellt werden. Zur Datensicherung soll ein quasi baugleicher Rechner verwendet werden. Dieser dient damit auch gleichzeitig als Ersatzteillager. Im weiteren kommt noch eine Videoüberwachungsanlage für den Gebäudekomplex hinzu. Dies soll ebenfalls über den Sicherungsserver laufen. Angesetzte Laufzeit sind 10 Jahre.

    Einkaufslisten

    Außerhaussicherung:

    1 StarTech USB-B 3.1 Gen2 Enclosure, 3.5", USB-B 3.1
    1 Western Digital WD Gold 2TB, 3.5", 512n, SATA 6Gb/s
    Wegen USB 3.1 braucht es dann keine separate Stromversorgung, so dass also einfach angesteckt und abgezogen werden kann. Notebookformat ist überflüssig, da der Unternehmer im gleichen Gebäudekomplex wohnt. Die 3,5"-Festplatte ist schneller - und das gleiche Modell kommt im Server zum Einsatz, so dass hiermit noch ein Ersatzlaufwerk vorhanden ist.

    Server:

    2 Western Digital WD Gold 2TB, 3.5", 512n, SATA 6Gb/s
    im RAID1
    2 Samsung SSD SM863a (OEM) 240GB, SATA
    im RAID 1
    2 DeLOCK SATA Kabel rot 0.5m, gerade/gerade
    Beim Mainboard sind zwar genug SATA-Kabel vorhanden. Hübscherweise auch in schwarz. Aber die Systemlaufwerke grenze ich gerne optisch ab - mit farbigen Datenkabeln.
    1 LiteOn iHAS124 schwarz, SATA, bulk
    2 Kingston ValueRAM DIMM 8GB, DDR4-2400, CL17-17-17, ECC
    1 ASUS P10S WS
    1 Intel Xeon E3-1245 v6, 4x 3.70GHz, boxed
    1 Thermalright Macho Rev. B
    1 Noctua NF-A15 PWM, 140mm
    Als Ersatz für den Lüfter des CPU-Kühlers. Besonderheit beim Einbau: Damit die Lüfterklammern den Lüfter vernünftig halten, müssen die Antivibrationspads, die beim CPU-Kühler dabei sind, doppelt genommen werden (es sind genug im Lieferumfang).
    3 Noctua NF-S12A PWM, 120mm
    vorne einblasend, gesteuert über den LüfterHub des Gehäuses
    2 Diverse SATA-Stromadapter 4-Pin (IDE) auf 15-Pin (SATA)
    Die Verkabelung lässt sich hier sauberer lösen, wenn man DVD-Laufwerk und LüfterHub über einen der IDE-Stränge des Netzteiles und dann je einen solchen Adapter versorgt. Achtung: Grundsätzlich nie zu schlechte/billige Kabel nehmen und leistungshungrige Komponenten möglichst nicht mit Adaptern ansteuern.
    1 BitFenix Alchemy 2.0 Magnetic 12cm, 6 LED weiß
    Zur Vereinfachung von Serviceaufgaben.
    1 Fractal Design Define R6 Black, schallgedämmt (FD-CA-DEF-R6-BK)
    Diesmal ohne Sichtfenster, da der Rechner nicht in einem separaten Raum steht und lieber unauffällig sein soll.
    1 Seasonic Platinum Series Fanless 400W ATX 2.3 (SS-400FL2)
    1 Noctua NF-A12x15 PWM, 120mm
    Passives Netzteil - mit aufgeschnalltem Noctua-Lüfter zur Unterstützung der Langlebigkeit.

    Sicherungsserver:


    2 Western Digital WD Red 3TB, 3.5", SATA 6Gb/s
    für die Datensicherung (bereits vorhanden)
    1 Western Digital WD Purple 4TB, SATA 6Gb/s
    für die Videoünberwachung
    1 Samsung SSD SM863a (OEM) 240GB, SATA
    1 DeLOCK SATA Kabel rot 0.5m, gerade/gerade
    1 LG Electronics GH24NSD1 schwarz, SATA, bulk
    2 Kingston ValueRAM DIMM 8GB, DDR4-2400, CL17-17-17, ECC
    Die Baugleichen Riegel wie im Server können ggf. auch zur Aufrüstung des Servers herangezogen werden. Ob die in Vollbestückung laufen, wird natürlich validiert. Später gekaufte Rigel könnten ggf. mit den im Server verbauten nicht zusammenlaufen. Dieses Risiko ist damit ausgeschlossen.
    1 ASUS P10S WS
    1 Intel Xeon E3-1225 v6, 4x 3.30GHz, boxed
    1 Thermalright Macho Rev. B
    1 Noctua NF-A15 PWM, 140mm
    3 Noctua NF-S12A PWM, 120mm
    2 Diverse SATA-Stromadapter 4-Pin (IDE) auf 15-Pin (SATA)
    1 BitFenix Alchemy 2.0 Magnetic 12cm, 6 LED weiß
    1 Fractal Design Define R6 Black, schallgedämmt
    1 Seasonic Platinum Series Fanless 400W ATX 2.3
    1 Noctua NF-A12x15 PWM, 120mm

    Under Construction. Nur erste Bilder.

    Klicke auf die Grafik für eine größere Ansicht 

Name:	links.jpg 
Hits:	75 
Größe:	52,6 KB 
ID:	665685 Klicke auf die Grafik für eine größere Ansicht 

Name:	vorne.jpg 
Hits:	58 
Größe:	42,8 KB 
ID:	665687 Klicke auf die Grafik für eine größere Ansicht 

Name:	rechts.jpg 
Hits:	63 
Größe:	52,8 KB 
ID:	665686

    up and running
    Klicke auf die Grafik für eine größere Ansicht 

Name:	Läuft.jpg 
Hits:	42 
Größe:	583,7 KB 
ID:	666142

    20h Stresstest / Burn in
    Klicke auf die Grafik für eine größere Ansicht 

Name:	Stresstest.jpg 
Hits:	31 
Größe:	889,8 KB 
ID:	666232

    Disc Benchmarks
    Klicke auf die Grafik für eine größere Ansicht 

Name:	Disc Benchmarks.jpg 
Hits:	37 
Größe:	794,5 KB 
ID:	666347

    PcMark 8
    Klicke auf die Grafik für eine größere Ansicht 

Name:	PCMark 8.jpg 
Hits:	34 
Größe:	730,7 KB 
ID:	666348

    PcMark 10
    Klicke auf die Grafik für eine größere Ansicht 

Name:	PCMark 10.jpg 
Hits:	19 
Größe:	718,7 KB 
ID:	666508

    23h MEMtest mit allen 4 Arbeitsspeicherriegeln
    Klicke auf die Grafik für eine größere Ansicht 

Name:	MEMtest.jpg 
Hits:	27 
Größe:	907,0 KB 
ID:	666507

    und zur IT gehört auch Dokumentation :-)
    Klicke auf die Grafik für eine größere Ansicht 

Name:	Dokumentation.JPG 
Hits:	42 
Größe:	174,6 KB 
ID:	666644

    Praxiserfahrung:

    Auch hier hat sich das Prinzip des produktiven Ersatzteillagers bewährt. Eine der HDDs hat sich mit zunehmender Häufigkeit aus dem RAID verabschiedet. Ersatz war ja da (die Festplatte für die Außerhaussicherung), die Festplatte wurde getauscht, seit dem keine Störung mehr. Damit ist auch die Störungsursache für den Umtausch der Festplatte eindeutig geklärt.
    Geändert von slsHyde (09.04.2018 um 14:57 Uhr)

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
Forum-Layout: Feste Breite / Flexible Breite