Leserartikel [Projekt, Worklog, HowTo] Server in Eigenregie

slsHyde

Commander
Registriert
Dez. 2014
Beiträge
2.232
Inhaltsverzeichnis

1. Prolog

2. Ausgangslage

3. erste Maßnahmen

4. Konzeptioneller Lösungsansatz
i. Allgemeines
ii. Konkretes​

5. Einkaufslisten
i. Der Produktivserver
ii. Das produktive Ersatzteillager
iii. Der Sicherungsserver​

6. Umzugsszenario

7. Ressourcenzuteilung
i. CPU
ii. Arbeitsspeicher
iii. Festplattensystem
iv. Sonderfall virtualisierter Domänencontroller
v. Energiesparfunktionen​

8. Worklogs, Burn-Ins und Tests
i. Der Sicherungsserver
ii. Der Produktivserver
iii. Das Produktive Ersatzteillager

9. Die kleine Firma
i. Der Server
ii. Die Clients​

10. Andere Beispiele in Kürze
i. ein anderer Doppelserver - under Construction

1) Prolog

aktueller Status des Projektes:

Live 20161111.jpg

Live3 20161111.jpg

Live2 20161111.jpg

Live4 20161111.jpg

Der Sicherungsserver läuft von Anfang an völlig störungsfrei.

Der Produktivserver hat seinen Dienst am 28.05.2015 zunächst völlig problemlos aufgenommen. Dann gab es einen Absturz. Ein Blick in das Ereignisprotokolls hat gezeigt, dass es sich um ein Biosthema handelte (im Zusammenhang mit dem neuen Energiemanagement der CPU). Es gab keinen Datenverlust (Einstellungen haben sich also bewährt). Ausfallzeit wenige Minuten. Und es gibt bereits längst ein neues Bios. Also auch hier kein großes Thema.

Eine der beiden Server-CPUs war defekt und wurde eingetauscht. Die Ersatz-CPU war ebenfalls defekt und musste erneut eingetauscht werden. Die Dritte ist jetzt eingetroffen und funktioniert, das produktive Ersatzteillager kann jetzt in Betrieb gehen. Dennoch: keine Auswirkung auf den Produktivbetrieb :-). Mit der Standardlösung (24h vor Ort Austauschservice) sind genau solche Szenarien unangenehm - bei hiesigem Konzept recht belanglos.

Nach einer ausstehenden Änderung durch die Telekom soll auch der Telefonserver auf hier gegenständlichen Server virtualisiert werden. Dann ist die Serverlandschaft von 4 Servern auf einen Server geschrumpft. Zusätzlichist angedacht, den zweiten kleineren Betrieb per VPN einzubinden - also die 2 dortigen Server zu virtualisieren und einfach auf hiesigen Server zu legen. Daraus ergeben sich auch bzgl. der benötigten Lizenzen, vor allem für die diversen Datenbanksysteme, deutliche Einsparungen - und noch mal zwei Server weniger. Wir werden das 1 Woche im Realbetrieb testen - reicht die Internetverbindung nicht, geht das wieder zurück und wird irgendwann in Zukunft umgesetzt.


Achtung Nerd-Porn:

Nerd-Porn.jpg

rechte Seite.jpg

linke Seite.jpg

Fenster.jpg

vorne.jpg

Der Thread wird unvollständig begonnen und parallel zum Fortschritt weiter entwickelt. Enthalten ist bisher die Ausgangslage, die Planung sowie der bereits umgesetzte Teil der Planung. Im Weiteren folgt dann der Rest der Umsetzung. Die noch fehlenden Teile sind im Inhaltsverzeichnis grau dargestellt. Fotos und Screenshots werden gleichsam noch nachgelegt.

In Summe stehen hier 6 Server in 2 Unternehmen zum Wechsel an.

Das Thema Sever im Eigenbau vs. fertige Server ist strittig. Die Entscheidung ist hier zugunsten des Eigenbaus gefallen. Fertigserver werden hier derzeit verwendet und sollen im Rahmen einer nötigen Erneuerung durch Eigenbauserver ersetzt werden. Dieses Thema ist damit abgehandelt und off-Topic (siehe hierzu 4.i). Das Konzept kann auch mit fertig gekauften Servern umgesetzt werden, fände man welche, die geeignet sind. Das scheitert aber schnell zum Beispiel an der Lautstärke und Erweiterbarkeit.

Die hier vorliegende Situation ist klassisch und eignet sich daher sehr gut als Fallstudie.

Es soll anhand eines Praxisbeispiels veranschaulicht werden, wie man selber oder in Kooperation mit einem Systemhaus vorgehen kann und wie diverse Problemstellungen abgedeckt werden können. Ich denke, auch Systemhäuser können hier Ansätze für ihre kleinen und mittleren Kunden entnehmen. Das Konzept wurde bereits in anderen Zusammenhängen und verschiedenen Variationen erfolgreich praktiziert.

Konstruktive Kritik, Beiträge und Fragen hierzu sind willkommen. Für Fragen und Unterstützungen zu eigenen Projekten hingegen bitte im passenden Fachforum einen eigenen Thread eröffnen und ggf. mich per PN darauf aufmerksam machen.

Einkaufslisten, Worklogs sowie Burn-ins begleitet von diversen Tests soll auch enthalten sein. Ggf. wird dies auch weitergeführt, um hier Erfahrungen, sofern diese hardware- oder konzeptbezogen sind, verfügbar zu machen, quasi als Langzeitstudie.


2) Ausgangslage

Es handelt sich um ein Unternehmen mit 11 Arbeitsplätzen, wobei ich die Nummer 11 bin. Es liegt damit bei zwei internen Personen IT-Erfahrung vor. Zusätzliche Begleitung durch 2 externe Systemhäuser ist gegeben. Im Hintergrund gibt es ein zweites Unternehmen, welches einem der Gesellschafter (dem mit IT-Kenntnissen) alleine gehört und 4+1 Arbeitsplätze beinhaltet.

Die Arbeitsplätze sind klassische vielseitige Office-Umgebungen im Servicebereich mit datenbankbasierten System wie Warenwirtschaft, Produktionsplanungssystem, Abrechnungssystemen sowie Buchhaltungssystem.

Zustand der IT ist/war bedenklich und überarbeitenswert aber dennoch überdurchschnittlich gut.

Es wird mit Remote Desktops und ThinClients gearbeitet (= RDS oder altsprech Terminalserver). Sehr gut. Idealvoraussetzungen für ortsunabhängiges Arbeiten, insbesondere zusammen mit VPN, sowie sehr geringer Wartungsaufwand, besonders, da die verschiedenen Datenbanksysteme häufige Updates mit sich bringen, die dann nicht mehr auf allen Clients durchgeführt werden müssen.

Ein Expansionskurs besteht nicht. Dieser Bestand aber auch zuvor nicht und es wurden dennoch über die Jahre 11 Arbeitsplätze. Es gibt also eine gewisse Eigendynamik. Potentiell stehen irgendwann neue Auszubildende/Mitarbeiter an, da Gesellschafter und Mitarbeiter älter werden. Das Ergebnis geringer Fluktuation wegen hoher Mitarbeiterzufriedenheit. Es käme dann mindestens temporär zu weiteren Arbeitsplätzen für diverse Jahre. Die Eigendynamik lässt aber vermuten, dass dies nicht zwingend komplett temporär bliebe.

Im Rahmen der Workflows digitalisiert sich die Arbeit immer weiter. Hierbei kommen zum Beispiel beim Wareneingang, der Buchhaltung und in anderen Zusammenhängen mehr und mehr digitalisierte Belege mit Schrifterkennung zum Einsatz. Aus Gründen der Anonymisierung möchte ich dies beispielhaft lediglich an der Buchhaltung genauer erläutern, da Buchhaltung nun mal allgemein ist.

In der Buchhaltung bedeutet dies, dass die Belege als PDF an jedem Buchungssatz angehängt werden. In diesem Zusammenhang werden die Belege auch mit Schrifterkennung durchforstet und interpretiert. Hieraus werden automatisierte Buchungsvorschläge generiert, was die Erfassung vereinfacht. Diese Systematik kann weiter trainiert werden. Das Finanzamt hat angekündigt, dies bis zum Jahr 2020 verbindlich zu machen.

Mit dem Einlesen der Dokumente geht aber eine starke Leistungsbeanspruchung einher – bei CPU und natürlich dem Festplattensystem. Dieser Prozess dauert derzeit mit einem Xeon DP E5504 (4x2GHz ohne HT und Turbo) an Seagate 15.000rpm SAS im RAID1 für einen durchschnittlichen Arbeitsdurchgang ca. 15 Minuten. CPU-Auslastung sinkt dabei schnell auf 50% (alle Kerne gleichmäßig), mehr Arbeitsspeicher wird kaum abgerufen. Das Festplattensystem ist also zu langsam, die Anwendung skaliert mit Kernen. Das Warten auf Abschluss des Einlesevorganges ist teils ungünstig, aber noch kein wirkliches Problem, da bisher nur wenige Vorgänge auf digitale Belegerfassung umgestellt wurden. Dies wird aber weiter zunehmen.

Aus den Angaben lässt sich das Verhältnis von benötigter Laufwerksleistung zu CPU-Leistung ableiten, so dass zukünftig kein Flaschenhals mehr besteht.

Im Weiteren ist zu erkennen, dass die digitale Belegführung Bedarf an Scannern, vor allem aber an zusätzlichen Bildschirmflächen schafft.

Die bisherigen Leistungsanforderungen sind ansonsten sehr gering. Obiger Xeon DP E5504 (Datenbankserver) sowie ein Xeon UP X3470 (Terminalserver) langweilen sich entweder oder zeigen kürzere Lastphasen im Bereich von 30% bis 50%. Der 1-kernige Pentium im Domänenserver hingegen ist überlastet. Da jetzt quasi Bildverarbeitung Einzug hält, ist eine massive Zunahme der Anforderungen binnen der kommenden 5 Jahre anzunehmen. Ggf. ergänzt durch weitere Arbeitsplätze. Aber: weiß man’s? Und wie hoch ist das anzusetzen? Wie kann ich eine große Leistungsspanne realisieren, ohne, sollte sich die Annahme nicht bestätigen, überdimensioniert zu haben und ohne dass es teuer wird?

Das derzeitige Gesamtvolumen der drei Produktivserver liegt nach unten beschriebenen ersten Maßnahmen bei 320 GB. Die drei Produktivserver belegen im Betrieb zusammen ca. 22GB RAM, es stehen 40GB zur Verfügung.

Vorgefunden habe ich hier 4 Windows Server 2008 R2: Domänenserver (inkl. DHCP-, DNS-, Exchange- und Dateiserver), Datenbankserver, Terminalserver sowie Sicherungsserver (letztlich ein NAS).

Es gab mannigfaltige Störungen, deren Zuordnung zu einem konkreten Grund schwierig war. Dies resultiert daraus, dass das System nicht konzeptionell entworfen sondern entlang akutem Bedarf historisch gewachsen ist.

Auffällig waren Störungszusammenhänge mit der Linux-basierten ThinClient Anbindung, besonders im Zusammenhang mit Maßnahmen, die der Schaffung zusätzlicher Bildschirmfläche dienten. Verschwindende Mauszeiger oder massives Endlosruckeln beim Scrollen zum Beispiel. Mit der Linux-basierten Anbindung der ThinClients entsteht ein heterogenes Netzwerk, was immer zusätzliche Störungsquellen mit sich bringt. Ein rein homogenes Netzwerk (durchgängig das gleiche System) ist deutlich wartungsärmer und im Ergebnis billiger, selbst wenn man hier zum Beispiel Windows als Software für die ThinClients einsetzen würde.

Im Weiteren Störungen, die trotz gleicher Basis der Nutzer (RDS-Server – alle arbeiten ja mit demselben Rechner) sich von Nutzer zu Nutzer unterschieden. Programmabstürze zum Beispiel, besonders bei Internetnutzung. Dies weist auf die Benutzerprofile hin.

Mit den Telefonen (VoIP) gab es auch Störungen (Störgeräusche, zu leise, Abbrüche, Schaltungsfehler – teils wurden Verbindungen reproduzierbar nicht hergestellt). Es kommen DECT- sowie kabelgebundene Geräte zum Einsatz.

Das Netzwerk scheint auch Störungsbilder beizutragen. Die verschiedenen Störungsbilder überlagern sich teilweise auch. Die Ausdifferenzierung war daher schwierig.

Die bestehenden Server sind zu laut (und zu viele). Trotz separatem Serverraum. Der Eingangsbereich sowie ein Arbeitsplatz sind akustisch verseucht. Ich sitze gerade mit Abstand Eingangsbereich, einem Büro und dann der Raum, in dem ich ganz am anderen Ende sitze, zusammen 19 Meter entfernt, und kann die Biester klar und deutlich hören. Allerdings ist es gerade außerhalb der Bürozeit, also sehr leise Umgebung – während der Bürozeit muss ich an diesem Platz hinhören, um die Server wahrzunehmen. Im Eingangsbereich und dem ersten Büroraum hingegen sind die Server deutlich wahrnehmbar, schwer zu überhören.

Die Temperaturen der Server waren deutlich zu hoch. Die 4 Server plus der Telefonserver mit einigen Kleingeräten produzieren so viel Abwärme, dass die Tür zum Serverraum offen bleiben muss. Um einen gewissen physikalischen Schutz zu gewährleisten, wurde ein Serverschrank eingesetzt. In dem staut sich aber gleichsam die Abwärme. Außerdem sind die eingebauten Komponenten schwer zugänglich.

Für keinen der Server bestand noch Hardwareverfügbarkeit. Es gab ursprünglich die klassischen 24/7 Austauschverträge, aber jeweils nur für drei Jahre, die selbst beim neuesten Server lange schon vorbei sind. Also alte Hardware, die über den gesamten Betriebszeitraum auch noch zu heiß betrieben wurde. Nicht unerwartet sind dann hier auch 3 Festplatten in kurzer Zeit ausgefallen. Fiele aber mehr als nur Festplatten aus, entstünde die Situation, dass man sich erst mal Gedanken über Ersatzbeschaffung machen müsste und dabei feststellen würde, dass passende Ersatzhardware teilweise gar nicht oder nur mit langen Lieferzeiten beschaffbar wäre.

Datensicherungen (Windows Serversicherung) dauerten viel zu lange und waren daher auch störanfällig. Im weiteren gingen damit deutliche Ressourcennutzungen einher.


3) Erste Maßnahmen

Die erste Maßnahme bestand natürlich darin, die Situation zu analysieren und ein Konzept auszuarbeiten. In diesem definierten Rahmen fanden dann folgende Maßnahmen bereits statt:

Vor und hinter den Serverschrank je einen großen Ventilator postiert (push-pull). Temperaturen damit wieder im grünen Bereich.

Systembereinigung (Frühjahrsputz). Servergespeicherte Benutzerprofile abgeschaltet, da diese in einer RDS-Umgebung meist überflüssig bis kontraproduktiv sind. Ordnerumleitung per Gruppenrichtlinie für Benutzerordner aktiviert, was bei servergespeicherten Benutzerprofilen sehr vorteilhaft ist aber viel zu oft nicht gemacht wird. Aber auch ohne servergespeicherte Benutzerprofile immer noch die Administration und Störungsbeseitigung vereinfacht und ein klarer gegliedertes System ergibt. Die Benutzerprofile erneuert (bzw. der Registryteil derselben, der Rest ist ja umgeleitet ins jeweilige Basisverzeichnis). Die Konfiguration der linuxbasierten ThinClients erneuert. Nicht (mehr) benötigte Software deinstalliert. Benötigte Software teils neu installiert, teils bereinigt. Einzelne Bestandteile der dateibasierten Einstellungen in den Benutzerprofilen (AppData) erneuert. Alle Updates geprüft und im Zweifel neu installiert. Zündkerzen poliert, Scheiben wischen, fertig ;-)

Das System läuft seit dem weitgehend störungsfrei und unnötige Systemlast ist deaktiviert. Detailarbeit (Konsolidierung) steht noch aus.

Die Virtualisierung der Server wurde erfolgreich geprobt.

Zur Datensicherung wurde hier jetzt Acronis (Universal License) eingekauft und vorläufig auf einem der Produktivserver installiert. Bisher wurde und wird die windowseigene Serversicherung verwendet. Dies bleibt wahrscheinlich in der kleinen Firma auch weiterhin, da Acronis dort unverhältnismäßig teuer scheint. Dies muss aber noch mal geprüft werden.

Obige Änderungen haben die Netzwerklast um 60GB pro Tag reduziert. Festplattenlast um 120GB, jeweils hälftig Schreib- und Leselast, davon 30GB Schreiblast auf SSDs (Intel 320 Series), weshalb deren Lebensdauer (15TBW) so weit beschränkt wurde, dass diese nun ausgetauscht werden müssen.

Die Software der Telefone wurde aktualisiert. Einige Störungsbilder sind damit verschwunden. Ein Update der Software der Telefonanlage kommt in Kürze. Die bisher bereits realisierte Entlastung des Netzwerkes scheint gleichsam einen positiven Effekt zu haben. Seit dem entstehen Störungen vorrangig noch während der Datensicherungen, was sich bald ja erledigt. Ansonsten nur vereinzelt bei den Funktelefonen und gehäuft an einem einzelnen Arbeitsplatz an einem Funktelefon (DECT), der offenbar funkverseucht ist. Quelle aber nicht identifizierbar. Kreuztest durch Austausch der Endgeräte ohne Erfolg – mit dem anderen Endgerät blieb die Störung bestehen, während das ursprüngliche Endgerät am anderen Platz plötzlich störungsfrei arbeitete. WLAN und alle anderen potentiellen Störquellen deaktiviert – ohne Besserung. Lösung ausstehend.

Der Sicherungsserver wurde vorgezogen. Hiermit wurde quasi auch wieder Hardwareverfügbarkeit hergestellt - bzw. ein Notfallszenario. Mehr dazu im Kapitel „Der Sicherungsserver“


4) Konzeptioneller Lösungsansatz

Grundsätzlich: keep it simple!


4.i) Allgemeines

Es gibt zahlreiche sogenannte Best Practice Empfehlungen sowie zahlreiche vermeintlich zwingende Dinge, die man tun soll oder lassen soll.

Tatsache ist aber, dass es keine allgemeingültigen Empfehlungen gibt. Denn jede Empfehlung steht immer unter dem Vorbehalt, ob sie denn tatsächlich im jeweiligen Szenario Sinn ergibt. Es spielt auch keine Rolle, welcher (möchtegern-) IT-Guru die Empfehlung ausgesprochen hat. Denn im Zweifel wird nicht dieser Guru, sondern der zuständige IT-Betreuer zur Verantwortung gezogen. Der Verweis auf einen IT-Guru hilft dann nicht weiter.

Das gilt natürlich auch für alle meine Empfehlungen und Ansätze. Und tatsächlich habe ich in anderen Situationen auch schon gegenteilige Lösungsansätze zu Hiesigen praktiziert, wobei hiesiger Rahmen meistens passt.

Im Weiteren ist es auch nicht Aufgabe der IT, Bedingungen festzulegen. Dies ist Aufgabe der Geschäftsführung, die bei diesen Vorgabenerstellungen natürlich auf das Fachwissen der IT zurückgreift. Und dann ist das die Bibel - und nicht das, was irgendein IT-Guru vorgibt. Es ist dann auch im Weiteren Aufgabe der Geschäftsführung, das entsprechende Budget dafür zur Verfügung zu stellen.

Die Geschäftsführung muss zum Beispiel definieren, wie lange die Ausfallzeiten welcher Systeme sein dürfen. Ob 24h zum Beispiel tragbar sind oder nicht - sondern binnen 2h wieder verfügbar gemacht werden muss. Auch gilt es zu differenzieren, welche Systeme. So ist es zum Beispiel für Mitarbeiter oft ein schweres Problem, wenn keine eMails mehr versendet oder empfangen werden können. Hingegen ein geringeres Problem, wenn der alte eMailbestand eine Zeit lang nicht verfügbar ist. So wäre also die Mailfunktionalität zum Beispiel binnen einer Stunde, aber der Mailbestand binnen 24h verfügbar zu machen.

Natürlich ist es auch Aufgabe der IT, die Geschäftsführung proaktiv auf Probleme und Risiken hinzuweisen.

Im Weiteren gilt: Je weniger Spezialwissen nötig ist, um das System beherrschen zu können, um so besser! Betriebe in hier gegenständlicher Größenordnung können in große Schwierigkeiten kommen, wenn das Konstrukt zu komplex ist und die eingesetzten Technologien zu viel Spezialwissen erfordern. Um so mehr, wenn dieses Spezialwissen schwer zugänglich ist. Reduce to the max!

Um zu ermitteln, ob eine angedachte Lösung sinnvoll ist, empfehle ich, sich konkrete Szenarien einmal vorzustellen. Zum Beispiel: Was passierte, fiele das Netzteil aus. Was, fiele das Mainboard aus. Was, reichte die CPU-Leistung nicht mehr, etc, etc, etc.


4.ii) Konkretes

Die drei Produktivserver sollen in Virtualisierungen umgewandelt und auf einem einzelnen neuen Server betrieben werden. Weniger Hardware = geringere Ausfallwahrscheinlichkeit und Kosten, Aufteilung auf mehrere virtuelle Server = geringere Komplexität des einzelnen Servers = geringere Ausfall- und Störungswahrscheinlichkeit.

Zum 14.01.2020 stellt Microsoft den Support für Server 2008 R2 ein, also können diese noch maximal 3,5 Jahre weiter laufen. Dann muss auf eine neuere Version migriert werden, da es keine Sicherheitsupdates mehr gibt. Voraussichtlich können dann mit einer Lizenz zwei Server betrieben werden, so dass sich eine Verdichtung auf zwei Virtualisierungen aus Kostengründen abzeichnet. Der Server 2016 R2 dürfte dann für weitere 10 Jahre gut sein. Merke: Lizenzcheck und -Strategie ist wichtig. Die Windows Server 2008 R2 wurden hier in 2012 angeschafft ausgehend von Server 2003, zuvor Server 2000. Das ist dann halt um ein vielfaches teurer - in der Anschaffung sowie der Implementierung.

Der Aufpreis für ein 2011-3 System, das im Bedarfsfall einen zweiten Prozessor aufnehmen kann, entsteht bei Mainboard und Netzteil und beträgt netto 40,- € gegenüber einem Einsockelsystem. Daher kommt ein Zweisockelsystem mit zunächst nur einem Prozessor zum Einsatz und wir verfügen damit über eine massiv erweiterbare Grundlage, Stichwort Skalierbarkeit. Daraus ergibt sich auch das Potential, den Server sehr lange zu betreiben.

Supportverträge für Hardwareverfügbarkeit laufen entweder 3 oder 5 Jahre, länger nicht. Für 5 Jahre kostet das dann bei hiesiger Größenordnung an die 1.500,- €. Dafür wird Verfügbarkeit binnen 24h garantiert.

Dies reicht uns nicht. Wir wollen den Server deutlich länger betreiben, 10 Jahre sind angedacht, gerne mehr. Das ist ökonomischer und ökologischer. 24h Warten im Störungsfall ist ebenso inakzeptabel. Auch führen diese Verträge in kleineren Unternehmen dazu, dass nach Ablauf der Servicezeit die Hardware weiter verwendet wird, da diese noch ausreicht. Lediglich die Verfügbarkeit ist dann nicht mehr gewährleistet, was aber teuer werden kann. Das fällt dann aber erst auf, wenn es zu spät ist. Und das Risiko steigt natürlich mit der Betriebsdauer. Während der Vertragslaufzeit hingegen ist das Risiko sehr gering – also Angebot und Bedarf laufen hier genau gegensätzlich. Das Gleiche gilt für die Verfügbarkeit bzgl. Aufrüstung. Bedenkenswert. Erneuert man aber zum Ende der Vertragslaufzeit, so ist man zeitlich gebunden. Man kann also zum Beispiel keine auf Sweet-Spots angelegte Beschaffungsstrategie fahren.

Obige 1.500.- € sehen wir daher als Budget, den Server quasi ein zweites Mal anzuschaffen und an nicht kritischer Stelle einzusetzen, hier als „ThinClient“. Dies nenne ich ein produktives Ersatzteillager.

Damit haben wir Hardwareverfügbarkeit binnen 0h anstatt 24h - ohne zeitliche Begrenzung auf 3 oder 5 Jahre. Garantie haben wir auch, je nach Bauteil zwischen 3 und 10 Jahren. Wir sparen einen ThinClient (300 €). Gleichzeitig haben wir eine Entwicklungs- und Teststation. Auch können wir im Störungsfall austesten, welche Komponente tatsächlich defekt ist. Alternativ kann direkt der Ersatzserver herangezogen werden (Festplattensystem umbauen, fertig). Auch zum Beispiel Bios- und Treiberupdates können besser auf Verträglichkeit geprüft werden. Wir wissen auch, da wir dies validieren, dass die Hardware in beliebiger Kombination kompatibel ist und durch den Betrieb als Client wissen wir auch, dass die Hardware funktioniert. DOA und Inkompatibilität mit Ersatzhardware im Störungsfall ist ausgeschlossen.

Dies gilt auch, wenn wir irgendwann aufrüsten wollen. Es kann nämlich zum Beispiel sein, dass eine später gekaufte neuere Version der gleichen CPU nicht mit der älteren Revision zusammen läuft, ähnlich wie gleiche RAM-Riegel nicht immer zusammen laufen. Dies ist hier ausgeschlossen, da wir eine passende CPU in der Hinterhand haben. Das produktive Ersatzteillager kann insofern auch im Falle einer Aufrüstung herangezogen werden, so dass die Aufrüstung nichts oder sehr wenig kostet und mit validierten Bauteilen erfolgen kann. Auch bei einem RAID-Array kann es passieren, dass zu dem Zeitpunkt, wo man es erweitern möchte, baugleiche Laufwerke auf dem Markt nicht mehr verfügbar sind. Dann müsste man entweder einen schmutzigen RAID fahren oder alle Laufwerke neu beschaffen.

Zum Beispiel: Nach 8 Jahren wird es CPU-seitig eng, für die verbleibenden 2 Jahre wird die CPU aus dem produktiven Ersatzteillager in den Produktivserver eingebaut. Findet man noch günstig gebraucht einen alten Server mit der gleichen CPU, nur die CPU oder eine kleine CPU, kann man das auch noch machen, um das produktive Ersatzteillager in Betrieb zu halten. Muss man aber nicht. Es sind ja nur noch 2 Jahre und die CPU bleibt ja redundant. Will man aber den Server noch länger betreiben oder wird die CPU früher eingesetzt, spricht umso mehr für Ersatzbeschaffung.

So oder so – es gibt in jeder Situation Optionen und die Folgekosten sind stark minimiert. In jeder Situation kann man ganz entspannt und hoch flexibel agieren und den Betrieb wieder zum laufen bringen oder beschleunigen um dann in der Nacharbeit ohne jeden Zeitdruck die weitere Verfahrensweise festzulegen und umzusetzen.

Die Hardwarebeschaffung kann ebenfalls günstiger erfolgen, da man nicht auf besonderen Service oder Kulanz eines Händlers angewiesen ist. Man kann also sehr gut über Geizhals bei Händlern, die viele positive Bewertungen haben, einkaufen.

Gleichzeitig kann hier das produktive Ersatzteillager auch noch für die andere kleinere Firma zur Verfügung stehen. So etwas könnte man auch durch Kooperationen mit Geschäftsfreunden oder Gebäudenutzern realisieren. Damit entfällt dort sowie in jedem anderen potentiell eingebundenem Unternehmen gleichsam ein entsprechender Vertrag vollständig und die Vorteile gegenüber einem solchen Vertrag kommen dort größtenteils gleichsam zur Geltung.

Allerdings wird hier für die kleinere Firma zunächst aus der vorhandenen Hardware beider Unternehmen mit kleinen Ergänzungen, quasi als Resteverwertung, ein neuer Server gebaut bzw. früher oder später deren Virtualisierungen auf hiesigem Server abgelegt und per VPN zugegriffen. Glücklicherweise wurde teils gleiche Hardware in beiden Unternehmen verwendet, so dass hier ebenfalls ein System gebaut werden kann, bei dem alle maßgeblichen Bauteile noch mal als Ersatz vorliegen. Da die Teile über oder gegen 5 Jahre alt sind, wäre ansonsten ein weiterer Betrieb nicht möglich, da die Verfügbarkeit nicht mehr gegeben wäre. So aber können die Teile noch ein paar weitere Jahre eingesetzt werden, bis das Internet eine ausreichend stabile VPN-Verbindung hergibt.

Zu beachten ist, dass normalerweise das produktive Ersatzteillager nicht als Sicherungsserver für die Daten verwendet werden kann. Denn bei einem Hardwareausfall, bei dem das produktive Ersatzteillager ausgeschlachtet würde, könnte in dieser Situation nicht mehr ohne Weiteres auf die Datensicherung zugegriffen werden. Es bestünde aber genau dann eine erhöhte Wahrscheinlichkeit, dass dies nötig würde. Der Sicherungsserver könnte aber als produktives Ersatzteillager für einen anderen Server dienen, zum Beispiel in einem anderen Unternehmensteil oder hier für die kleine Firma. Bzw. wird er hier früher oder später in den kleinen Betrieb wechseln, die Sicherungen per VPN dorthin geleitet (sind dann gleichzeitig Außerhaussicherungen) und dieser Sicherungsserver so konfiguriert, dass er bei länger anhaltendem Internetausfall die Virtualisierungen der kleinen Firma lokal übernehmen kann und dann temporär als Produktivserver dient.

Vorläufig werden die beiden Unternehmen zur Außerhaussicherung zukünftig gegeneinander gesichert. VPN zwischen den Unternehmen besteht ja bereits.

Oben gezeichnete Lösung bräuchte keinen Serverraum mehr sondern könnte auch in eines der kleinen separierten Büros. Dies machte ein zusätzliches Büro frei, entstünde der Bedarf.

Der Lösungsansatz ergibt im Weiteren eine deutliche Einsparung beim Stromverbrauch. Dies finanziert die neuen Anschaffungen. Absolut gesehen sinkt damit der Stromverbrauch aber derart tief, dass zukünftige potentielle Einsparungen durch höhere Energieeffizienz neuer Technik nicht mehr hoch genug werden können, als dass ein Wechsel wegen Energieeffizienz ökonomisch oder ökologisch Sinn ergäbe. Auch verlangsamt sich nun laut Intel die Weiterentwicklung. Kaufzeitpunkt also Sweet Spot. Broadwell-EP zeigt vor allem im Zusammenhang mit Virtualisierungen deutliche Verbesserungen. Die Leistungssteigerung im Allgemeinen zur Vorgängergeneration erlaubt es auch, eine Leistungsklasse tiefer zu gehen, was nochmals 500,- € spart. Auch hier: Sweet Spot.

Der Einsatz von Acronis (inkrementelle Sicherung sowie Einstellung der Ressourcennutzung) reduziert die Netzwerklast weiter massiv – bisher gibt es Telefonstörungen, wenn die Sicherungen beginnen. Die Sicherungen dauern auch viel zu lange.

Mit oben beschriebener Lösungsansatz besteht im Weiteren die Hoffnung, die Kommunikation der Server untereinander aus dem physikalischen Netzwerk herausnehmen zu können. Mit dem zukünftigen Server kann ggf. auch der Internetverkehr aus dem internen Netzwerk separiert werden. In Summe mit den ersten Maßnahmen und hier dargestellten Vorhaben reduzierte sich die Netzwerklast derart, dass eine sonst nötige Erneuerung des Netzwerkes (1.500 €) nicht mehr nötig wäre. Aktuellere Windows Server beinhalten darüber hinaus neue Funktionen, die geeignet sein können, den Netzwerkverkehr softwareseitig weiter zu optimieren.

Das System soll dann gut dokumentiert werden, um Unabhängigkeit von Personen und Systemhäusern zu befördern. Gut geeignet hierfür ist Microsoft One-Note. Daraus wird dann auch ein Notfallhandbuch gezogen, welches in ausgedruckter Form griffbereit gehalten wird. Die Notfallszenarien werden regelmäßig (möglichst 1x jährlich) getestet.

Mit oben beschriebenem Konzept könnte man jetzt behaupten, man solle doch dann direkt einen Failovercluster betreiben. Davon rate ich dringend ab. Keep it Simple - und genau das ist ein Failovercluster nicht mehr. Solche Technologien bergen hohe Risiken und man benötigt weit mehr Fachwissen. Die drohenden Probleme können selbst für einen bestens ausgebildeten und erfahrenen Admin zu einem Alptraum werden. Es gibt vor allem ein viel komplexeres Gebilde in dem viel mehr Abhängigkeiten zu beachten sind. Dafür ist ein solches Unternehmen zu klein - und der Nutzen zu fraglich.

Bezogen auf beide Unternehmen und inkl. Telefonserver, so werden die derzeit betriebenen 7 Server auf einen Produktivserver, einen Sicherungsserver (eigentlich ein NAS) und ein produktives Ersatzteillager (der ja eigentlich nur ein Client ist) reduziert. Damit einher geht eine deutliche Absenkung der Lizenzkosten von mehreren tausend Euro jährlich. Keep it simple!
 
Zuletzt bearbeitet:
5) Einkaufslisten

Zu den Problemen beim Eigenbauserver im Vergleich zu fertigen Servern gehört natürlich, dass es sich in der Regel um Prototypen handelt. Daher ist sorgfältige Konfiguration natürlich entsprechend wichtig. Hilfreich ist auch, frühzeitig mit der Planung anzufangen und eine erstellte Konfiguration noch reifen zu lassen und weiter zu entwickeln. Hierzu eignen sich die Wunschlisten bei Geizhals sehr gut. Beim weiterem drüber Nachdenken oder auch weiterem Analysieren des Bedarfs sowie konkreter Szenarien ergeben sich noch Änderungen. Auch kann man verschiedene Konfigurationen erstellen, um den Sweet-Spot zu ermitteln.

Auch sollte man in Kauf nehmen, dass ggf. die ein- oder andere Komponente sich in der Praxis als ungeeignet erweist und gegen eine andere ausgetauscht werden muss, was zusätzliche Kosten bedeutet. So etwas merkt man dann in der Regel beim Zusammenbau, den Tests und der Konfiguration, also rechtzeitig vor dem Produktiveinsatz. Auch hier: reichlich Zeit einzuplanen ist sinnvoll. Intensive Tests vor Inbetriebnahme sind gleichsam wichtig, also zum Beispiel Leistungstests, Burn-In, Temperaturtests, Simulation von Ausfällen, etc. Das lohnt sich aber auch. Hier zum Beispiel ist danach für 10 Jahre Ruhe im Karton. Und die höchste Ausfallwahrscheinlich bei Hardware ist in den ersten Betriebswochen gegeben. Das nimmt man damit vorweg. Die Ausfallwahrscheinlichkeit danach ist sehr niedrig – und steigt erst nach 5 Jahren, bei Festplatten mit einem Zwischenpeak nach 3 Jahren, abhängig auch von Betriebstemperaturen. Konstant gute Temperaturen sind also wichtig – sowie Bauteile, die für die gewünschte Einsatzdauer ausgelegt sind.

Eigenbauserver sind deutlich preisgünstiger als fertig gekaufte Server (hier wäre der Aufpreis mindestens 50%). Man muss aber die zusätzliche Arbeit und ggf. Lehrgeld ansetzen und Hardwarekosten betragen nur 10% der IT-Kosten. Aber es wird eben auch deutlich, dass für den zusätzlichen Arbeitsaufwand ein Budget zur Verfügung steht bzw. dass hier eine gute Spanne auch für professionelle IT-Betreuer besteht, die normalerweise Fertigserver anbieten und an dieser Position quasi nichts verdienen. Hier könnten sie berechtigt verdienen.

Allerdings wird mit der Hardware auch viel anderes festgelegt, was starke Auswirkungen auf die Folgekosten hat (Verfügbarkeit, Erweiterbarkeit/Skalierbarkeit, Lizenzbedarf, Stromverbauch, Kühlkosten, Platzbedarf, etc.). Der konzeptionelle Blickwinkel ist also wesentlich entscheidender als die Frage Eigenbau oder nicht.
Auch ergibt sich daraus, dass man bei der Wahl der Komponenten nicht geizig sein soll. Wichtiger ist, dass es die richtig dimensionierten Komponenten sind. Der Preis ist eher nebensächlich. Hardware sind nur 10% der IT-Kosten und davon ja dann auch wieder nur ein Teil, nämlich die Differenz zu einem billigeren Produkt. Im Weiteren reduziert sich der Preis auch durch steuerliche Relevanz. Wir sind natürlich netto und wir können abschreiben. Sogar im Vorfeld kann man Investitionen in Abzug bringen (Investitionsabzugsbetrag, früher Ansparabschreibungen). Mit 2016 wurden die Rahmenbedingungen hierfür deutlich verbessert.

Im Weiteren: die Kosten sind durch die angesetzte Laufzeit sowie durch die Mitarbeiter zu teilen. Das zeigt dann auch wieder auf, dass sich Preisunterschiede einzelner Komponenten stark relativieren, auch wenn der Preis absolut betrachtet hoch erscheinen mag. Ist er aber nicht, wenn man es richtig macht. Dann ist es sehr preisgünstig, um nicht zu sagen: billig. Hier kostet zum Beispiel die Serverinfrastruktur inkl. Verfügbarkeit (Produktivserver, produktives Ersatzteillager, Sicherungsserver) pro Jahr und Mitarbeiter 35 €. Nähmen wir eine vergleichbare Leistung als Fertigserver mit 5-Jahresvertrag komme ich pro Jahr und Mitarbeiter auf über 100 €. Ökologisch ergibt sich ein vergleichbares Verhältnis. Hier steckt für Unternehmen sowie deren professionelle IT-Betreuer und die Umwelt Musik drin.

Aber: auch Überdimensionierung ist nicht hilfreich. Mit einer Materialschlacht eine falsche Konzeption oder Konfiguration ausgleichen zu wollen ist kontraproduktiv.


5.i) Der Produktivserver (2.350,- € netto)

2 x Samsung SSD SM863 120GB
Im RAID1 Onboard. Für den Hyper-V Host. Es sind von diesen Laufwerken an anderer Stelle im Unternehmen weitere 3 Stück an nicht kritischer Stelle eingesetzt. 2x in je einem Client und 1x im Sicherungsserver. Diese sind auch als quasi- oder produktive Hot-Spares zu verstehen.
4 x Samsung SSD SM863 240GB
Im RAID5 an Hardwarecontroller, montiert mit unten stehenden Adaptern in zwei 3,5“-Laufwerksschächten ganz unten. Für die Virtualisierungen. Von diesen Laufwerken werden insgesamt 2 weitere an nicht kritischer Stelle eingesetzt. 1x als externes Laufwerk und 1x im produktiven Ersatzteillager. Diese sind auch als quasi- oder produktive Hot-Spares zu verstehen.
Bei der Auswahl von Laufwerken, besonders bei SSDs, ist darauf zu achten, dass diese auch für die anstehende Schreiblast ausgelegt sind (TBW = TB written). Modelle für den privaten Gebrauch sind für den Servereinsatz meist nicht ausreichend belastbar - aber auch bei SSDs für Server gibt es massive Unterschiede. Bei diesem Modell hier kein Thema - da können wir uns anstrengen wie wir wollen, die maximale Schreiblast von 1540 TB (pro SSD) werden wir in den angedachten 10 Jahren nicht erreichen können. Wichtig ist dies umso mehr in einem RAID-Verbund, da die Laufwerke quasi identisch belastet werden. Es drohte mithin ein sehr zeitnaher Ausfall aller Laufwerke, wäre dies nicht berücksichtigt.
Für komplexe Crossloads ist auch auf niedrige Timings als Eigenschaft der SSD zu achten - was hier ebenfalls mit Bestwerten gelöst ist. Für den Betrieb in einem RAID-Verbund muss bedacht werden, dass ein solcher RAID immer die Summe der schlechtesten Eigenschaften der eingebundenen Laufwerke bildet. Daher ist Leistungskonsistenz (quasi niedrige Produktionstolleranzen) ein weiteres relevantes Kriterium.

2 x Corsair 3.5" Dual SSD Adapter, 2.5" Einbaurahmen
Achtung: es gibt kaum Einbaurahmen mit Bohrungen im Boden, die sich für Festplatteneinschübe wie in hiesigem Gehäuse eignen.
2 x SATA-Kabel rot 0.5m mit Arretierung, gerade/gerade
Zum Lieferumfang des Mainboards gehören zwar ausreichend SATA-Kabel, allerdings sind diese schwarz. Ich bevorzuge aus Gründen der Übersichtlichkeit etwas mehr Farbe, da es sonst schwer werden kann, im Notfall die richtigen Strippen zu identifizieren. Außerdem sollte man diversen Kleinkram im Bestand haben.
SATA-Kabel mit Arretierung sind kritisch zu sehen. Je nachdem wie dicht die Mainboardanschlüsse liegen, passen keine zwei nebeneinander und außerdem kann man oft die Arretierung nicht lösen, ohne andere SATA-Kabel zuvor zu entfernen. Daher entweder welche ohne Arretierung nehmen oder alle mainboardseitigen Arretierungen abbrechen. Das geht problemlos.

2 x LSI mini SAS HD x4 (SFF-8643) auf 4x SATA, 0.6m
1 x Intel Xeon E5-2620 v4, 8x 2.10GHz
Das Lizenzmodell für Server 2016 (wir spekulieren auf 2016 R2) sieht vor, dass die Basislizenz 2x8 Kerne beinhaltet. Darüber würden weitere Lizenzgebühren fällig. Im Endausbau schöpften wir also die Lizenz voll aus, ohne Fälligkeit weiterer Lizenzgebühren.
1 x Kingston ValueRAM 4x16GB, DDR4-2133, reg ECC
Windows Server 2008 R2 kann nur 32GB RAM. Also wären obige 64GB Unfug. Es muss aber später auf einen höheren Server (2016 R2) aufgerüstet werden. Der kann 64GB bzw. mehr. ValueRAM Riegel wie hier haben den Nachteil, dass spätere Editionen nicht mehr die gleichen Chips enthalten und daher eventuell nicht zusammenarbeiten würden. Höherwertige qualifizierte Riegel, bei denen das nicht zu befürchten wäre, kosten aber das Doppelte. Also kann ich auch direkt die 64GB kaufen und habe Geld gespart. Mehr als 64GB RAM wird nämlich hier nicht nötig werden. Selbst wenn die Aufrüstung auf 64GB ausbleiben sollte, habe ich Ersatzriegel ohne Aufpreis.
Außerdem: Den Hyper-V-Server stellt Microsoft auch kostenlos zur Verfügung – als Core-Installation. Da kann man sich dann die jeweils aktuellste Version nehmen, hier also 2012 R2. Und da gehen dann u.a. auch direkt die 64GB. Alternativ könnte man auch Windows 10 Professional als Host-System nehmen, das beinhaltet auch den Hyper-V-Server und hat im Gegensatz zum kostenlosen Hyper-V-Server eine GUI. Die Core-Installation, also ohne grafische Benutzeroberfläche, ist insofern für ein Unternehmen wie hier wiederum schwer beherrschbar, was schwerer wiegen dürfte als die Vorteile der Core-Installation (Ressourcenschonender, weniger Angriffsfläche, weniger Störquellen)
Es ist darauf zu achten, dass entweder vom Mainboardhersteller oder vom RAM-Hersteller der Arbeitsspeicher für das Board validiert ist.
Natürlich ECC-RAM, da mit Speichermenge sowie Laufzeit ohne Neustart das Risiko von Bitfehler steigt.

1 x LSI MegaRAID SAS 9361-8i, PCIe 3.0 x8
1 x Noctua NF-A6x25 FLX 60mm
Zur Montage direkt auf den Kühlkörper des RAID-Controllers.
1 x InLine Staubschutz für USB A Buchse, 50 Stück
1 x InLine Frontpanel Staubschutz-Set
Mit unten gelisteten USB-Konvertern werden alle internen USB-Ports des Mainboards belegt. Es bleiben also keine für die Anbindung der Frontports des Gehäuses, was nicht weiter schlimm ist. Aber daher möchte ich diese mit den Buchsen "verschließen", um Irritationen vorzubeugen. Gleiches gilt für die Audio-Ports.
1 x ASUS Z10PA-D8
In einer Umgebung wie hier lohnt es sich, darauf zu achten, dass das Board von der Ausstattung "etwas weniger Server" ist. Ein Server in großen Unternehmen ist sehr spezialisiert und daher oft spartanisch ausgestattet. Ein Server in kleinen Unternehmen muss eher eine Eierlegendewollmilchsau sein. Also möglichst z.B. PCIe-X16 Slot, PS/2, viele PCIe-Slots, vernünftige Kühlkörper, hohe Kompatibilität, gute Lüftersteuerung, die mehr bietet als die Wahl zwischen drei Versionen von Laut. Es sollte von der Ausstattung eher in Richtung Workstationboard gehen oder gar eines sein.
1 x Pioneer DVR-221BK schwarz
1 x extern/intern USB 2.0-Konverter
1 x extern/intern USB 3.0-Konverter
Um USB-Dongles ins Gehäuse zu verlegen (Schutz vor Beschädigung). Wobei sich noch erweisen muss, ob das für alle Systeme geht, wir haben drei Dongles und es ist nicht dokumentiert, ob ich die Dinger wirklich in die Virtualisierungen durchgeschliffen bekomme. Alternative wäre dann USB über LAN, das ist dokumentiert.
2 x Noctua NF-A14 PWM 140mm
Vorne einblasend bei 7V.
Noctuas besonderes Merkmal ist Qualität in jeder Hinsicht. Mithin genau das, was hier passt.

1 x Noctua NF-A9 PWM 92mm
Wird bei 7V außen am Gehäuse hinter die PCIe-Slotblenden aussaugend betrieben, um den RAID-Controller optimal zu kühlen.
1 x Lüftergitter/Schutzgitter für Lüfter 92mm
Damit von außen niemand in obigen Lüfter greift.
1 x Arctic MX-2, 8g
Hält besonders lange. Dennoch: alle paar Jahre mal austauschen. Wenn Sich die CPU-Temperaturen mit der Zeit verschlechtern, liegt das oft an ausgetrockneter Wärmeleitpaste.
1 x Noctua NH-U9DX i4
Wird so montiert, dass die Lüfter von unten nach oben blasen. Da die semi-passiven Kühleigenschaften nicht ausreichend sind, ist es hier wichtig, dass der Kühler über 2 Lüfter verfügt (Kühlungsredundanz). Betrieb mit 7V. Beim CPU-Kühler ist darauf zu achten, dass dieser die Arbeitsspeicherriegel möglichst wenig blockiert. Im Notfall wäre es nämlich ärgerlich, müsste man zum Wechsel von Arbeitsspeicher oder bei Aufrüstung erst den CPU-Kühler demontieren.
1 x Fractal Design Define R5 Black mit Sichtfenster
Mit Sichtfenster wegen Sichtinspektion (Transparenz in der IT). Alle vorhandenen Gehäuselüfter werden ausgebaut und durch obige ersetzt. Fronttür wird entfernt. Mindestens ein Teil der PCIe-Blenden wird entfernt. Obiger Laufwerkskäfig wird entfernt. Modulare Gehäusedeckel werden entfernt. Möglichst offenes Konstrukt als Bestandteil der Kühlungsredundanz, gleichzeitig staubfrei wegen Überdruck.
1 x BitFenix Alchemy 2.0 Magnetic 12cm, 6 LED weiß
Zur Erleichterung von Sichtinspektion und diversen Arbeiten wie zum Beispiel Festplattentausch.
1 x Seasonic Platinum Series 660W ATX 2.3
Mit Lüfteröffnung nach oben verbaut. Hybrid-Modus aus – das sorgt für optimale Temperaturen und unterstützt eine lange Lebensdauer. Im hier betriebenen Lastbereich hingegen arbeitete das Netzteil auch ohne Lüfter, so dass ein Lüfterausfall kein Problem wäre. Da das Netzteil vollmodular ist, kann es sehr schnell getauscht werden, ohne die sorgsam verlegten Kabel aufdröseln zu müssen.
Was Noctua bei Lüftern und Kühlern ist Seasonic bei Netzteilen. Qualität in jeder Hinsicht.



5.ii) Das produktive Ersatzteillager (1.100,- netto abzgl. 300€ wegen Nutzung als Client)

Dies wird meine zukünftige Arbeitsstation :-)

Einzig der RAID-Controller wird nicht als Ersatzteil beschafft. Der ist recht teuer und im Notfall kann man einen RAID5 auch über das Mainboard betreiben.

2 x Western Digital WD Red 1TB,
Resteverwertung
4 x Intel SSD 320 120GB
Resteverwertung. Sind bereits im derzeitigen Terminalserver vorhanden. Für den Produktiveinsatz wegen falscher Systemkonfiguration (servergespeicherte Benutzerprofile, auch noch ohne Ordnerumleitung) zu ausgelutscht. Die dürfen sich hier mit zusätzlichem Overprovisioning zur Lebensverlängerung und Performancesteigerung als Scratch-Disks für die Entwicklungs- und Testumgebung ihr Gnadenbrot verdienen.
1 x Samsung SSD SM863 240GB
1 x SATA Kabel rot 0.7m mit Arretierung, gerade/gerade
1 x SATA-Kabel rot 0.5m mit Arretierung, gerade/gerade
1 x Intel Xeon E5-2620 v4, 8x 2.10GHz
1 x ASUS GT720-SL-2GD3-BRK
1 x ASUS Z10PA-D8
1 x ASUS DRW-24F1MT schwarz
1 x Noctua NH-U9DX i4
1 x Fractal Design Define R5 Black
Hier ohne Sichtfenster. Das Gehäuse kommt auch im Sicherungssever zum Einsatz (siehe unten), so dass das Gehäuse dreimal vorhanden ist. Wegen der modularen Festplattenkäfige ist das hier sehr sinnvoll, da es ja auch möglich ist, 16 Festplatteneinschübe (2 Käfigtürme nebeneinander) á 3,5“ umzusetzen. Diese können für 2,5“-Laufwerke und zusätzlichen Einbaurahmen mit je zwei SSDs bestückt werden, was also 32 Laufwerke wären. Dies wird so natürlich nicht passieren, aber: definitiv genug Platz für Erweiterungen. Die durchgängig modulare Konstruktion dieses Gehäuses erlaubt es auch darüber hinaus, jeden der drei Rechner optimal zum Beispiel bzgl. der Luftzirkulation individuell zu gestalten und im Bedarfsfall zu verändern.
2 x Corsair 3.5" Dual SSD Adapter, 2.5" Einbaurahmen
1 x Seasonic Platinum Series 660W ATX 2.3


5.iii) Der Sicherungsserver (630,- € netto)

Die Idee zur Veröffentlichung entstand erst nach Bau des Sicherungsservers. Daher gibt es hier keinen Worklog. Der Sicherungsserver wurde mittels Acronis auf die neue Hardware portiert, eine Neuinstallation daher nicht nötig.

Die Anschaffung des Sicherungsservers wurde vorgezogen. Es besteht nämlich längst keine Hardwareverfügbarkeit für die derzeitigen Produktivserver. Sollte es also bis zum Einsatz des neuen Produktivservers zu einem Ausfall eines der drei Bestehenden kommen, kann hier sofort ersatzweise der betreffende Server als Virtualisierung betrieben werden.

Außerdem stand der Sicherungsserver bisher zusammen mit den Produktivservern in einem Raum. Daher war kein Schutz vor Wasser, Feuer oder Einbruchdiebstahl gegeben. Da fertig gekaufte Server nun mal zu laut sind, kam ein Umzug in einen anderen Raum nicht in Frage. Tatsächlich aber liegen hier Idealvoraussetzungen vor, da im Laufe der Entwicklung zwei Bürotrakte zusammengelegt wurden. Zwischen diesen Trakten gibt es eine sehr massive Feuerschutztür, die außerhalb der Betriebszeiten immer abgeschlossen ist. Der neue Sicherungsserver liegt jetzt natürlich in dem anderen Bürotrakt hinter der massiven Tür mit sehr viel räumlichen Abstand und bietet damit in hohem Maße Schutz vor Wasser, Feuer und Einbruchdiebstahl.

Der Sicherungsserver soll auch zur Sicherung der kleineren Firma dienen, so dass dort interne Festplatten zur lokalen Sicherung ausreichen. Hier bestünde auch die Möglichkeit, später in der kleinen Firma einen Server auf Basis dieses Sicherungsservers aufzubauen, da der Sicherungsserver ja dann die Hardwareverfügbarkeit stellte.

Der Sicherungsserver kann potentiell auch noch zusätzlich als ThinClient genutzt werden. Bei späterer Migration auf ein neues Serverbetriebssystem wird hier natürlich kein Serverbetriebssystem mehr aufgesetzt sondern einfach ein Windows Professional herangezogen.

Testweise und als Vorbereitung für den kommenden Umzug der Produktivserver wurde der Sicherungsserver um die Rolle als Hyper-V-Server erweitert und die bestehenden Produktivserver dort als Virtualisierungen erfolgreich getestet. Die eingangs beschriebenen ersten Maßnahmen konnten dann dort auch teils zuerst ausprobiert werden, bevor ich das jeweils an den Produktivservern umgesetzt habe.

3 x Western Digital WD Red 3TB, 3.5", SATA 6Gb/s
Zwei davon waren bereits vorhanden (Resteverwertung, sind daher auch in obiger Preisangabe nicht enthalten).
1 x Samsung SSD SM863 120GB
1 x Intel Xeon E3-1225 v5, später Intel Pentium G4400
Derzeit überdimensioniert, es sei denn, uns fällt jetzt noch einer der alten Server aus. Dreht sich aber zu einem späteren Zeitpunkt raus, da er dann gegen den bereits vorhandenen Pentium getauscht wird. Obige Summe beruht auf dem Pentium, da das letztlich der tatsächliche Preis sein wird.
1 x Fujitsu D3417-B
Sehr cooles Board. Hervorragend auch für kleinere Produktivserver oder für Workstations. Sehr günstig obendrein. Allerdings sehr RAM-zickig - unbedingt die QVL beachten.
Beim Mainboard achte ich speziell in kritischen Einsatzszenarien auf PS/2 Ports. Wenn USB nicht funktioniert, hat man eine Alternative, den Rechner zu bedienen. Hat sich auch hier bereits bewährt. Windows 7 (alias Windows Server 2008 R2) kann nämlich von Haus aus kein USB 3.0. Der hier verwendete aktuelle Intel-Chipsatz hat zwar USB 2.0-Ports, diese werden aber gleichsam vom USB 3.0-Controller bereitgestellt - und damit bei der Installation nicht erkannt. Den Treiber kann man aber auch nicht installieren - mit Maus und Tastatur, die über USB angeschlossen werden. Kein Ding: USB auf PS/2 Adapter und los geht's - wenn man PS/2 am Mainboard hat. Es reicht auch ein einzelner Port, da man mit der Maus zum Beispiel die Bildschirmtastatur bedienen kann.

1 x Samsung DIMM 8GB, DDR4-2133, CL15-15-15, ECC

Irgendwie war die QVL auf der Herstellerhomepage nicht zu finden. Auf Anfrage habe ich folgende Info erhalten:

DDR4-2133 (CL15) UDIMM 4GB (ECC)

• SK Hynix HMA451U7AFR8N-TF
• Samsung M391A5143EB1-CPB

DDR4-2133 (CL15) UDIMM 8GB (ECC)

• Samsung M391A1G43DB0-CPB
• Samsung M391A1G43EB1-CPB
• SK Hynix HMA41GU7AFR8N-TF

DDR4-2133 (CL15) UDIMM 16GB (ECC)

• Samsung M391A2K43BB1-CPB
• Micron MTA18ASF2G72AZ-2G3A1
• SK Hynix HMA82GU7MFR8N-TF
1 x Samsung SH-224DB schwarz
Der aufmerksame Leser hat festgestellt, dass in allen drei Rechnern unterschiedliche ODDs eingesetzt werden. Damit ist schergestellt, dass quasi jede CD gelesen werden kann, unabhängig von Mängeln in der Firmware eines der Laufwerke.
3 x be quiet! Silent Wings 2, 140mm
2x Vorne einblasend, 1x hinten aussaugend, jeweils bei 7v.
1 x Thermalright HR-02 Macho Zero
Der Rechner wird zunächst semi-passiv, also ohne CPU-Lüfter, aufgebaut. Wenn das wunschgemäß funktioniert, kommt ein Lüfter dazu. Das ergibt eine ideale Kühlungsredundanz.
1 x Fractal Design Define R5 Black
Alle Gehäuselüfter sowie oberer Festplattenkäfig entfernt.
1 x be quiet! Straight Power 10 400W
Mit Lüfteröffnung nach oben verbaut. Im Nachhinein ärgere ich mich doch etwas, nicht ein Seasonic 400W Platinum genommen zu haben. Aber letztlich nicht schlimm: es ist kein Produktivserver und es wird sich schon noch eine günstige Gelegenheit zum Tausch finden.


6.) Umzugsszenario

Die drei bestehenden Server sollen als Virtualisierung umgewandelt und auf einem Hardwareserver betrieben werden.

Grundsätzlich empfiehlt sich bei einem solchen Umzug, die bestehenden Hardwareserver möglichst nicht per Umwandlung der bestehenden Installationen in eine Virtualisierung umzuziehen sondern die virtuellen Server direkt neu zu installieren. Der Umzug per Umwandlung wird viel praktiziert und funktioniert in den meisten Fällen zwar gut, man verpasst aber ein Chance, mit einer sauberen Installation weiter zu arbeiten und auch, die Installation besser auf die Virtualisierung anzupassen.

Aus praktischen Gründen werde ich hier wahrscheinlich aber dennoch den Weg gehen, zumindest zunächst einfach umzuwandeln und nachdem dies erfolgreich abgeschlossen und alles umgestellt ist, ggf. auf rein virtueller Grundlage die Systeme neu aufzusetzen, sofern noch Bedarf besteht. Immerhin sind die Systeme gründlich gewartet worden. Den Vorteil hier sehe ich darin, dass der Wechsel sich einfacher gestaltet. Da ich bereits testweise die bestehenden Installationen problemlos in Virtualisierungen umwandeln und betreiben konnte, weiß ich, dass dies funktioniert. Ist das System erst einmal virtualisiert, lässt sich leichter auf eine neue Installation umstellen oder aber, was hier nicht unwahrscheinlich ist, es bleibt dabei, wenn die Betriebspraxis keine Veranlassung mehr gibt.

Nachtrag: die Systeme brauchen nicht neu installiert zu werden, da sie mittlerweile sehr schön rund laufen.

Beim Umzug selber ist peinlich genau darauf zu achten, dass niemals alter und neuer Domänencontroller gleichzeitig aktiv sind!
 
Zuletzt bearbeitet:
7.) Ressourcenzuteilung

Virtualisierungen erlauben eine sehr hohe bzw. dichte Ressourcenausschöpfung, was hier nur begrenzt umgesetzt werden kann, da "zu wenig" Server virtualisiert werden. In komplexeren Szenarien geht das natürlich noch besser.

Im Wesentlichen lebt diese Verdichtung davon, dass die Summe der den einzelnen Virtualisierungen zugewiesenen Ressourcen die Summe der tatsächlichen physikalischen Ressourcen übersteigt - um ein vielfaches.


7.i ) CPU

Bei der Aufteilung der CPU-Ressourcen sind Überzeichnungen im Verhältnis 1:4 oder 1:8 gängig und werden auch von Microsoft unterstützt. Dies bedeutet:

Wir haben hier zunächst physikalisch einen 8 Kerner. Mit Hyperthreading (HT), also insgesamt 16 logische Prozessoren. Bei einem Verhältnis von 1:4 wären das also 4x16=64 virtuelle Prozessoren (vCPU), die man dann auf die einzelnen Virtualisierungen verteilt.

Es gilt aber gleichsam, dass man einer einzelnen Virtualisierung nicht mehr Ressourcen zuweisen sollte, als diese benötigt. Als Maßstab hierfür kann man durchaus die Überlegung heranziehen, wie viele Kerne man nähme, wollte man den Server physikalisch betreiben.

Dies liegt zum Beispiel daran, dass der Hyper-V-Server eine Zuweisung für einen Taktzyklus immer nur dann vornehmen kann, wenn die entsprechende Anzahl an Kernen gleichzeitig frei ist. Weise ich also einem Server 4 vCPUs zu, muss der warten, bis gleichzeitig 4 logischen Prozessoren frei sind. Weise ich 8 vCPUs zu, kann es also eher zu Verzögerungen kommen, da es länger dauert, bis ein passender Zyklus frei ist und gleichzeitig werden für andere Virtualisierungen Zyklen blockiert.

Hier haben wir Server1 als Domänen- und Exchangeserver. Diesem würde ich physikalisch maximal einen i3 zuweisen, also 4 vCPUs (es würden aber auch 2-3 reichen). Für den Server2, Terminalserver, würde ich hier maximal einen 4Kerner mit HT sehen, also 8 vCPUs (es würden auch 6 reichen). Den Server3, Datenbankserver, über den auch die Bilderkennung läuft, würde ich maximal mögliche Ressourcen zuweisen, hier also alle 16 vCPUs. Es bleiben 4vCPUs für den Host, was reichlich ist, und man käme zusammen auf 32 vCPUs, also ein Verhältnis von 1:2, was sehr moderat ist. Außerdem käme jeder Server spätestens mit jedem zweiten Zyklus zum Zuge: Host, Server1 sowie Server2 passen zusammen in einen Zyklus. Alternativ könnte man auch 2 vCPUs für Server 1 und 14 vCPUs für Server3 nehmen, das könnte die Verfügbarkeit von Zyklen verbessern und noch stärker verhindern, dass die Bilderkennung andere Prozesse blockiert. Man muss dann sehen, wie das in der Realität skaliert.

Es kann unter Vollauslastung bei einem SQL-Server dazu kommen, dass dessen Performance massiv einbricht, da bei der Zuweisung ggf. ausschließlich logische Prozessoren, also HT-Kerne, zugewiesen werden, deren Leistung natürlich dann sehr gering wäre. Je aktueller das System, desto geringer diese Wahrscheinlichkeit, da mit neueren Systemen die Zuweisung dieses Problem stärker berücksichtigt wird. Ist man hiervon betroffen, kann man zunächst über ein anderes Zuweisungschema der vCPUs versuchen, dies zu bessern – oder eben HT abschalten. Dass man evtl. HT abschalten muss, sollte in der Dimensionierung der Hardware Berücksichtigung finden.

Nachtrag: tatsächliche Einstellungen aus dem Produktivbetrieb:

cpuDomainserver.JPG cpuDatenbankserver.JPG cpuRemotedesktopserver.JPG


7.ii) Arbeitsspeicher

Der Hyper-V-Server erlaubt es, Arbeitsspeicher dynamisch zuzuweisen. Man legt also eine Mindestmenge fest, mit der dieser Server startet, und weist eine maximale Größe zu, die dieser Server sich dann bei Bedarf ziehen kann.

Die Summer der Mindestmengen darf natürlich den tatsächlich vorhandenen Speicher nicht überschreiten, da sonst nicht alle Server starten können, weil ihnen kein Arbeitsspeicher mehr bleibt. Allerdings verteilen sich dann die freien Arbeitsspeicherressourcen im Betrieb dynamisch bedarfsgerecht, wobei auch hier das Problem entstehen kann, dass bei Neustart eines virtuellen Servers dieser plötzlich keinen ausreichenden Arbeitsspeicher mehr hat und ebenfalls wieder nicht starten kann. Insofern also nicht übertreiben.

Eine Ausnahme bildet hierbei der Exchangeserver. Der ist nicht in de Lage, eine dynamische Speichererweiterung zu veranlassen. Hier muss also die Mindestzuweisung den Bedarf des Exchangeservers fix beinhalten. Dies tritt auch in geringerem Maße für den SQL-Server zu, wobei der SQL-Server Express ja sowieso im Arbeitsspeicher limitiert ist. Da sowohl der Exchange- als auch der SQL-Server aber auch immer noch andere Prozesse betreibt, mach eine zusätzliche dynamische Zuweisung Sinn, da diese Prozesse sich im Bedarfsfall dann sehr wohl zusätzlichen Arbeitsspeicher ziehen können.

In hiesigem Fallbeispiel gibt es da mit 64GB RAM kein Thema. Server1 (Domäne+Exchange) belegt derzeit 6 von 8 GB RAM. Server2 (Datenbank) belegt 8 von 20GB und Server3 (Terminal) 8 von 16GB, zusammen also 22GB von 44GB. Da wir in Zukunft 64GB RAM haben, brauche ich gar nicht zu überzeichnen. Server1 bekommt wahrscheinlich min 8GB und max 12GB, Server2 bekommt min 16GB und max 24GB, Server3 dito. Da bleibt dann genug für den Host (sollten 2-4GB sein) und noch Platz für ggf. andere Sachen.

Nachtrag: tatsächliche Einstellungen aus dem Produktivbetrieb:

Domainserver.JPG Datenbankserver.JPG Remotedesktopserver.JPG


7.iii) Festplattensystem

Virtualisierungen werden im Normalfall auch auf virtuellen Datenträgern betrieben. Dabei handelt es sich letztendlich um Dateien. Die Größe der virtuellen Datenträger kann fix oder dynamisch eingestellt werden. Dynamisch bedeutet, dass man eine Größe angibt. Dies ist aber nur die Maximalgröße. Die Datei selber ist nur so groß, wie deren Inhalt und vergrößert sich mit der zunehmenden Belegung. Allerdings verkleinert sich die Größe nicht, wenn man zum Beispiel etwas löscht.

Hiermit geht ein Performanceverlust von 1-2% einher, was letztlich schwerlich eine Rolle spielt. Spielte es eine Rolle, wäre eine Virtualisierung sowieso eher nicht der geeignete Ansatz.

Damit kann man letztlich also das Festplattensystem mit mehr virtuellem Festplattenplatz belegen, als physikalisch vorhanden ist. Natürlich muss man sein System im Auge behalten (Monitoring).

Die einzelnen Virtualisierungen kann man natürlich jeweils auch mit mehreren virtuellen Festplatten ausstatten. Diese werden dann wie bei einem physikalischem Rechner als Laufwerke mit Laufwerksbuchstaben eingebunden.

Es empfiehlt sich, einen einzelnen virtuellen Rechner derart zu gestalten, dass man im Ergebnis die virtuellen Festplatten danach belegt, wie schnell die Daten jeweils sein müssen. Also zum Beispiel eine vDisc für das System und eine für Daten. Oder auch zwei für Daten, nämlich zum Beispiel eine für Daten wie Office-Dokumente und eine für Datenbankdaten oder andere Daten, auf die ein schneller Zugriff nötig ist. Dann kann man nämlich die einzelnen virtuellen Laufwerke auf die jeweils für diesen Zweck passenden physikalischen Festplattensysteme legen.

Dies empfiehlt sich auch dann zumindest zu überlegen, wenn zunächst kein Bedarf dafür vorzuliegen scheint. Wie zum Beispiel hier, da sowieso alles auf einem RAID5 aus SSDs kommt. Im Laufe des weiteren Betriebes kann sich dies nämlich ändern. Dann kann man das System um entsprechend geeignete physikalische Festplattensysteme ergänzen und die jeweils dazu passenden virtuellen Festplatten einfach dahin verschieben, wo sie am besten hinpassen.


7.iv) Sonderfall virtualisierte Domänencontroller

Bei der Virtualisierung eines Domänencontroller muss man beachten, dass Windows standardmäßig den Domänencontroller als Zeitgeber für andere Domänenmitglieder nutzt, der sich dann wieder gegen den Host synchronisiert. Aus Verwaltungsgründen empfiehlt es sich aber, auch den Host zum Domänenmitglied zu machen. Dieser würde sich als solches wieder gegen den Domänencontroller synchronisieren. Das kann zum einen zu falschen Zeiten im System und im Weiteren auch zu einer Endlosschleife beim Starten des Hosts führen. Also muss die Grundeinstellung beim Host geändert und dieser gegen eine andere Zeitquelle synchronisiert werden.

Wird mit mehreren Domänenservern gearbeitet, zum Beispiel einem Failovercluster, ergeben sich weitere Problemstellungen, die hier aber außen vor bleiben. Kurz aber: es empfiehlt sich dann, einen der Domänenserver physikalisch zu betreiben sowie das AD, sofern ansonsten eine imagebasierte Sicherung genutzt wird, separat mit anderen Mitteln zu sichern. Snapshots von Virtualisierungen sowie sämtliche anderen vergleichbaren Techniken beinhalten dann gleichsam hohe Risiken, mit denen man sich auseinandersetzen muss. Stichworte: USN-Rollback und split-brain.


7.v) Stromspareinstellungen

Leider wird viel zu häufig empfohlen, Stromsparmechanismen im Bios und Betriebssystem zu deaktivieren. So auch zum Beispiel von den Herstellern der hier betriebenen Datenbanksysteme.

Ich halte das für kontraproduktiv. Denen geht es lediglich um ihre eigenen Interessen und eine Entlastung ihres Supportes. Auch hat sich die Technik massiv weiterentwickelt - solche Ratschläge sind einfach nur alte Zöpfe, die abgeschnitten gehören.

Eine bessere Empfehlung sehe ich darin, zunächst einmal alle zu aktivieren. Zeigen sich im Betrieb dann Performanceeinbußen, kann man die Einstellungen testweise deaktivieren. Sollte sich keine Besserung zeigen, dann bitte wieder aktivieren und sich auf die Suche nach anderen Gründen für die Performanceeinbußen begeben.

Nachtrag: Im Produktivbetrieb hier sind alle Stromspareinstellungen aktiv und es ist zu keiner Zeit spürbar. Alles läuft rund und flüssig, soweit dies hardwareabhängig ist.

8) Worklogs, Burn-Ins und Tests


8.i) Der Sicherungsserver


BS links.jpg

Lüftersteuerung: 7V fix (so im Produktiveinsatz vorgesehen)
Stressprogramm: Prime95 (maximum heat)
Umgebungstemperatur: leider unbekannt, gut beheiztes Büro, Thermostat auf 20°C

Lüfteranordnung

Netzteillüfter: 135mm, ca. 195rpm
Lüfter vorne: 2x140mm
Lüfter hinten: 1x140mm
CPU-Lüfter: keiner (semi-passiv)

Lüftersteuerung (Gehäuse)

5V: ca. 450 rpm
7V: ca. 580 rpm (Standard im Produktivbetrieb)
12V: ca. 950 rpm

Anmerkungen

Das Stressprogramm ist synthetisch. Es belastet den Rechner deutlich stärker, als selbst die leistungshungrigste Anwendungssoftware dies könnte.

In allen Tests wurde der Turbo voll und dauerhaft ausgeschöpft.

Da Hardwaremonitor das Board nicht erkennt, wurde mit einer Software gemessen, die zum Lieferumfang des Mainboards gehört.

Akustik: Abends gegen 20:00, alle anderen Geräte, auch Drucker und Licht, ausgeschaltet. Fenster und Türen geschlossen. Rechner mit einer Festplatte auf dem Tisch, Sitzabstand ca. 50 cm: nicht wahrnehmbar. Ohr direkt am Rechnergehäuse: minimale Geräusche, eher ganz leichte Vibrationen, wahrnehmbar. Vorgesehene Einsatzposition: unter dem Schreibtisch. Einbau aller drei Festplatten: auf dem Tisch wie oben beschrieben wahrnehmbar. Unter dem Tisch nicht wahrnehmbar. Auf dem Boden, nicht aber unter dem Tisch: manchmal wahrnehmbar – abhängig von der Güte des Gehörs, Umgebungsgeräuschen und der Festplattenaktivität (tagsüber: Sleep, Sicherungen laufen nachts).

Ergebnisse nach ca. 22 Stunden:

PECI: 52°C
Graphics: 27°C
Ambient: 25°C
Core: 64°C
Memory: 27°C
PCH: 31°C​

Weitere Tests:

Nachfolgende Tests liefen jeweils für ca. 30 Minuten bei weiter laufendem Prime95 maximum heat. Die Ergebnisse werden, bis auf die letzten beiden, jeweils als Abweichung von obigen Werten angegeben.


Lüfterausfall vorne untenLüfterausfall vorne obenLüfterausfall vorne beideLüfterausfall hinten (*)Lüfter auf 12VLüfter auf 5Vnach 10 Minuten IDLE bei 7Vwährend Virenscan 40% CPU-Last
PECI:+1°C+0°C+2°C+34°C-4°C+7°C25°C25°C
Graphics:+2°C+1°C+3°C+3°C-0°C+2°C26°C26°C
Ambient:+0°C+0°C+0°C+2°C-0°C+1°C25°C24°C
Core:+2°C+1°C+3°C+17°C-2°C+5°C32°C32°C
Memory:+1°C+1°C+2°C+5°C-0°C+3°C26°C25°C
PCH:+2°C+1°C+2°C+5°C-0°C+0°C30°C35°C

(*): Abbruch Lüfterausfall hinten nach ca. 15 Minuten. Tendenz war langsam weiter ansteigend. Allerdings wurde der Turbo noch weiter voll ausgeschöpft, was zeigt, dass noch alles in Ordnung war und die CPU voll innerhalb guter Spezifikationen lief. Ich wollte lediglich die Hardware nicht unnötig stressen. Unter normaler, also nicht synthetischer Volllast sehe ich auch hier kein Problem, zumal hier später ein Pentium rein kommt. Man kann natürlich gleichsam noch einen Lüfter auf dem CPU-Kühler montieren - es wären sogar welche übrig (Gehäusezubehör). Mach ich dieser Tage noch - dann habe ich maximale Kühlungsredundanz.

Temperaturen im Produktivbetrieb beim IDLEn tatsächlich noch etwas niedriger (1° bis 3°C), selten steht eine 3 am Anfang. Muss also hier noch etwas aufgeheizt gewesen sein. Vielleicht war die Umgebungstemperatur nach 25h Prime95 maximum heat noch erwärmt oder generell der jetzige Aufstellungsort etwas kühler (Mikroklima), vielleicht auch dadurch, dass der Rechner jetzt auf dem Boden und nicht auf dem Tisch steht.

Bisher keine Auffälligkeiten im Produktivbetrieb.


8.ii) Der Produktivserver


erster Testaufbau

linke Seite.jpg rechte Seite.jpg

Wie man auf den beiden obigen Bildern sieht, ist das Ganze recht übersichtlich. Man hat Platz zum Arbeiten. Die Kühlung ist schnell erfasst - die viel kritisierte Farbe der Noctua-Lüfter macht hier Sinn. Die Kabelverlegung kommt komplett ohne Kabelbinder aus. Es finden nur die zum Gehäuse und dem Netzteil gehörenden Klettverschlüsse Verwendung. Dadurch lässt sich leicht etwas ändern. Dies Kabel lassen sich gut differenzieren. Der Aufbau ist insgesamt gut nachvollziehbar und sollte auch für Dritte beherrschbar sein.

Die beiden kleinen SSDs auf der Rückseite (rote Kabel) bilden einen RAID1 am Mainboard. Die 4 größeren SSDs in den Frontschächten (blaue Kabel) bilden einen RAID5 am Hardware-RAID-Controller. Unter Windows 10 wurden beide bei der Installation sofort erkannt.

Aktuell ist ein Windows 10 Professional als erste Testgrundlage installiert. Bis auf Nachfolgendes läuft alles wunschgemäß - daher erst mal Konzentration auf alles, was zu lösen ist:

1) Controller-Temperaturen
Der RAID-Controller ist mir noch viel zu heiß.
Lüfter auf 50%: 79°C
Lüfter auf 70%: 74°C (und zu laut)
Also habe ich einen Noctua NF-A6x25 FLX 60mm bestellt mit der Absicht, diesen direkt auf dem Kühlkörper des Controllers zu montieren: 12,00€.
Ergebnis: Temperaturen runter auf 46°C. Na Immerhin. Die Kühlkörper sind halt echt Mist. Ich probier noch aus, ob ich den Lüfter weiter aufdrehen kann, ohne das er hörbar wird. Den Lüfter ergänze ich in obiger Einkaufsliste.

2.) SSD-Temperaturen
Die beiden SSDs für das System (rote Kabel) zeigen 34°C. Wenn es im Sommer dann 10° wärmer ist, wären 44°C zu erwarten. Das ist suboptimal - vor allem bei der angedachten Betriebsdauer. Insofern werde ich die beiden SSDs wohl auch nach vorne legen.
Ergebnis: auch nicht viel besser, es werden 32°C gemessen. Die anderen Festplatten werden vom RAID-Controller mit 29°C angegeben, was dann auch hier eher realistisch wäre. Aber so oder so, der Unterschied ist nicht allzu groß, dürfte letztlich nicht viel ausmachen. Da sie jetzt aber vorne drin und etwas kühler sind, bleibt es so.

3.) interner USB 2.0
Leider kämen sich eingesteckte Dongles mit dem RAID-Controller in die Quere. Also habe ich ersatzweise einen anderen DeLOCK extern/intern USB 2.0-Konverter bestellt, bei dem die USB-Ports nicht gewinkelt abgehen: 7,00 €.
Ergebnis: passt jetzt - Einkaufsliste entsprechend geändert.

4.) QPI-Fehler
Weder im Bios noch unter Windows wird die zweite CPU mit ihren 32GB RAM erkannt. Das Mainboard meldet als Fehlercode AA, was ein QPI-Fehler ist (über QPI kommunizieren die beiden Prozessoren miteinander). Es leuchtet insofern auch die LED des Mainboards auf, die einen schwerwiegenden Fehler signalisiert. Die beiden LEDs, die laut Handbuch aufleuchten würden, wäre eine der CPUs defekt, leuchten beide nicht auf. Zuvor hängt es gelegentlich auch bei Statuscode B7 - AA kommt erst, nachdem das Betriebssystem gestartet ist.

Da ich sowieso noch bestimmte Tests und Arbeiten vor mir habe, stört das den weiteren Ablauf erst mal kaum. Außerdem ist das insofern nicht unwillkommen, als dass dies eine Übung für spätere Störfälle darstellt. Das Bios werde ich hierbei auch kennen lernen. Es ergeben sich ggf. Hinweise, ob man etwas servicefreundlicher gestalten kann. Stress gibt es auch nicht - wir haben massig Zeit, das alte System läuft ja. Konzeptionell bedingt ist definitiv auch alles da, was benötigt wird.

Es folgen also Kreuztests im Rahmen der weiteren Arbeit:

a) Netzteiltausch
Unwahrscheinliche Ursache, aber den will ich zumindest sowieso einmal geprobt haben. Da das Netzteil vollmodular ist, sollte das in wenigen Minuten erledigt sein. Anschließen wird noch das Stromkabel der CPU2 getauscht - das gibt Aufschluss, wie servicefreundlich die Kabel verlegt sind.
Ergebnis: Wie erwartet keine Besserung. Aber Erfahrung: Netzteil- und Kabeltausch geht richtig schnell und einfach. Sehr servicefreundlich.

b) CPU- und RAMtausch
Die nicht erkannte CPU2 wird auf Sockel1 montiert und in die passenden RAM-Steckplätze kommt der gesamte Arbeitsspeicher von 64GB. Danach sollte erst mal klar sein, ob die zweite CPU überhaupt funktioniert und ob der RAM auch komplett funktioniert bzw. erkannt wird.
Ergebnis: CPU2 funktioniert in Sockel1 mit den kompletten 64GB RAM. Allerdings nicht auf Anhieb, ein Reset war nötig (Fehler B7: RAM-Initialisierung). Aber dann lief es.
Ich hab dann die andere CPU auch wieder eingebaut und den RAM umgesteckt - weiter QPI-Fehler. Auch nachdem ich nochmal die Bios-Defaults geladen habe. Gleichsam mit nur einem RAM-Riegel pro CPU. Also weiter mit Schritt C.
Weitere Erfahrungen: Dank der sehr guten Sockel der Noctua-Kühler gestaltet sich auch ein CPU-Tausch sehr einfach. Auch ansonsten angenehmes Arbeiten. Zwei RAM-Plätze werden von den CPU-Lüftern blockiert. Da diese aber leicht demontiert werden können, geht das in Ordnung. Nicht ideal - aber die Kühlleistung trumpft hier.


c) Mainboardtausch
In der Form, dass das produktive Ersatzteillager gebaut wird und da dann testweise beide CPUs eingebaut werden.
Ergebnis: Der RAM wird nicht erkannt, Fehlercode B7 (RAM-Initialisierung). Kein Bild.
Letzter Test: die CPUs noch mal gegeneinander getauscht: siehe da - Fehlerbild jetzt genau umgekehrt, das produktive Ersatzteillager startet und der Produktivserver nicht mehr - mit Code B7.
Damit haben wir wohl einen klaren Sieger: CPU2 hat einen weg, vielleicht der Speichercontroller. Dann mal Retour ...
Weitere Erfahrung: Im produktiven Ersatzteillager habe ich den CPU-Kühler quer verbaut, also mit Blasrichtung der Lüfter nach hinten. Mit dieser Orientierung bleiben alle RAM-Bänke frei. Bei Gelegenheit mal testen, ob dies mit zwei verbauten CPUs dazu führte, dass die Zweite wärmer - bzw. wie viel wärmer sie - würde.
Das Konzept hat hier direkt am Anfang auch bereits einige seiner Stärken ausgespielt. Durch das produktive Ersatzteillager ist das an Material vorhanden, was für Kreuztests zur Identifizierung von Fehlerursachen benötigt wird. Und: der Produktivserver soll ja sowieso erst mal mit nur einer CPU sowie 64GB RAM an den Start gehen. Insofern kann ich damit weitermachen. Der Hardwareausfall hat keinen Einfluss auf die Produktivität.



Aufbau für den Produktiveinsatz

produktiv.jpg

In den Produktiveinsatz soll der Server ja erst mal mit nur einer CPU sowie 64GB RAM. Auf dem RAID5 befinden sich dann testweise auch aktuelle Virtualisierungen der derzeit noch physikalisch betriebenen Server. Auf dieser Grundlage finden die nachfolgenden Tests statt. Bilder folgen noch.

Lüftereinstellungen:

CPU: 2*55% (~ 1130 rpm)
Front: 2*55% (~ 870 rpm)
Controller: 85% (~ 2750 rpm)
Rear: 55% (~ 1200 rpm)​

Während des Bürobetriebes unter dem Tisch stehend war der Rechner so nicht hörbar. Später soll er auf dem Tisch im Serverraum stehen und kann ruhig leicht hörbar sein. Das Feintuning wird dann erst vorgenommen.

Einzig CoreTemp hat die CPU-Sensoren auslesen können. Hiervon wird jeweils der heißeste Kern genommen. Außentemperatur war laut (günstigem) Thermometer, welches im Lufteingang hing, schwankend zwischen 22 und 24°C. Prime95 maximum heat lief zunächst einmal für ca. 22 Stunden, dann bei weiter laufendem Prime nacheinander die Lüfter abgezogen und jeweils ca. 10 Minuten gewartet und gemessen. Dann 15 Minuten IDLE und dann der Virenscan auf allen drei Virtualisierungen gleichzeitig (also Maximallast, Minimallast und mittlere Last).

Temperaturen

CPU-Z.JPG CPU-Z IDLE.JPG Virenscan CPU-Z.JPG


PRIME 95IDLEVirenscan
auf den 3 VMs
CPU48°C24°C33°C
Controller48°C46°C47°C
SSDs RAID147°C32°C32°C
SSDs RAID534°C32°C33°C



Lüfterausfälle


PRIME 95CPU-Lüftervorne untenvorne obenvorne beidehinten
CPU48°C+6°C+2°C+2°C+2°C-1°C
Controller48°C+0°C+1°C+0°C+3°C+0°C
SSDs RAID132°C+0°C+2°C+0°C+3°C+0°C
SSDs RAID534°C+0°C+6°C+0°C+6°C+0°C

Nachtrag: Im Produktivbetrieb an den heißesten Tagen in 2016 lagen die Temperaturen der CPU während normalem Tagesbetrieb zwischen 33 und 36°C.

Derzeit ist das Gehäuse oben offen. Wenn man das lieber zu haben möchte, zum Beispiel weil kein extra Raum für den Server zur Verfügung steht, sollte man hinten ausblasend einen weiteren Noctua nehmen und auf ca. 40% einstellen. Kann sein, dass ich das noch mache.

Die Werte sind soweit hübsch stabil. Nicht getestet habe ich hier den Lüfterausfall des Controllers - aber darüber lagen ja schon Werte vor. Das geht dann Richtung 80°C beim Controller. Die sind zwar gebaut für den Betrieb mit hohen Temperaturen - aber dabei wird standardmäßig in den Dimensionen von 5 Jahren gedacht. Hier schaffte einzig ein besserer Kühlkörper Abhilfe. Das behalte ich mal im Hinterkopf, vielleicht findet sich was. Dass die Dinger flach sein sollen, ist ja verständlich. Aber ein bisschen mehr Fläche wäre wünschenswert. Aber unter 50°C ist wahrscheinlich dann bereits eines der kühlsten im Einsatz befindlichen Exemplare.

Vom Hersteller habe ich auf Anfrage folgende interessante Info erhalten:

1. Die Junktion Temperatur ist 115°C. Diese sollte nie erreicht werden, da eine Sperre in die Firmware eingebaut ist, die bei höhere Temperatur, ca. 90°C und höhere erst den FastPath abschaltet und dann den zweite Core von der Controller CPU(3108 Chip). Dabei sollte Sie schon erheblich Geschwindigkeitseinbusen bemerken. Performance Verlust.
2. Der Luftstrom soll 200 Linear Feet Per Minute betragen. Das ist die Angabe von den Entwicklern. Wird bei Ihnen der Kühlkörper zu warm, so ist der Luftstrom nicht gewährleistet und ein zusätzlicher Lüfter wird benötigt.

Cinebench.JPG Atto.JPG

Im Bios gibt es noch leistungsteigernde Features, die ich mir noch anschauen werde. Es wird ausdrücklich im Bios auf die Abhängigkeit zu guter Kühlung und stabilem Strom hingewiesen. Na, da hab ich keine Sorge. Mehr Turbo wäre was nettes, mal sehen, was da kommt. Ausprobieren wahrscheinlich aber erst, wenn das produktive Ersatzteillager fertig ist - und dafür warte ich ja noch auf den Ersatz der CPU.

Festplattenausfälle

Im Weiteren habe ich Simulationen von Festplatten- bzw. hier SSD-Ausfällen durchgeführt - also ein Laufwerk jeweils entfernen (einfach SATA-Kabel ziehen) und die Reaktionen des Systems überwachen, das Laufwerk wieder hinzufügen und den Rebuild anstoßen/überwachen.

Hierbei ist es wichtig, dass man die Laufwerke zuordnen kann. Der Controller gibt den Laufwerken jeweils eine Nummer - und man sollte wissen, welches Laufwerk zu dieser Nummer gehört, damit man direkt wüßte, welches Laufwerk auszutauschen wäre. Das Laufwerkskabel für den LSI-Controller unterteilt sich in 4 SATA-Kabel, die bereits ab Werk mit den Nummern 1-4 markiert sind. Im Controller werden die entsprechenden Laufwerke aber von 0 bis 3 durchgezählt. Meldet der Controller also, Laufwerk 3 sei ausgefallen, ist dies die SSD, die an Kabel 4 hängt. Am RAID-Controller des Mainboards habe ich einfach durch try&error die Zuordnung von SSD zu Laufwerksnummer ermittelt und das Kabel entsprechend markiert. Die Laufwerke sind so verbaut, dass jeweils die niedrigere Nummer unten liegt.

Damit ist alles bestens vorbereitet, um bei einem echten Laufwerksausfall handlungsfähig zu sein. Wer wenig Erfahrung mit so etwas hat, sollte durchaus mehrere Durchläufe des simulierten Festplattenausfalles durchführen und sich Notizen und Screenshots anfertigen.

Obiger Sreenshot des Festplattenbenchmarkes Atto war mit der Controllereinstellung "Always Write Back", was bedeutet, dass der Cache des Hardwarecontrollers beim Schreiben genutzt wird. Das kann bei einem Systemausfall aber dazu führen, dass Daten zerstört werden, da diese noch nicht vollständig vom Cache auf die SSDs geschrieben wurden (Dateninkonsistenz). Man müsste also auf eine Datensicherung zurückgreifen und die Arbeit seit der letzten Sicherung wiederholen. Dies kann man zum Beispiel mit einer zusätzlichen Batterie (BBU = Battery Backup Unit oder einer ähnlichen Lösung) abfangen, die dafür sorgen würde, dass der Schreibprozess autark abgeschlossen würde. Das ist aber nicht ganz billig und bedeutet Wartungsaufwand.

Ein Test mit der Einstellung "Write Through", also ohne Nutzung des Caches beim Schreiben, zeigt auf, dass die Leseleistung etwas schneller (wahrscheinlich, da hierfür jetzt mehr Cache zur Verfügung steht), die Schreibleistung aber inkonsistenter und bis zu ca. 30% langsamer ist. Abhängig von der Dateigröße, wobei die stärksten Einbußen bei Dateigrößen liegen, die bei uns eher nicht vorkommen (Bei uns sind wohl eher nur 5 bis 10% Reduzierung vorhanden). Auch reicht die Schreibperformance für uns immer noch völlig aus, ich erwarte keinen spürbaren Unterschied. Datensicherheit und Leseleistung ist hier sehr wichtig, also ist dies die passende Einstellung. Wollte ich mehr Schreibleistung haben, wäre in hiesigen Fall die Ergänzung des RAIDs um eine weitere SSD billiger, schneller und wartungsärmer als eine BBU.

Diese Konfiguration passt hier auch sehr gut mit den SSDs zusammen. Die haben ebenfalls einen Cache. Hier könnte das gleiche Problem entstehen. Da die hier zum Einsatz kommenden Modelle aber einen solchen "Batterieschutz" in Form von Kondensatoren bereits verbaut haben ("Data loss Protection"), ist das auf dieser Ebene abgefangen. Ein Systemabsturz kann hier schwerlich zu einer Beschädigung von Daten, vor allem Dantenbankdaten, führen. Hätten die SSDs eine solche Funktion nicht, stellte sich die Frage, ob die Abschaltung des Schreibcaches oder eine BBU überhaupt Sinn ergäbe. Oftmals reicht zur Absicherung aber auch bereits eine USV.

Jedenfalls haben wir lesend 5GB Cache und schreibend immer noch 3GB.

Schlusslicht:
Das Fenster im Gehäuse in Kombination mit der LED-Statusanzeige ist wirklich klasse. Mehrere andere LEDs geben weiteren Aufschluss. Hilfreich bei Störungsbeseitigung. Später im Produktivbetrieb werden die entsprechenden Seiten des Handbuchs gut sichtbar platziert - zum Beispiel an die Wand gehangen. Die Sichtinspektion wird gleichsam damit sehr einfach und dennoch sehr aussagekräftig.

Status.jpg
 
Zuletzt bearbeitet:
8.iii) Das produktive Ersatzteillager

Das Thema kürze ich an dieser Stelle brutal ab, da bereits weiter oben viel darüber geschrieben wurde. Die zweite CPU war ja DOA, also bereits bei Ankunft defekt, die neu bestellte CPU ebenfalls, erst die Dritte funktionierte. Das war insofern kein Problem, da der Produktivbetrieb nicht aufgehalten wurde. Das produktive Ersatzteillager hat sich hier also direkt am Anfang schon bewährt. Jetzt verrichtet es seinen Dienst als normaler Client.

9) Die kleine Firma

9.i) Server

Der Unternehmer hatte sich umentschlossen und möchte nun einen komplett neuen Server einsetzen. Als Grundlage hierfür dienen größtenteils die Bauteile, die auch im Sicherungsserver der größeren Firma zur Anwendung kommen, so dass hierüber Verfügbarkeit sicher gestellt werden kann. Insofern gibt es da aber nicht viel Neues zu berichten, es kann Bezug genommen werden zu den Ergebnissen weiter oben zum Sicherungsserver.

Zunächst einmal die Bauteile:

2 Samsung SSD SM863a 480GB im RAID1
1 Intel Xeon E3-1245 v5, 4x 3.50GHz
2 Samsung DIMM 16GB, DDR4-2133, CL15-15-15, ECC
1 Fujitsu D3417-B
1 ASUS DRW-24D5MT
1 DeLOCK extern/intern USB 2.0-Konverter
1 Nanoxia 3-Pin Lüfter Y-Kabel 60cm, sleeved schwarz
4 Noctua NF-A14 FLX, 140mm
1 Thermalright Macho Rev. B
1 BitFenix Alchemy 2.0 Magnetic 12cm, 6 LED weiß
1 Fractal Design Define R5 Black, Acrylfenster, schallgedämmt
2 BitFenix Alchemy 4-Pin Molex auf 3x 3-Pin 7V Adapter 20cm, sleeved schwarz/schwarz
1 Seasonic Platinum Series Fanless 400W ATX 2.3
1 InLine Frontpanel Staubschutz-Set

Erfahrungen:

Zuvor gab es zwei physikalische Server, die nun beide virtualisiert sind. Im IDLE zieht der Server 16 Watt, gemessen an der Steckdose, also inkl. Verlust des Netzteiles. Im vollen Betrieb (4-5 Mitarbeiter) liegt die Auslastung im Bereich von 10% bis 12%. Dabei zieht der Server um die 20 Watt aus der Steckdose. Hervorragend. Der Onboard-Controller für den RAID1 arbeitet auch sehr gut, insofern er ebenfalls lesend quasi als RAID0 arbeitet, also extrem schnell. Die Performance an den Arbeitsplätzen wurde von den Mitarbeitern als deutlich schneller denn zuvor empfunden, bzw. als perfekt.

9.ii) Die Clients

Die Arbeitsplätze werden auch ausgetauscht. In der großen Firma wird sukzessive das Gleiche umgesetzt. Hier zunächst die Geräte pro Arbeitsplatz:

1x Zotac ZBOX Pico PI335 + Windows 10 (ZBOX-PI335-W3B)
2x Dell UltraSharp U2415, 24.1" (860-BBEW/210-AEVE)

Meist werden für Remote-Desktop ThinClients eingesetzt. Dabei hat dieser keine eigene Festplatte. Er zieht sich ein Linux-System über das Netzwerk beim Booten. Dies erfordert serverseitig eine dazu passende Installation. Gleichzeitig hat man ein Linux als Grundlage. Neben dem Nachteil der zusätzlichen Serverinstallation gibt es diverse Schwierigkeiten bei den Clients. So funktionieren an der Maus zum Beispiel die Vor- und Zurücktasten nicht, das Einbinden von Monitoren kann grausam sein und ist gerne ohne spezielles Fachwissen nicht handhabbar. Auch hat man keine Garantie, dass höhere Funktionen wie Remote-FX sauber funktionieren. Das Argument für diesen Mist ist, dass es ja günstiger sei, da man keine Betriebssystemlizenz kaufen müsse.

Bereits in der Anschaffung sind die ThinClients aber teuer als oben gezeigter Client - bei gleichzeitig schlechterer Ausstattung. Und das Betriebssystem, hier ein Windows 10 Home, ist bereits enthalten. Ein Professional braucht es an dieser Stelle nicht, da der Client ja gar nicht in die Domäne eingebunden werden muss. Er dient ja nur als Konsole, um sich remote anzumelden. Im Weiteren gibt es im Vergleich zu klassischen ThinClients wesentlich weniger Verwaltungsaufwand und kein Bedarf an Spezialwissen. Auch werden weniger Sicherheitslücken erzeugt. Alles funktioniert Plug&Play out of the box, alle Funktionen werden unterstützt. ThinClients sind dagegen absoluter Müll, der extrem teuer werden kann. Bloß nicht machen!
 
Zuletzt bearbeitet:
10. Andere Beispiele in Kürze

i. ein anderer Doppelserver


Kleine Büroumgebung mit zwei Arbeitsplätzen, soll auf 5 anwachsen. Bisher kein Serverbetriebsystem und ein Rechner ist nicht dedizierter quasi-Server - er dient also sowohl als Arbeitsplatzrechner und auch als Server. Die Arbeitsplätze müssen flexibel sein und per VPN Remote Desktop genutzt werden können.

In einem ersten Schritt soll die Serverfunktionalität zumindest per Virtualisierung abgetrennt werden. Später dann vollständig auf einen dedizierten Server mit Serverbestriebssystem und Terminalserver umgestellt werden. Zur Datensicherung soll ein quasi baugleicher Rechner verwendet werden. Dieser dient damit auch gleichzeitig als Ersatzteillager. Im weiteren kommt noch eine Videoüberwachungsanlage für den Gebäudekomplex hinzu. Dies soll ebenfalls über den Sicherungsserver laufen. Angesetzte Laufzeit sind 10 Jahre.

Einkaufslisten

Außerhaussicherung:

1 StarTech USB-B 3.1 Gen2 Enclosure, 3.5", USB-B 3.1
1 Western Digital WD Gold 2TB, 3.5", 512n, SATA 6Gb/s
Wegen USB 3.1 braucht es dann keine separate Stromversorgung, so dass also einfach angesteckt und abgezogen werden kann. Notebookformat ist überflüssig, da der Unternehmer im gleichen Gebäudekomplex wohnt. Die 3,5"-Festplatte ist schneller - und das gleiche Modell kommt im Server zum Einsatz, so dass hiermit noch ein Ersatzlaufwerk vorhanden ist.

Server:

2 Western Digital WD Gold 2TB, 3.5", 512n, SATA 6Gb/s
im RAID1
2 Samsung SSD SM863a (OEM) 240GB, SATA
im RAID 1
2 DeLOCK SATA Kabel rot 0.5m, gerade/gerade
Beim Mainboard sind zwar genug SATA-Kabel vorhanden. Hübscherweise auch in schwarz. Aber die Systemlaufwerke grenze ich gerne optisch ab - mit farbigen Datenkabeln.
1 LiteOn iHAS124 schwarz, SATA, bulk
2 Kingston ValueRAM DIMM 8GB, DDR4-2400, CL17-17-17, ECC
1 ASUS P10S WS
1 Intel Xeon E3-1245 v6, 4x 3.70GHz, boxed
1 Thermalright Macho Rev. B
1 Noctua NF-A15 PWM, 140mm
Als Ersatz für den Lüfter des CPU-Kühlers. Besonderheit beim Einbau: Damit die Lüfterklammern den Lüfter vernünftig halten, müssen die Antivibrationspads, die beim CPU-Kühler dabei sind, doppelt genommen werden (es sind genug im Lieferumfang).
3 Noctua NF-S12A PWM, 120mm
vorne einblasend, gesteuert über den LüfterHub des Gehäuses
2 Diverse SATA-Stromadapter 4-Pin (IDE) auf 15-Pin (SATA)
Die Verkabelung lässt sich hier sauberer lösen, wenn man DVD-Laufwerk und LüfterHub über einen der IDE-Stränge des Netzteiles und dann je einen solchen Adapter versorgt. Achtung: Grundsätzlich nie zu schlechte/billige Kabel nehmen und leistungshungrige Komponenten möglichst nicht mit Adaptern ansteuern.
1 BitFenix Alchemy 2.0 Magnetic 12cm, 6 LED weiß
Zur Vereinfachung von Serviceaufgaben.
1 Fractal Design Define R6 Black, schallgedämmt (FD-CA-DEF-R6-BK)
Diesmal ohne Sichtfenster, da der Rechner nicht in einem separaten Raum steht und lieber unauffällig sein soll.
1 Seasonic Platinum Series Fanless 400W ATX 2.3 (SS-400FL2)
1 Noctua NF-A12x15 PWM, 120mm
Passives Netzteil - mit aufgeschnalltem Noctua-Lüfter zur Unterstützung der Langlebigkeit.

Sicherungsserver:


2 Western Digital WD Red 3TB, 3.5", SATA 6Gb/s
für die Datensicherung (bereits vorhanden)
1 Western Digital WD Purple 4TB, SATA 6Gb/s
für die Videoünberwachung
1 Samsung SSD SM863a (OEM) 240GB, SATA
1 DeLOCK SATA Kabel rot 0.5m, gerade/gerade
1 LG Electronics GH24NSD1 schwarz, SATA, bulk
2 Kingston ValueRAM DIMM 8GB, DDR4-2400, CL17-17-17, ECC
Die Baugleichen Riegel wie im Server können ggf. auch zur Aufrüstung des Servers herangezogen werden. Ob die in Vollbestückung laufen, wird natürlich validiert. Später gekaufte Rigel könnten ggf. mit den im Server verbauten nicht zusammenlaufen. Dieses Risiko ist damit ausgeschlossen.
1 ASUS P10S WS
1 Intel Xeon E3-1225 v6, 4x 3.30GHz, boxed
1 Thermalright Macho Rev. B
1 Noctua NF-A15 PWM, 140mm
3 Noctua NF-S12A PWM, 120mm
2 Diverse SATA-Stromadapter 4-Pin (IDE) auf 15-Pin (SATA)
1 BitFenix Alchemy 2.0 Magnetic 12cm, 6 LED weiß
1 Fractal Design Define R6 Black, schallgedämmt
1 Seasonic Platinum Series Fanless 400W ATX 2.3
1 Noctua NF-A12x15 PWM, 120mm

Under Construction. Nur erste Bilder.

links.jpg vorne.jpg rechts.jpg

up and running
Läuft.jpg

20h Stresstest / Burn in
Stresstest.jpg

Disc Benchmarks
Disc Benchmarks.jpg

PcMark 8
PCMark 8.jpg

PcMark 10
PCMark 10.jpg

23h MEMtest mit allen 4 Arbeitsspeicherriegeln
MEMtest.jpg

und zur IT gehört auch Dokumentation :-)
Dokumentation.JPG

Praxiserfahrung:

Auch hier hat sich das Prinzip des produktiven Ersatzteillagers bewährt. Eine der HDDs hat sich mit zunehmender Häufigkeit aus dem RAID verabschiedet. Ersatz war ja da (die Festplatte für die Außerhaussicherung), die Festplatte wurde getauscht, seit dem keine Störung mehr. Damit ist auch die Störungsursache für den Umtausch der Festplatte eindeutig geklärt.
 
Zuletzt bearbeitet:
Hallo
Der Einsatz von Acronis (inkrementelle Sicherung sowie Einstellung der Ressourcennutzung) reduziert die Netzwerklast weiter massiv – bisher gibt es Telefonstörungen, wenn die Sicherungen beginnen. Die Sicherungen dauern auch viel zu lange.
Jaja Acronis ein Fluch und Segen... Ich hatte nur Probleme mit dem Programm unter windows ist es noch halbwegs brauchbar, unter OSX kann mann es gleich vergessen...

Im Weiteren werden die beiden Unternehmen zur Außerhaussicherung zukünftig gegeneinander gesichert. Ggf. auch Online, VPN zwischen den Unternehmen besteht.
Spannend sozusagen spiegeln sich die Sicherung Server gegenseitig. Wie hoch ist da das anfallende Datenvolumen? und wie Hoch der Jeweilige Upload? ( gut bei firmen abos eher weniger das Problem als bei Privatkunden da wird ja meistens am Upload gespart.:mad:
Läuft da die Sicherung 1:1?
 
Meine Erfahrungen mit Acronis waren bisher positiv - aber natürlich auf Windows beschränkt. Ich kann mir aber vorstellen, dass es je nach Einsatzumgebung auch andere Erfahrungen gibt.

Wie hoch das tägliche Gesamtvolumen bei inkrementeller Sicherung sein wird, kann ich noch nicht sagen, da Acronis bisher nur auf dem Terminalserver läuft. Dort sind es zwischen 1 und 2 GB. Wobei das wirklich nur der reine Terminalserver ist - selbst Benutzerprofilordner sind ja umgeleitet. Insofern hat das wenig Aussagekraft.

Das Gesamtvolumen in der größeren Firma sind 320GB, in der Kleineren 180GB. Und die werden derzeit täglich mit Windows Serversicherung komplett gesichert, was natürlich lange dauert und damit fehleranfällig ist - das Netzwerk ist ja auch nicht das Beste ...

Es kann gut sein, dass ich die Windowssicherung parallel beibehalte - zumindest vorrübergehend wöchentlich sowieso. Alles weitere muss sich dann in der Praxis beweisen.
 
Zuletzt bearbeitet:
Die Windowssicherung kannst du doch ohnehin laufen lassen, wenn das Büro/die Büros dicht sind, oder? Vor allem da es eine zusätzliche Sicherung ist, muss man's nicht direkt 18 Uhr machen sondern kann zur Sicherheit auf Mitternacht warten oder so. (weiß ja nicht inwiefern es bei euch auch abweichende Arbeitszeiten gibt)
 
Das werde ich auch wie gesagt erst mal machen, aber nur wöchentlich. Das dauert einfach zu lange und es müssen dafür auch Dienste abgeschaltet werden. Die Arbeitszeiten sind hier sehr unterschiedlich - kann sich jeder frei gestalten und auch von zu Hause aus durchführen. Demgemäß wird auch spät abends und an Wochenenden gearbeitet. Dauerhaft möchte ich die dann daher schon lieber los werden - es ist eine Einschränkung.
 
Was ist geplant bezüglich Stromversorgung?
Redundantes Netzteil + VFI USV wären natürlich optimal ;)
 
USV ist natürlich da, redundantes Netzteil hier definitiv nicht. Bringt quasi keinen Vorteil, aber jede Menge Nachteile. Wie zum Beispiel Erhöhung der Ausfallwahrscheinlichkeit, schlechtere Energieeffizienz, Lautstärke ab 50 Db sowie einen oft nicht abschaltbaren Alarmton, der dann zum Abschalten des Servers zwingt - wegen Ruhestörung. Arbeiten kann dann sowieso keiner mehr.

Edit: Datenverlust entsteht beim Absturz ja nicht und Netzteiltausch dauert zwei Minuten.
 
Zuletzt bearbeitet:
Handelt es sich denn Auch um eine VFI USV? Gibt da ja noch die VFD und Line interactive USVs?


tmkoeln
 
Weiß ich ehrlich gesagt nicht. Neben anderen Teilen ist die USV noch in dem alten Serverschrank verbaut. Um da etwas identifizieren zu können, muss man das erst ausbauen, das Ding ist völlig verbaut. Das wurde extra so gemacht, da wegen der Hitzeentwicklung der alten Server die Türe zum Raum offenbleiben musste. Nicht gerade ideal.

Diesen Samstag erst wird der Serverschrank abgebaut und durch einen Tisch ersetzt, die Türe zum Serverraum kann ja jetzt zu bleiben, da kaum noch Wärmeentwicklung da ist. Ich werde noch oben und unten je einen Lüftungsschlitz in die Türe schneiden lassen und dann kann der Raum abgeschlossen werden.
 
Ich konnte jetzt nicht erkennen wie das Heterogenitätsproblem mit den Linux-Thin-Clients gelöst wurde?

Ich weiß zwar nicht was für eine Datenbank verwendet wird, aber warum für den Datenbankserver kein Linux? Spart Windows-Lizenzkosten und dürfte allgemein performanter sein.

Welches System kommt auf dem Backup-Server (NAS?) zum Einsatz?
 
Windows-Lizenzkosten sind gering im Vergleich zu dem Aufwand, den ein Linux-System schafft. Wer soll denn da den Betrieb sicherstellen? Ich sicher nicht, auch sonst niemand hier im Unternehmen - und selbst wenn - der externe Partner muss das dann auch beherrschen, was die Auswahl deutlich einschränkt und zu höheren Kosten führt. Wann immer ich für ein System zuständig war, habe ich schnellstmöglich alles, was nicht Windows war, rausgeschmissen. Und wo immer ich Linux oder Mac-Integration gesehen habe, habe ich auch eine Menge damit verbundener Probleme gesehen. Nicht mit mir - und ich rate da auch dringend von ab, egal ob man zum Beispiel Linux beherrscht oder nicht. Denn zum Beispiel darf die IT ja nicht von mir oder einem der Externen abhängig sein.

Zum Beispiel kann ich mit den Thin Clients nur 16 bit Farbe, die Einstellungen für Clear Type bleiben nicht bestehen, Maustasten funktionieren nur begrenzt ... und einen Monitor daran anzuschließen ist teils sehr aufwändig, da Du quasi selber einen Treiber programmieren must. An Arbeitszeit alleine dafür ging wesentlich mehr drauf, als Windows-Lizenzen gekostet hätten. Dann noch die ganzen anderen Störungen, die damit einher gehen. Bei den Windows-Clients, die wir haben: überhaupt kein Problem. Dann kommt noch, dass nur zwei der Thin Clients 2 Monitore können - was dann wieder zusätzliche Investitionen mit sich bringt, da wir auf 2 Monitore aufrüsten müssen. Linux, obwohl hier nur für blöde ThinClients eingesetzt, war hier extrem teuer, da hätten wir ein vielfaches an Windowslizenzen für kaufen können. Micrososft ist so betrachtet einfach scheiße billig und das Argument, mit Linux würde man sparen, fast immer falsch.

EDIT:

Zum Beispiel bzgl. der Störungen: Wir verwenden Open Thin Client. Zwei verschiedene Modelle an Hardwareclients. Ich muss für jedes der Modelle einen eigenen Server betreiben, denn mische ich die Hardwaremodelle an einem Server - egal unter welcher Softwareversion - gibt es massive Störungen (Scrollruckelorgien ohne Ende, verschwindende Mauszeiger, etc.) Also muss ich - bis ich den Mist endlich raus habe - zwei zusätzliche Systeme pflegen. Was passierte, würde hardwareseitig noch ein Dritter Client eingesetzt? Keine Ahnung - da gehen dann wieder Nächte und Wochenenden drauf, um das auszufrickeln. Windows-Client: anschließen, installieren, fertig. Monitore anschließen: dito. Und da haben wir noch gar nicht mit Funktionen wie remotefx angefangen, das kommt erst noch. Bis dahin habe ich Linux aber raus - bzw. kann sich das Unternehmen jemand anderen suchen, das zu administrieren, wenn es bis dann nicht raus ist. Ich mache Linux maximal temporär für den Übergang - never ever mehr.

EDIT 2:

Auf dem Backupserver war überflüssigerweise ein Windows Server 2008R2. Da er nun mal da ist, blieb das so, wie beschrieben. Wenn wir dann später auf eine neue Serverversion migrieren, kommt da einfach ein Windows Professional drauf und gut ist.

EDIT 3:

Datenbankserver: zusätzlich zur Linus-Problematik wie oben beschrieben ginge das gar nicht, da die Datrenbanksysteme, die hier zum Einsatz kommen, nicht unter Linux laufen. Ein weiterer wichtiger Punkt im betrieblichen Bereich gegen Linux und Mac: zu eingeschränkte Softwareauswahl. Das was es zum Beispiel im Bereich Verwaltungssoftware, also Warenwirtschaftsysteme & Co, gibt, ist richtiger Mist. Gut, auch unter Windows ist das Meiste Mist, aber es gibt immerhin ein paar löbliche Ausnahmen.
 
Zuletzt bearbeitet:
Mit Windows-Lizenzen hat man aber auch keinen Support-Anspruch.

Welchen LPIC-Level hast Du?

Windows und Unioxide zu verbinden - da ist leider Windows immer Ursache des Problems, wird leider nur selten anerkannt :/
Ich versuche eher Windows aus der Gleichung zu extrahieren. Und eine RHEL Umgebung zu administrieren ist wohl auch kein Hexenwerk und wenn man einen Supportvertrag mit einer Firma hat kann man das doch bequem per VPN regeln.

Zu den Thin-Clients: Ich habe in Citrix-Umgebungen gute Erfahrungen mit eLux gemacht, vllt. was für Euch?

Die Frage zum NAS hast Du wohl übersehen?
 
NAS - siehe Edits oben.

Ich habe schon mehrmals erlebt, dass einem Unternehmen plötzlich der Support abhanden kam. War übrigens auch hier so - zwei Monate, nachdem ich angefangen hatte (wie gesagt, nicht als ITler), ist dem Support-Unternehmer sein Betrieb um die Ohren geflogen und wir standen von einem Moment zum anderen ohne Support da. Zu den Linux-Geschichten war natürlich nichts dokumentiert - ich musste das also neben der plötzlichen Übernahme der IT alles von vorne aufrollen. Wie gesagt: das habe ich oft genug gesehen. Man muss als Unternehmen so aufgestellt sein, dass einem so was völlig egal sein kein. Bloß keine Abhängigkeit. Und deshalb auch kein Linux! Für Citrix gilt das Gleiche.

Wie gesagt, wir sprechen bzw. ich spreche von kleinen und mittleren Betrieben, die keine hochkarätige eigene Fachtruppe vorrätig halten können. Keep it Simple! Und das geht am besten mit einer homogenen Windows-Umgebung.
 
Zuletzt bearbeitet:
Also mit Windows ist selten etwas Simpel und wenn man erfahrener Server-Admin ist sollte Linux kein Problem sein, sonst wäre man nur Windows-Administrator.

slsHyde schrieb:
Ein weiterer wichtiger Punkt im betrieblichen Bereich gegen Linux und Mac: zu eingeschränkte Softwareauswahl. Das was es zum Beispiel im Bereich Verwaltungssoftware, also Warenwirtschaftsysteme & Co, gibt, ist richtiger Mist.

Da die neueren Warenwirtschaftssysteme die ich kenne, sowie eigentlich jede andere Art von Fachanwendung, eigentlich nur einen Apache und eine MySQL/MariaDB Server benötigen und der ganze Handlungsraum dann im Browser stattfindet, spielt das OS kaum noch eine Rolle.

Xen bzw. Citrix ermöglichen es auch Windowsprogramme wie Word (oder was auch immer sonst) von einem Windowsserver in einen Linux/MacOS-Desktop durchzuschleifen, sofern man wirklich nicht drauf verzichten kann/will. Aber dann hat man nur eine aussätzige Windows-Maschine im Hintergrund und kann sonst auf eine homogene Umgebung setzen.

Edit: Ein NAS mit Windows zu betreiben ist in meinen Augen Ressourcenverschwendung ;)

...und leider ein zusätzlicher Angriffspunkt. :(
 
Zuletzt bearbeitet:
Das ist das Problem: ein erfahrener Server-Admin, der betriebssystemunabhängig alles beherrscht, ist für ein kleines oder mittleres Unternehmen nicht so leicht zu bekommen. Die Verfügbarkeit kann nicht sichergestellt werden. Das ist ein KO-Kriterium.

Wenn man eine Basis hat, die einen auf Apache oder MySQL einschränkt, schränkt man sich bei der Auswahl der Systeme ein. Die guten Systeme, die ich kenne, brauchen einen Windowsserver. Ein nicht passendes oder nicht gutes System zum Beispiel im Bereich Warenwirtschaftssystem einzusetzen, ist irre teuer. Da sind Windowslizenzen Peenuts.

Xen oder Citrix
1) dann muss aber auch zusätzlich das Know How für Xen oder Citrix vorhanden sein. Das kommt einem Betrieb in hiesiger Größenordnung teurer als die paar Windowslizenzen, zumal Hyper-V-Server ja auch unter Windows kostenlos ist.
2) Klar kann das nominal Word etc - aber ich habe bisher immer gesehen, dass es auch funktionale Einschränkungen und andere Unannehmlichkeiten gibt. Ich bin zum Beispiel echt froh, mit dem produktiven Ersatzteillager jetzt keinen dieser blöden ThinClients mehr nutzen zu müssen, sondern wieder einen Windows-Client zu haben, um mich remote am Terminalserver anzumelden. Einfach schon wegen so Kleinigkeiten, dass an der Maus damit jetzt die vor- und zurücktasten funktionieren, das Clear Type, 32-bit Farbe, etc. Wie haben hier hochqualifizierte "Office"-Arbeitsplätze. Da sind solche funktionalen Einschränkungen störend.

Zur Betonung: ich möchte mich gar nicht gegen Linux wenden, aber meiner Erfahrung nach gehört das in eine Umgebung wie hier nicht hin. Leider.

Wegen einem NAS ein zusätzliches System beherrschen zu müssen halte ich für Ressourcenverschwendung ;-). Die 100 € für das Windows sind da gut angelegt. Mit den zusätzlichen Angriffspunkten sehe ich das auch nicht, ich behalte nur den Angriffspunkt Windows, den ich sowieso habe, bei. Würde da was anderes hinkommen, wäre das ein zusätzlicher Angriffspunkt.

So kann ich zum Beispiel, sobald Linux hier raus ist, Java runterschmeißen.
 
Zuletzt bearbeitet:
Was für eine Buchhaltungssoftware setzt ihr ein? Das Finanzamt akzeptiert bei Prüfungen PDF's als Belege? Bei uns in RLP macht der Prüfer nur Theater.
 
Zurück
Oben