News In eigener Sache: Das neue Server-Setup von ComputerBase (2018)

Bloedhren schrieb:
[...]Mit dedizierter cache software ist das sehr effizient und benötigt kaum resourcen.

Selbst ohne vorgeschaltetem dediziertem Cache können das die div. Webserver mittlerweile auch ganz gut, genauso wie PHP und der Kernel im Allgemeinen. Bei überwiegend statischen Inhalten begrenzt selbst bei einem QuadCore Atom eher mal die 1Gbit Anbindung.


Frage
Wie schaut die Netzwerkanbindung der Kisten aus?
 
Also HDDs für den ganzen "langsamen" Kram sind in einem RZ noch immer unverzichtbar. SSDs hat man da lange sogar ausschließlich zum Caching der DBs genommen. Heute geht das schon besser. Ich glaube, CB macht das schon in einem sinnvollen Rahmen. Allerdings ist es selten, dass es noch Hoster gibt, die ihr "Risiko" nicht outsourcen und hinterher das Blame-Game spielen. "Schuld für den Ausfall war XYZ. Können wir nix für. Tschuldigung" + Millionenforderungen an den Dienstleister. Respekt.

Andererseits hat die fehlende Virtualisierung auch den Nachteil, dass bei Defekten nicht mal eben einen Clusternode komplett runterfahren kann. Dann fährt die andere Maschine nämlich komplett ohne Backup. Und das ist dann schon ein eher heißes Eisen, wenn es dann zu einem klassischen "Followup" kommt (durch die gestiegene CPU-Last gibt das eh schon angeschlagene Netzteil auf und Kiste 2 raucht auch ab). Zu meinen RZ-Zeiten alles schon erlebt. Aber ihr werdet da schon wissen, was ihr tut. :D

Regards, Bigfoot29

PS:
Vitali.Metzger schrieb:
Bei uns in der Firma laufen zwei ProLiant DL 380 Gen9 in einem Hyper-V Cluster, haben auch rund 39 VMs
Also 39 VMs auf zwei Maschinen ist aber auch mutig... da darf dann aber keine mal eben mit nem IRQ-Storm Amok laufen und nen Großteil des IO "zu" machen. :D
 
Root-Server, dedicated, Housing, Hosting.. manche hier werfen aber auch gern Begriffe durcheinander...

Prinzipiell lassen sich auch in virtualisierten Umgebungen Ressourcen fest zuteilen, macht aber vermutlich nicht jeder Anbieter von daher kann ich "Blech" verstehen. Erhöht halt leider den Migrationsaufwand wenn das System dann irgendwann End of Life ist.

Bzgl. einer Zwei-Node-Storage Lösung kenne ich DRBD9 und habe damit positive Erfahrungen gemacht. Recht gut dokumentiert, Support verfügbar wenn gewünscht und auch ein hoffentlich nie stattfindendes Split-Brain lässt sich noch recht gut wieder retten. Aber keine Ahnung ob und wie das nachträglich bei euch umsetzbar ist, ich habe das wenn dann von Anfang an genutzt.

Darf man fragen warum ihr euch den "Spaß" mit Gentoo antut anstatt z.B. ein rock stable Debian/CentOS?
 
@Bigfoot29
Hab mal in den Failover Cluster Manager reingeschaut also es sind 25 Maschinen die aktiv laufen. Datenbank und Backup Server sind auf einer separaten Maschine :D
 
@steffen
Danke für die ausführliche Erklärung.
In der Tat eine praxisorientierte Herangehensweise.
 
sebbolein schrieb:

Aber 2 Prozessoren, also 16 Kerne je Server...

Wie sind eure Erfahrungen mit HP Servern?
Meine sind eher durchwachsen und ich würde persönlich die Cisco UCS bevorzugen. Ich habe mehre Dutzend UCS in den letzten Jahren ausgerollt, zusammen mit NetApp Storage und Cisco Nexus Switche, einmal hatte ich einen Defekt an einem UCS (ein defekter RAM Riegel).
Bei HP hatte ich schon fehlende Kabel, da wurden die Plattenkäfige einfach onboard angeschlossen und die beiden Raid Controller steckten "nackig" im Gehäuse. Dann gab es defekte Raid Controller mit purple screens in VMWare ESXi, defekte FC SFPs... ja da war einiges, wo ich mir gedacht habe, bei einem 9.0000 € Server sollte sowas aber nicht sein.
Das ganze ebenfalls bei mehren Dutzend HP DL 380 G9 mit NetApp als Storage und Brocade 6500 SAN Switche als Fabric. Die Fehler wahren alle ab Werk, also bei der Inbetriebnahme, bei Fabrikneuer Ware.
 
Zuletzt bearbeitet:
Wie wäre es mal mit einem bebildertem Rundgang bei CB oder gar einen VLOG? :D
 
Laufen bei euch eigentlich Docker/Kubernetes o.ä. auf Softwareseite oder läuft (noch?) alles direkt auf dem Server?
 
Was habt ihr zur Replikation der Maschienen benutzt bzw. was setzt ihr zum Clustern und Loadblancing ein?
 
@Baxxter
Währe interessant :D
 
Hades85 schrieb:
Vielen Dank für diesen Artikel. Als Laie, der mit Systemintegration wenig am Hut hat, bin ich verwundert dass nur zwei Server mit jeweils 96GB RAM ausreichend sind, für die breite Masse die hier ein und ausgeht. Ist CB nicht sogar die meist besuchteste Seite Deutschlands in der IT-Welt?

Wenn man die Softwarekomponenten vernünftig auswählt und ordentlich optimiert, ist man überrascht, was man so alles aus einem Blech rausholen kann.
nginx hat nicht umsonst reichlich Marktanteile von Apache abknabbern können.

Statischer Content wird ohnehin stumpf über irgendwelche Caching-Systeme CPU-schonend ausgeliefert und so ein 32-Thread-System mit 96 GB RAM hat heutzutage auch für das Parsing dynamischer Inhalte genug Hubraum unter der Haube.

Steffen schrieb:
Im Wesentlichen Gentoo Linux, nginx, PHP 7.1, Percona Server ("MySQL") 5.6 und Redis.
Wäre für euch nicht auch mal HHVM ein Thema oder lohnt sich das bei PHP 7.1 nicht mehr, weil der Performancevorteil zu gering wäre?
 
Yuuri schrieb:
Laufen bei euch eigentlich Docker/Kubernetes o.ä. auf Softwareseite oder läuft (noch?) alles direkt auf dem Server?
Und da ist der Hipster-Hype \o/
Einen 2-Node-Kubernetes? Wozu sich den Overhead antun?^^
Docker? Für eine Webseite + DL-Bereich + Forum? Mit diesen maximal fragwürdigen Images vom Docker-Hub? Oder hausinterne eigene "DevOps" die die Container selber bauen sollen? Ich sage ja nicht, dass Kubernetes und Docker nicht ihre Daseinsberechtigungen haben,z.B. da wo man wunderbar parallelisieren kann bzw wo man Lastspitzen anfangen kann oder muss aber wenn man es vernünftig und sicher betreiben will, muss man leider oft die Images selbst bauen
 
Steffen schrieb:
Ja, von der Kondensator-Lösung habe ich gehört und das klingt echt gut. Leider scheint es das bei HPE nicht zu geben. Oder?
Doch, aber eventuell noch nicht für den DL360 Gen10. Für den DL360 Gen9 waren Controller mit FBWC gelistet.

DL360 Gen9 Option Parts
DL360 Gen10 Option Parts

Wie es bei den anderen Modellen (380, 160, etc.) aussieht, habe ich jetzt aber nicht nachgeguckt.Wir haben bei uns noch Gen9 im Einsatz (allerdings hauptsächlich Blades) und dort die FBWC Variante in Nutzung.
 
HostEurope war Dell Kunde, PlusServer eben HPE.

Die haben jeweils ihre Konditionen mit den OEMs ausgehandelt. Und da die Hosting Sparte von HE quasi von PlusServer übernommen wurde, gibt es jetzt also HPE. ;)
 
Mich interessiert die Internet-Anbindung der Server. 100 oder 1000 Mbit?
Wie sieht die Auslastung aus (auch zu verschiedenen Tageszeiten)?

Bin absoluter Laie auf diesem Gebiet, mich interessiert aber, wie viel Bandbreite bzw. Traffic eine Website dieser Größe so benötigt.
 
@masterw: Ich hab vor ziemlich exakt 10 Jahren zuletzt selbst Hosting betrieben. Damals waren 100MBit schon nur noch der Fallback. Die Leitungen wurden üblicherweise per GBit an den Switch angeklemmt und gingen dann via 1(knauserig) oder 10Gbit ins Backbone zu den Routern. Dort wurden dann üblicherweise mehrere 1GBit Glasfasern gebündelt, um die Daten "in die weite Welt" zu bekommen. Je nach Peering gingen die jeweiligen Pakete über die jeweiligen Leitungen

Ich würde HEUTE eher fragen, ob die Server mit 1 oder 10 GBit am Switch hängen und ggf. noch nen 25GBit Interconnect zum Datenabgleich haben. Nach "draußen" wird sich die Welt allerdings vermutlich eher wenig verändert haben. die 1GBit-Leitungen sind vermutlich geblieben, es sind nur mehr geworden. Aber bevor ich da noch mehr Spekulatius produziere, lies Dir Doch mal die technische Anbindung des Hosting-Betreibers durch. Dann weißt Du das selber. :D

@Vitali.Metzger: Immernoch sportlich. Aber gut, kommt ja auch drauf an, was die VMs machen. Wenn die eh nur idlen, kann man auch 50 auf ne entsprechend große Büchse packen. Aber falls auch nur die hälfte davon produktiv arbeiten soll, wird das mit dem IO trotzdem recht schnell eng. :)
(Und ja, ich hab erlebt, wie ein DNS-Server unter DDOS ne ganze Quadcore-Maschine weitestgehend zum erliegen gebracht hat, weil er die ganze Zeit Platten-IO erzeugt hat... . Blöderweise war die Firewall-Application auch auf der Maschine und hat dann für den Rest gesorgt. Hat 10 Minuten gedauert, die Verbindung zum DNS zu kappen (da wir die zwar langsamen, aber noch möglichen restlichen Verbindungen nicht vollständig kicken wollten).) :o
Ja, ist schon ein paar Jahre her, das... *grübel*


Regards, Bigfoot29
 
Steffen schrieb:
Im Wesentlichen Gentoo Linux, nginx, PHP 7.1, Percona Server ("MySQL") 5.6 und Redis.
Ich muss ja sagen: Ganz großes Kino, zumindest enttäuscht ihr mich da nicht, was das Freaklinux angeht. Percona ist für euren Einsatz auch gut gewählt.

Bigfoot29 schrieb:
Andererseits hat die fehlende Virtualisierung auch den Nachteil, dass bei Defekten nicht mal eben einen Clusternode komplett runterfahren kann. Dann fährt die andere Maschine nämlich komplett ohne Backup. Und das ist dann schon ein eher heißes Eisen, wenn es dann zu einem klassischen "Followup" kommt (durch die gestiegene CPU-Last gibt das eh schon angeschlagene Netzteil auf und Kiste 2 raucht auch ab). Zu meinen RZ-Zeiten alles schon erlebt. Aber ihr werdet da schon wissen, was ihr tut. :D

Regards, Bigfoot29

PS:

Also 39 VMs auf zwei Maschinen ist aber auch mutig... da darf dann aber keine mal eben mit nem IRQ-Storm Amok laufen und nen Großteil des IO "zu" machen. :D

Naja also durch den ilo-Kram ist das schon recht komfortabel. Klar wären container dafür toller, aber von der Gesamtmasse her bewegt sich CB in nem Rahmen, wo es noch keinen Sinn macht.

39VMs auf zwei Servern? Gar kein Problem, kommt drauf an, was es ist.


Yuuri schrieb:
Laufen bei euch eigentlich Docker/Kubernetes o.ä. auf Softwareseite oder läuft (noch?) alles direkt auf dem Server?

Jetzt wirds eckelhaft. Container machen bei der Menge Server grade so noch keinen Sinn und dann kommst du hier mit nem Orchestrierungstool um Google zu verwalten xD
Für Regentage: beschäftige dich mal mit "running kubernetes on kubernetes" und nimm mir dann dein wahnsinniges grunzen dazu auf, wenn du Anwendungsfälle überlegst.

@Computerbase: Nutzt ihr denn eine Konfirgurationsverwaltung wie Puppet oder Ansible? Ab zwei bis drei Servern macht DAS nämlich Sinn...
 
HostEurope... Naja schön das ihr zufrieden seit, höre ich auch das erste mal ;)

Edit: Ansible macht ab einem Host bereits Sinn, da es auch Tasks löst die Regelmäßig anfallen(Patchen zB)

HE nutzt F5 Loadbalancer, ich denke mal das ist noch immer so?!
 
Zuletzt bearbeitet:
Zurück
Oben