News In eigener Sache: Das neue Server-Setup von ComputerBase (2018)

"Mich interessiert die Internet-Anbindung der Server. 100 oder 1000 Mbit?"

"Das haben wir früher offen kommuniziert, aber seitdem wir Probleme mit DDoS hatten möchte ich diese Informationen lieber nicht mehr herausgeben. Ich bitte um Verständnis."

Soll das heißen wir sollen es selbst herausfinden?
 
Wie ist die Sache ausgelastet? Mit so einem Setup sollten 4stellige gleichzeitige Zugriffszahlen zu erledigen sein. Wirkt etwas überdimensioniert.
 
_Cloud_ schrieb:
Würde ich auch nicht!
Hab ich früher auch nach dem Ich stark mit DDoS zu Kämpfen hatte geb ich auch nichts mehr Preis.
Inwiefern soll das helfen?
Jeder aktuelle normale Housing/Hosting/root/dedicated/whatever Server ist entweder mit 1 GBit oder 10 Gbit angebunden.

Beides ist so wenig, dass man das für ein paar Euro als Dienstleistung "Flooding" einkaufen kann.
Im Zweifelsfall kann man einfach mal mit 1,5GBit "testen" obs ein 1 GBit Port ist, dann ist die Seite nämlich offline.
 
Chismon schrieb:
Interessanter Artikel, besten Dank für den Einblick :) und ja, trotzdem schade, dass Nimblu keine AMD-Server-CPUs im Angebot hat ... das wäre bei denen doch nach Spectre und Meltdown und bzgl. der Kosten vielleicht 'mal eine Überlegung wert, auch wenn da im Bezug auf CB - wie im Artikel erklärt - nichts zu befürchten ist (es sei denn, es werden in den kommenden Monaten/Jahren noch mehr kritsche Einfallpunkte entdeckt/sich auftun).

Gemach gemach. Der HPE ProLiant DL385 Gen10 ist momentan ohnehin der einzige Server von einem der größeren Anbieter mit AMD EPYC am Markt und kam vor rund sechs Wochen raus. Die Dell PowerEdge R7425/R6425/R6415 kommen erst in Q1/18 (vermutlich im Februar). Von Fujitsu oder Cisco hab ich bislang nicht mal Ankündigungen gehört. Bei Lenovo ist es auch noch relativ still, wobei dort zumindest etwas in der Pipeline ist. Lediglich Supermicro hat schon ein paar Systeme im Programm, aber die sind zumindest im deutschen Markt nicht sonderlich stark vertreten. Kleinere OEM/ODMs lasse ich mal außen vor.

Bis derartige Systeme bei größeren Hosting-Anbietern auf Kunden losgelassen, gehen erfahrungsgemäß einige Monate ins Land. Immerhin müssen die Anbieter im Fehlerfall erst einmal dafür gerade stehen und bevor Hunderte bzw. Tausende System davon ins Rack geschraubt werden, will man gerade bei 1st-Gen-Produkten (und das ist EPYC einfach) doch erst einmal abwarten, bis die Kinderkrankheiten beseitigt sind, zumal sämtliche Automatisierungen in der Bereitstellung sowie die Support-Prozesse angepasst und durchgetestet werden müssen. Selbst wenn Intel eine neue Generation auf dem Markt bringt, dauert es hier oftmals einige Monate, bis man die offiziell mieten kann.

Ich geh aktuell davon aus, dass die erste EPYC-Generation hauptsächlich bei einigen Cloud-Anbietern wie MS Azure oder bei größeren ISP-Installationen in China eingesetzt wird und erst die 2. Generation auf Zen+ Basis überhaupt den Weg ins breitere OEM-Segment und zu Standard-Enterprise-Kunden finden wird.
 
Steffen schrieb:
Ich habe das Gefühl DRBD ist für unsere Zwecke Overkill, aber vielleicht muss ich mich damit noch intensiver beschäftigen.

An und für sich finde ich DRBD auch recht nett, aber schon etwas speziell.
Was vielleicht auch noch eine Alternative wäre: ZFS als Dateisystem.

Ihr benutz ja schon gentoo, darunter läuft auch zfsonlinux recht gut bei mir seit Jahren im Einsatz.
Mittels zfs send/receive kann man Recht simpel und deutlich schneller als rsync und co blockweise ganze Dateisysteme sichern / übertragen.
Das ganze läuft dann im Master/Slave Setup (also kein HA, aber nach dem studieren des Fadens habt ihr das ja sowieso nicht!).
Ich benutze für meine Dateisystemsicherung von gentoo zu einem einfache Freenas zrep Skripte (http://www.bolthole.com/solaris/zrep/). Das einzige was dabei etwas zickiger war ist die Einrichtung / finden der passende ksh Version unter gentoo, damit zrep läuft.

Ungünstig für ZFS ist dabei nur, das ihr halt schon einen Hardware Raid Controller verwendet und ZFS mag gerne die Festplatten exklusiv benutzer (also nicht nur auf einer Partition laufen). Die mag zfs eher weniger, würde im Notfall auch damit funktionieren! Man sagt allgemein nur, das es halt der Ausfallsicherheit nicht zuträglich ist, da ZFS die Raidfunktionalität schon selber bietet!

Was man auch nicht außer acht lassen sollte, es handelt sich um ein CopyOnWrite Dateisystem, mit all seinen Vor und Nachteilen gegenüber Klassikern wie Ext4!
 
Weniger Strombedarf ist immer gut aber von der Leistung her war es unbedingt notwendig?

Ich habe zu keiner Zeit Leistungsengpässe auf ComputerBase gemerkt. Vielleicht kannst du die durchschnittliche CPU Auslastung der alten Server uns nennen?
 
Dass es einen FBWC gibt bedeutet doch nicht unbedingt, dass der von einem Kondensator anstatt Akku gespeist wird, oder? Das Tool "hpssacli" spricht von einer "Battery" und auch das Handbuch spricht von einer "HPE Smart Storage Battery".
Doch die Flash Backed Modelle sind immer mit Kondensator. Die alten Battery Backed Module hatten gar keinen Flash als Zwischenspeicher, hier musste der NiMH Akku den RAM des Controllers so lange weiter mit Strom versorgen bis die Daten geschrieben werden konnten. Im Kondensator steckt zwar wesentlich weniger Energie als in dem Akku, dafür muss sie nur noch reichen bis die Daten in den Flashbaustein gerettet wurden.
Das Array Config Utility nennt das verwirrenderweise bis heute trotzdem Battery.


Computerbase würde komplett auf zwei MicroSDXC-Karten passen? oO
Computerbase würde auch (wenn man die Kisten noch etwas aufrüstet) komplett in den RAM passen. Nicht praktikabel aber eine lustige Vorstellung^^
 
Sehr interessant für mich als Admin zu sehen, wie so eine Website das handhabt (und irgendwie schön, dass nicht alles bei Amazon liegt :D).

Bei mir auf Arbeit wird sehr viel mit DRBD und corosync geclustert, bei den Shop-Systemen geht es aber auch um einen Haufen Geld. Funktioniert einwandfrei, hier ist noch nie was ausgefallen, aber man braucht natürlich auch die Ressourcen dafür.

Habt ihr genannt auf welches OS ihr setzt? Konnte jetzt leider nicht alle Seiten überfliegen.

Habe im Übrigen auch schon versucht für Neuanschaffungen Richtung AMD zu drängen, aber wie manche sagten sind die Systeme noch sehr neu und kaum zu bekommen, das braucht noch Zeit. Und wenn dann sind das nur Systeme die solchen halbwegs "dicken" wie hier Konkurrenz machen, Server mit einem 8-Kerner findet man da kaum (Coreto hat z.B. einen: https://www.rect.coreto.de/rack-server/2he-server-intel-amd/2520-2he-rack-server-mit-amd-epyc-cpus-fuer-bis-zu-64-kerne.html)
 
Zuletzt bearbeitet:
Danke für den Artikel und die zahlreichen Antworten im Forum!
Schade das direkt jemand auf "Werbung" trollt und ich hoffe ihr schreibt in Zukunft weitere Artikel dazu.
 
Anmeldeblödsinn schrieb:
FBWC sind immer solid caps (Supercap), dahinter ist dann ein Flash mit eben 1/2/4GB Cache. HP hatte immer schon "kreative" Bezeichnungen für alles Mögliche :freaky: [...]

Masamune2 schrieb:
Doch die Flash Backed Modelle sind immer mit Kondensator. [...]
Das Array Config Utility nennt das verwirrenderweise bis heute trotzdem Battery.
Hey, Danke für die Info euch beiden! Wenn da nichts mehr getauscht werden muss wäre das in der Tat sehr schön und ein großer Fortschritt gegenüber den alten Servern. :)

Masamune2 schrieb:
Computerbase würde auch (wenn man die Kisten noch etwas aufrüstet) komplett in den RAM passen. Nicht praktikabel aber eine lustige Vorstellung^^
Unserer Erfahrung nach genügt es zum Glück schon, wenn die Datenbank in den RAM passt. :)

Schwabe66 schrieb:
keine Ahnung was hier der HPE rant soll, habe bisher nur gute Erfahrungen mit dem Support sowie der Einrichtung gemacht. [...]

MarcBesken schrieb:
Also ich muß jetzt auch mal eine Lanze für HPE brechen (kenne auch Fujitsu und Dell) und bin seit gefühlten 17 Jahren damit zufrieden. [...]
Bei den Schwachstellen von HPE-Servern sind wir uns ja teilweise einig (Remote-Konsole, Website). Ich wollte meinen Beitrag auch nicht so verstanden haben, dass ich HPE-Server pauschal schlecht finde. Deshalb habe ich auch direkt einleitend geschrieben, dass ich als reiner Remote-Admin einen eingeschränkten Blick auf die Server habe. Es ist aber wie erläutert schon so, dass in ein paar für uns wesentlichen Punkten ein 5 Jahre alter Dell-Server dem neuen HPE-Server voraus ist. Aber wie ich abschließend sagte ließen sich diese Kritikpunkte alle durch iLO-Firmware-Updates beheben, also mal schauen ob da noch was kommt. :)

Gandalf2210 schrieb:
"Mich interessiert die Internet-Anbindung der Server. 100 oder 1000 Mbit?"

"Das haben wir früher offen kommuniziert, aber seitdem wir Probleme mit DDoS hatten möchte ich diese Informationen lieber nicht mehr herausgeben. Ich bitte um Verständnis."

Soll das heißen wir sollen es selbst herausfinden?
Nicht lustig.

stoneeh schrieb:
Wie ist die Sache ausgelastet? Mit so einem Setup sollten 4stellige gleichzeitige Zugriffszahlen zu erledigen sein. Wirkt etwas überdimensioniert.
Siehe https://www.computerbase.de/forum/t...-von-computerbase-2018.1741500/#post-20842752 (Es gibt also viel Luft nach oben, mit nur einer CPU konnte man den Server bei Nimblu leider nicht bestellen, sondern hätte dann gleich auf einen älteren Gen9-Server mit iLO 4 etc umsteigen müssen).

the_erasor schrieb:
Was vielleicht auch noch eine Alternative wäre: ZFS als Dateisystem. [...]
Schaue ich mir auch nochmal an, Danke!

der_eismann schrieb:
Habt ihr genannt auf welches OS ihr setzt? Konnte jetzt leider nicht alle Seiten überfliegen.
Ja, hier: https://www.computerbase.de/forum/t...omputerbase-2018.1741500/page-2#post-20842907
 
Steffen schrieb:
Bei den Schwachstellen von HPE-Servern sind wir uns ja teilweise einig (Remote-Konsole, Website). Ich wollte meinen Beitrag auch nicht so verstanden haben, dass ich HPE-Server pauschal schlecht finde. Deshalb habe ich auch direkt einleitend geschrieben, dass ich als reiner Remote-Admin einen eingeschränkten Blick auf die Server habe. Es ist aber wie erläutert schon so, dass in ein paar für uns wesentlichen Punkten ein 5 Jahre alter Dell-Server dem neuen HPE-Server voraus ist. Aber wie ich abschließend sagte ließen sich diese Kritikpunkte alle durch iLO-Firmware-Updates beheben, also mal schauen ob da noch was kommt. :)

Nicht lustig.

Erst mal Danke für deine persönliche Einschätzung bezüglich des Wechsels.
Bei mir kam es nicht als HPE Bashing an.
 
schmalband schrieb:
Erst mal Danke für deine persönliche Einschätzung bezüglich des Wechsels.
Bei mir kam es nicht als HPE Bashing an.

Bei mir auch nicht, aber manche Beiträge danach ;)

Gruß
Marc
 
Vielen Dank für den Einblick in eure Infrastruktur. Ich bin nur etwas verwundert, warum man ein Setup wählt, welches keine Redundanz bietet, wenn man schon 2 Server hat.
Wir haben vor Kurzem eine Kundeninfrastruktur von 6x "Blech" zu einer auf mehrere Räumlichkeiten verteilten VMWare (4 VMs) Umgebung umgezogen. Der Dienstleister hat auch eine mehrfach redundante NetApp, die wir als Storage per NFS angebunden haben.
Die Storage hatten wir davor auf 2 eigenen Servern per DRBD realisiert. Ich fand das Setup wenig überzeugend. Es ist eine Master/Slave Lösung, die im Katastrophenfall viele graue Haare mit sich bringt.

Der Kunde spart im Unterschied zum Blech massiv Geld und es können variabel Resourcen hinzugebucht oder entfernt werden (CPUs und RAM). Als Loadbalancer setzt der Dienstleister auf eine Web-Application-Firewall von Barracuda.

Ich bin heilfroh, dass immer mehr Kunden ihre Blechkisten aufgeben und auf VServer setzen. Dann spart man sich den ganzen Stress mit der Hardware. Fällt ein VMWare Node aus, übernimmt eben ein anderer die Aufgabe.

Und solch ein Setup kann man sich sogar als Hobby-Admin für kleines Geld zusammenbauen: z.B. bei OVH (da ist besagter Kunde nicht). Dort kann man sich eine eigene Infrastruktur aufbauen, per VLAN sogar mehrere Rechenzentren zu einem eigenen geschützten LAN verbinden. Storage bieten sie auch an. Die Server können per Script provisioniert werden.
 
Mich würde noch interessieren, ob die Active-X Remote Console aus dem iLO keine Option ist, weil man keine Windows Desktops verwendet?

Außerdem würde mich noch interessieren, warum die beiden HPE DL360 G10 nicht als VMware ESXi Hosts laufen und die Anwendungen innerhalb einer virtuellen Maschine? Hat es an den Kosten für einen zentralen Storage gehapert oder gab es andere Gründe?

Und zu guter Letzt nochmal eine Frage zum Thema Backup. Wie läuft das bei Euch und mit welcher Software?

Gruß
Marc
 
Dr. MaRV schrieb:
Der Hauptgrund war doch die häufiger werdende Ausfallrate von Komponenten und schwieriger werdende Ersatzteilversorgung, steht doch im Artikel.

Okay.

Es steht ja im Artikel "Die alten Server waren 5½ Jahre in Betrieb, Ausfälle der RAID-Controller-Akkus häuften sich und Ersatz für ausfallende SAS-Festplatten war zunehmend schwierig zu beschaffen."

Neuen RAID Controller mit neuen Akkus hätte man ja im alten Server einbauen können, genauso wie SAS Platten durch SSD tauschen. ("Sollte es erforderlich sein, dann könnten die Datenbank-Server beispielsweise mit SSDs aufgerüstet werden." https://www.computerbase.de/2012-09/das-neue-server-setup-von-computerbase/)

CPU: man hätte auch den zweiten Sockel im alten Server nutzen können. Okay beim alten Server war der Prozessor EOL. Aber kommt man weiterhin natürlich dran. ("Die Mainboards haben jeweils zwei CPU-Sockel, von denen aktuell jeweils nur einer genutzt wird, so dass hier eine einfache Upgrade-Möglichkeit besteht." https://www.computerbase.de/2012-09/das-neue-server-setup-von-computerbase/)

@Steffen: Wird weiterhin EXT4 genutzt oder wurde beispielsweise auf BTRFS umgestiegen?!
 
Zuletzt bearbeitet:
Hallo,
da ich in meiner täglichen Aufgabe ebenfalls mit Servern (Data Warehouse mit einem Verarbeitungsvolumen > 1 TByte / Tag) zu tun habe, ist das ein sehr interessanter Artikel. Bitte gerne mehr davon... :)

greetz
hroessler
 
Mich würde interessieren welche Systeme verglichen und gestetet wurden.
Ich habe gehört die Oracle Database Appliance Familie hat viel Automatik vorintegriert und Dell ist auch nicht schlecht.
 
MarcBesken schrieb:
Also ich muß jetzt auch mal eine Lanze für HPE brechen (kenne auch Fujitsu und Dell) und bin seit gefühlten 17 Jahren

Was sind es dann ungefühlt? :D

Ansonsten großes Lob an CB für den Blick hinter den Technikvorhang. ;)
 
Zurück
Oben