News In eigener Sache: Das neue Server-Setup von ComputerBase (2018)

Steffen schrieb:
Mit einem Root-Server mietet man ja letztendlich anteilig Ressourcen eines dedizierten Servers. Tendenziell ist das natürlich preiswerter, aber die Leistung dürfte auch niedriger sein, sodass man dann eventuell mehr Server braucht. Ich würde sagen man ist in erster Linie flexibler. An dedizierten Servern finde ich praktisch, dass man die Hardware-Ressourcen garantiert hat und dass es weniger Komplexität gibt (weil keine Virtualisierung erfolgt).

hmm, ich nutze diverse Hostbetreiber seit 2002. Vielleicht hab ich ja was falsch verstanden, aber zumindest meine Rootserver die letzten Jahre waren Baremetal. Also nichts mit anteiligen Ressourcen, allerhöchstens im Netzwerk und auch hier gab es bisher keine Probleme. Zudem muss man sich keine Gedanken um die Hardwarebeschaffung machen, wenn was ausfällt.

Einziger möglicher Kritikpunkt in meinem Augen: Meine RZs sind ein wenig naiv/dämlich wenn es um das behalten von IPs geht, bei Erneuerung der HW.

snaxilian schrieb:
Root-Server, dedicated, Housing, Hosting.. manche hier werfen aber auch gern Begriffe durcheinander...

Entschuldigung:
Root-Server: Gemietete HW mit Rootzugriff, wahlweise auch als VM möglich. Verwaltung von OS und Applikation erfolgt durch eigene Hand
Housing: Eigene HW kann in eine vorhandene Netzwerk-Infrastruktur integriert werden. Abrechnung des Stellplatz erfolgt in Abhängigkeit zur Bauform, Energienutzung, USV-Lösungen und Netzweranbindung
Dedicated Server: Ein Server der auf einen Einsatz-bereich voroptimiert ist, wie Webhosting oder Gaming. Manchmal wird dies auch gleich als Managed-Server angeboten
Hosting: Das Bereitstellen eine Dienstleistungsmerkmals auf einem Server, z.B. Webhosting, MailHosting, etc.

Wahrscheinlich schlecht geraten. Erleuchtest du uns dumme Menschen bitte snaxilian? ;)
 
Piktogramm schrieb:
Wie schaut die Netzwerkanbindung der Kisten aus?

masterw schrieb:
Mich interessiert die Internet-Anbindung der Server. 100 oder 1000 Mbit?
Das haben wir früher offen kommuniziert, aber seitdem wir Probleme mit DDoS hatten möchte ich diese Informationen lieber nicht mehr herausgeben. Ich bitte um Verständnis.

Baxxter schrieb:
Wie wäre es mal mit einem bebildertem Rundgang bei CB oder gar einen VLOG? :D
Ich habe noch keinen der Server, die bei ComputerBase irgendwann mal im Einsatz waren, selbst gesehen. Wir haben nur Remote-Zugriff. Nimblu kümmert sich um die Hardware und wir um die Software. Das mit dem Rundgang wird daher leider schwierig. ;)

Yuuri schrieb:
Laufen bei euch eigentlich Docker/Kubernetes o.ä. auf Softwareseite oder läuft (noch?) alles direkt auf dem Server?
Es läuft alles direkt auf dem installierten Betriebssystem. Ich verstehe, dass Container Vorteile haben können. Aber aus so vielen verschiedenen Komponenten, die man in Container aufteilen könnte, besteht unser Setup gar nicht. Und weniger Komplexität bedeutet tendenziell weniger Fehleranfälligkeit. KISS! :)

pgene schrieb:
Was habt ihr zur Replikation der Maschienen benutzt bzw. was setzt ihr zum Clustern und Loadblancing ein?
Wir nutzen MySQL-Replikation für die Datenbank, Audio/Video/Download-Dateien liegen auf S3 und für die millionen kleinen Dateien (Bilder, Forum-Anhänge, ...) bin ich noch auf der Suche nach einer gute Lösung. Vorschläge willkommen! DRBD wurde genannt.

Simon schrieb:
Wäre für euch nicht auch mal HHVM ein Thema oder lohnt sich das bei PHP 7.1 nicht mehr, weil der Performancevorteil zu gering wäre?
Ich glaube seit PHP 7 sind die Performance-Vorteile von HHVM nicht mehr der Rede wert. Und wirklich durchgesetzt hat sich HHVM letztendlich nicht, sodass man vermutlich mehr obskure Bugs oder Kompatibilitätsprobleme hätte als mit dem Original. Irgendwo hatte ich letztens eine von uns genutzte Library gesehen, die HHVM wieder aus ihren Tests entfernt hat (kann ich leider gerade nicht mit einer Quelle belegen).

BrollyLSSJ schrieb:
Doch, aber eventuell noch nicht für den DL360 Gen10. Für den DL360 Gen9 waren Controller mit FBWC gelistet.

DL360 Gen9 Option Parts
DL360 Gen10 Option Parts

Wie es bei den anderen Modellen (380, 160, etc.) aussieht, habe ich jetzt aber nicht nachgeguckt.Wir haben bei uns noch Gen9 im Einsatz (allerdings hauptsächlich Blades) und dort die FBWC Variante in Nutzung.
Danke für die Links! Weil man anscheinend den "kompletten" RAID-Controller austauschen müsste (vorausgesetzt es wird überhaupt einen FBWC-RAID-Controller für Gen10 geben), werden wir das denke ich nicht präventiv machen. Oder hat die Kondensator-Lösung doch irgendeinen Nachteil, weshalb es das bei Gen10 nicht mehr gibt? Eigentlich dachte ich die Kondensator-Lösung sei "neuer".

Dr. MaRV schrieb:
Wie sind eure Erfahrungen mit HP Servern?

schmalband schrieb:
Von DELL zu HPE?

Warum macht man sowas?
Aus unserer (eingeschränkten) Perspektive finde ich diese Entscheidung von PlusServer/Nimblu ebenfalls unglücklich. Nun habe ich noch keinen der Server selbst gesehen und kann deshalb zur Verarbeitung und Verfügbarkeit von Ersatzteilen etc nichts sagen.

Aber ich frage mich schon, wie HPE in 2018 auf neuen Servern ernsthaft immer noch keine HTML5-Remote-Konsole anbieten kann, obwohl Dell das sogar bei unseren fünf Jahre alten Servern vor einem Jahr per Firmware-Update gratis nachgerüstet hat. Stattdessen darf man sich bei HPE mit einer Java-Anwendung herumärgern. HPE hat uns aber immerhin gesagt, dass im Laufe des Jahres eine HTML5-Remote-Konsole kommen soll.

Ich verstehe auch nicht, wieso in iLO beim Upload von SSL-Zertifikaten die enthaltenen Intermediate-Zertifikate einfach verworfen werden (was dann wiederum eine zusätzliche Warnung beim Starten der Java-Remote-Konsole verursacht, weil die im Gegensatz zu Browsern über fehlende Intermediate-Zertifikate nicht hinwegsieht). Das war bei DRAC noch nie ein Problem. (Von Unterstützung für Let's Encrypt wage ich nicht zu träumen.)

Darüber hinaus finde ich es unglücklich, dass iLO eventuelle Fehler-Mails nicht via SMTP-Auth versenden kann sondern dazu ein offenes SMTP-Relay braucht. Offenbar geht HPE davon aus, dass jeder Kunde ein ganzes Management-Subnetz hat, in dem irgendwo ein offenes SMTP-Relay steht. Wir haben die iLO jetzt so konfiguriert, dass der jeweilige Server selbst für die iLO-IP als offenes Relay fungiert. Mit der Konsequenz, dass Fehler-Mails natürlich nicht versendet werden können, wenn der Server ausfällt (nun gut, meist geht es in den Fehler-Mails ja eher um Kleinigkeiten, aber was ist so schwer daran in 2018 SMTP-Auth zu unterstützen?). Auch das hatte Dell in DRAC von Anfang an besser gelöst: SMTP-Auth ist dort kein Problem.

(Diese drei Punkte haben wir übrigens alle als Verbesserungsvorschlag an HPE gemeldet.)

Dann stellt sich HPE teilweise quer und verlangt zum Download bestimmter Firmware-Updates einen Login mit Nachweis der Garantie / Seriennummer / etc. Keine Ahnung wie man auf so einen Blödsinn kommen kann. Als ob diese Dateien einem was nützen würden, wenn man den Server nicht hat. Und wenn ein Konkurrent darin nach geistigem Eigentum suchen will, dann wird den der Kauf eines Servers nicht daran hindern.

Mal ganz davon abgesehen, dass die HPE-Website insgesamt eine Frechheit ist ("Katastrophe" wäre untertrieben). Geschenkt, dass es dort offenbar nirgendswo Bilder des DL360 Gen10 gibt, die mehr als 300x200 Pixel groß sind (weder auf der Produktseite noch im Pressebereich). Aber dass man Firmware-Updates nichtmal nach Erscheinungsdatum sortieren kann, sondern eine (weitgehend?) unsortierte Liste vorgeworfen bekommt, in der man nur mit redundanten Filter- und kaputten Suchfunktionen navigieren kann? Als ich das gesehen habe war ich kurz davor HPE und Nimblu in Frage zu stellen: https://support.hpe.com/hpesc/public/home/driverHome?sp4ts.oid=1010093150

Genug des Rants. Ich vermute/hoffe, dass die Server-Hardware über alle Zweifel erhaben ist. Die Remote-Konsole braucht man ja zum Glück nach der ersten Einrichtung kaum noch (*Klopf auf Holz*) und angeblich kommt ja in diesem Jahr eine HTML5-Variante. Neue Firmware-Updates sind zwar nervig zu finden, aber irgendwie klappt es. Genauso könnte HPE ja eventuell irgendwann die Website mal fixen. Bei Software würde das immerhin gehen, die Hardware steht jetzt einige Jahre da. :)

teufelernie schrieb:
Nutzt ihr denn eine Konfirgurationsverwaltung wie Puppet oder Ansible? Ab zwei bis drei Servern macht DAS nämlich Sinn...
Ja, Ansible. Wir können damit aber derzeit keinen kompletten Server einrichten, sondern nur einige Dateien an die richtigen Stellen pushen/updaten.

dMopp schrieb:
HE nutzt F5 Loadbalancer, ich denke mal das ist noch immer so?!
Weiß ich nicht, nutzen wir nicht. Die Dinger sind doch reinste Abzocke, weil jeder Server mit nginx deren Job besser und ohne proprietäre Software übernehmen kann, oder?

snaxilian schrieb:
Darf man fragen warum ihr euch den "Spaß" mit Gentoo antut anstatt z.B. ein rock stable Debian/CentOS?
Ich finde Rolling-Release-Distributionen praktisch, weil es dann immer wieder mal Updates gibt anstatt dass ein paar Jahre Sillstand herrscht und sich dann alles auf einen Schlag ändert. Wenn es dann mal Probleme gibt, weiß man wo man suchen muss. Compile-Zeiten sind irrelevant, alles außer GCC und glibc ist in wenigen Minuten fertig (auf dem Desktop kann ich das Argument verstehen, da ist viel mehr Software installiert und einiges davon braucht Stunden). Zudem kann man die offiziellen Pakete bei Bedarf einfach um Patches ergänzen oder die Version bumpen, ohne dass das dann am Paketmanager vorbei passiert.
 
Zuletzt bearbeitet:
zepho schrieb:
Root-Server: Gemietete HW mit Rootzugriff, wahlweise auch als VM möglich. Verwaltung von OS und Applikation erfolgt durch eigene Hand
Housing: Eigene HW kann in eine vorhandene Netzwerk-Infrastruktur integriert werden. Abrechnung des Stellplatz erfolgt in Abhängigkeit zur Bauform, Energienutzung, USV-Lösungen und Netzweranbindung
Dedicated Server: Ein Server der auf einen Einsatz-bereich voroptimiert ist, wie Webhosting oder Gaming. Manchmal wird dies auch gleich als Managed-Server angeboten
Hosting: Das Bereitstellen eine Dienstleistungsmerkmals auf einem Server, z.B. Webhosting, MailHosting, etc.

Wahrscheinlich schlecht geraten. Erleuchtest du uns dumme Menschen bitte snaxilian? ;)
Das hast du ja inzwischen gemacht, genau diese Einteilung meinte ich. Nur setzen leider manche/viele Root-Server mit Dedicated gleich oder halten vServer für managed Systeme weil der Anbieter ja auch das "Install-Image" pflegt mit dem man neu installiert usw. Alles schon da gewesen, gelesen und erlebt ;)

@Steffen: Von Dell zu HPE, ich leide mit euch. Auf die Gefahr hin mich zu wiederholen: DRBD9 je nach Vorliebe über- oder unterhalb von LVM + ggf. NFS. Als STONITH bietet sich das iLO ja perfekt an. Oder hat eure Evaluierung einen Showstopper gefunden, den ich übersehe? Kenne natürlich alle eure Anforderungen nicht.
Rolling Release sehe ich ein, bleibe trotzdem lieber paar Jahre bei einem System, idR. machen wir/ich aber auch selten bis nie Inplace-Upgrades sondern migrieren bei OS-Wechsel auch auf neue/andere Hardware und ziehen dann Applikation + Daten um.
 
Hallo Steffen,

schön das Ihr neue Hardware bekommen habt und der Umzug geklappt hat.

Zum Percona SQL Server, nutzt ihr da ein Master/Slave konstrukt oder einen Percona Cluster?
Ich selbst hatte beides schon in Betrieb um muss sagen das Master/Slave konstrukt ist nicht wirklich "stabil" Restore etwas umständlich. Der Cluster hingegen macht echt spaß einfach einen node nehmen und rebooten und weiter arbeiten ohne sich Gedanken machen zu müssen.
Dabei sei das Backup noch erwähnt besser wie dumpen :D

https://www.percona.com/software/mysql-database/percona-xtrabackup

Statt S3 Speicher kann man sich das hier mal anschauen Elastic File System von AWS
https://aws.amazon.com/de/efs/?nc2=h_m1

Solltet ihr Fragen zu AWS Themen haben, kann ich euch gerne einen Kontakt weiter geben die machen reines AWS Consulting und stehen auch bei Technischen Fragen stehts bereit. Kontakt Infos gibt es gerne per PN.


Was benutzt ihr als Proxy im System, nutzt ihr auch Varnish für Web/SQL ? oder Cached der Nginx?

Grüße
 
Hallo Steffen,

danke für die Einblicke. Solche Transparenz gegenüber dem Forum finde ich klasse :daumen: Hoffentlich wächst CB und das Forum weiter so.
 
Interessanter Artikel, besten Dank für den Einblick :) und ja, trotzdem schade, dass Nimblu keine AMD-Server-CPUs im Angebot hat ... das wäre bei denen doch nach Spectre und Meltdown und bzgl. der Kosten vielleicht 'mal eine Überlegung wert, auch wenn da im Bezug auf CB - wie im Artikel erklärt - nichts zu befürchten ist (es sei denn, es werden in den kommenden Monaten/Jahren noch mehr kritsche Einfallpunkte entdeckt/sich auftun).
 
Zuletzt bearbeitet:
Steffen schrieb:
Danke für die Links! Weil man anscheinend den "kompletten" RAID-Controller austauschen müsste (vorausgesetzt es wird überhaupt einen FBWC-RAID-Controller für Gen10 geben), werden wir das denke ich nicht präventiv machen. Oder hat die Kondensator-Lösung doch irgendeinen Nachteil, weshalb es das bei Gen10 dann nicht mehr gibt? Eigentlich dachte ich die Kondensator-Lösung sei "neuer".

Die Lösung ist auch neuer. Ich kann mir auch gerade nicht erklären, wieso es die nicht gibt. Ich bin gerade mal deren Online Configurator durchgegangen und bei allen kommt die Meldung, dass ich auch eine Batterie auswählen muss (außer die, die keinen Cache haben). Da müsste dann der Controller getauscht werden, wenn HPE denn so einen anbietet. Nachteile sind mir so auch nicht bekannt. Der Controller ist vermutlich wegen dem Speicher teurer und eventuell haben zu wenig Kunden den genommen. Das ist aber nur eine Vermutung meinerseits. Ich könnte sonst mal gucken, ob ich von HPE eine Antwort bekomme.
 
Super Sache wie ihr hier Fragen beantwortet.

Dann hab ich auch Mal eine.
Wenn die Bilder mit 500gb und 135gb Anhänge lokal gehosted werden. Wie gross ist dann die Download Datenbank auf S3?


Steffen schrieb:
Mal ganz davon abgesehen, dass die HPE-Website insgesamt eine Frechheit ist ("Katastrophe" wäre untertrieben). Geschenkt, dass es dort offenbar nirgendswo Bilder des DL360 Gen10 gibt, die mehr als 300x200 Pixel groß sind (weder auf der Produktseite noch im Pressebereich). Aber dass man Firmware-Updates nichtmal nach Erscheinungsdatum sortieren kann, sondern eine (weitgehend?) unsortierte Liste vorgeworfen bekommt, in der man nur mit redundanten Filter- und kaputten Suchfunktionen navigieren kann? Als ich das gesehen habe war ich kurz davor HPE und Nimblu in Frage zu stellen: https://support.hpe.com/hpesc/public/home/driverHome?sp4ts.oid=1010093150.
Hahahaha ja.
Mal abgesehen davon daß die Aktuelle HP Support Homepage absolut schrecklich ist, haben sie die Angewohnheit diese alle 1-2 Jahre komplett neu aufzusetzen.
Ich dachte schon mehrmals ich hätte mich verirrt oder sei auf ner Phishing Seite gelandet....
 
Danke für die Links! Weil man anscheinend den "kompletten" RAID-Controller austauschen müsste (vorausgesetzt es wird überhaupt einen FBWC-RAID-Controller für Gen10 geben), werden wir das denke ich nicht präventiv machen. Oder hat die Kondensator-Lösung doch irgendeinen Nachteil, weshalb es das bei Gen10 dann nicht mehr gibt? Eigentlich dachte ich die Kondensator-Lösung sei "neuer".
Ja es ist neuer und es ist auch direkt schon enthalten, es gibt in der Generation gar keine Controller mehr mit BBWC.
https://www.hpe.com/de/de/product-c...he-12g-sas-modular-controller.1010026915.html
https://www.hpe.com/us/en/product-c...12g-sas-modular-lh-controller.1010026928.html

Also alles gut, ein Akku kann hier nicht mehr kaputt gehen.
 
majusss schrieb:
Wozu RAID-Controller? Die Teile haben keinen Mehrwert, außer das sie zusätzliche Komplexität ins System bringen.

Write cache mit Batterie Backup ist schon ganz nett für HDDs. Mir persönlich ist die Komplexität aber auch unheimlich, und die Dinger sind eine zusätzliche Fehlerquelle. Software RAID ist mir deutlich sympatischer, dann muss man auch nicht noch einen Ersatz RAID-Controller rumliegen haben nur um die Daten lesen zu können wenn er denn mal kaputt geht.
 
teufelernie schrieb:
Ich muss ja sagen: Ganz großes Kino, zumindest enttäuscht ihr mich da nicht, was das Freaklinux angeht. Percona ist für euren Einsatz auch gut gewählt.
Früher (~ MySQL 5.0 oder 5.1) war Percona Server mal sehr sinnvoll, mittlerweile gibt es viele der Optimierungen glaube ich auch Upstream. Aber wir haben gute Erfahrungen damit gemacht und bleiben bis auf Weiteres dabei.

snaxilian schrieb:
Von Dell zu HPE, ich leide mit euch. Auf die Gefahr hin mich zu wiederholen: DRBD9 je nach Vorliebe über- oder unterhalb von LVM + ggf. NFS. Als STONITH bietet sich das iLO ja perfekt an. Oder hat eure Evaluierung einen Showstopper gefunden, den ich übersehe? Kenne natürlich alle eure Anforderungen nicht.
Ich würde mich wohler fühlen bei einer Lösung, die normale Dateisysteme nutzt und dann einzelne Dateien repliziert. Unsere Anforderungen sind bei diesen Dateien ja zu 99% Reads und 1% Writes. Und bei den Writes kann es prinzipbedingt eigentlich keine Konflikte geben, weil die Dateinamen alle eine von der Datenbank vergebene eindeutige ID enthalten (dass zwei Server gleichzeitig eine Anhang-Datei unter demselben Namen speichern wollen ist ausgeschlossen, das verhindert die Datenbank durch die Vergabe eindeutiger IDs).

Ich hatte schon überlegt, mit inotify / fanotify alle Dateisystem-Events abzugreifen und anhand dessen asynchron die entsprechenden Änderungen auch auf dem anderen Server auszuführen (also Marke Eigenbau °°). Zur Kontrolle könnte man regelmäßig rsync im Dry-Run-Modus drüberlaufen lassen und Abweichungen finden. Das ganze scheitert leider daran, dass inotify keine effizienten rekursiven Watches unterstützt und fanotify andere Einschränkungen hat: http://www.lanedo.com/filesystem-monitoring-linux-kernel/

Ich habe das Gefühl DRBD ist für unsere Zwecke Overkill, aber vielleicht muss ich mich damit noch intensiver beschäftigen.

snaxilian schrieb:
Rolling Release sehe ich ein, bleibe trotzdem lieber paar Jahre bei einem System, idR. machen wir/ich aber auch selten bis nie Inplace-Upgrades sondern migrieren bei OS-Wechsel auch auf neue/andere Hardware und ziehen dann Applikation + Daten um.
Ja, das verstehe ich. Kommt halt drauf an was man möchte. Wir möchten zum Beispiel regelmäßig neue nginx- und PHP-Features nutzen. Und sobald es in OpenSSL stabiles TLS 1.3 gibt wäre es auch sehr schön das zeitnah zu haben. Wenn ich aber irgendwem Uptime garantieren müsste, dann würde ich das vermutlich anders sehen. :)

konkretor schrieb:
Zum Percona SQL Server, nutzt ihr da ein Master/Slave konstrukt oder einen Percona Cluster?
Ich selbst hatte beides schon in Betrieb um muss sagen das Master/Slave konstrukt ist nicht wirklich "stabil" Restore etwas umständlich. Der Cluster hingegen macht echt spaß einfach einen node nehmen und rebooten und weiter arbeiten ohne sich Gedanken machen zu müssen.
Master-Slave. Für einen Cluster braucht man mindestens 3 Nodes. Ich habe vor, das Setup mittelfristig auf Master-Master umzustellen, wobei immer einer von beiden Servern read_only=On gesetzt hat. Wer Master ist könnte etcd regeln (den dritten etcd-Node könnte man irgendwo auf einem preiswerten vServer laufen lassen). Wenn ich damit auf die Schnauze falle wird es vielleicht noch ein dritter Server.

konkretor schrieb:
Ja, XtraBackup nutzen wir seit lass mich nachschauen... 2011, kann ich nur empfehlen!

konkretor schrieb:
Statt S3 Speicher kann man sich das hier mal anschauen Elastic File System von AWS
https://aws.amazon.com/de/efs/?nc2=h_m1
Irgendwann mal gehört, kann ich spontan aber nicht einordnen, schaue ich mir nochmal an. Danke.

konkretor schrieb:
Was benutzt ihr als Proxy im System, nutzt ihr auch Varnish für Web/SQL ? oder Cached der Nginx?
Beim Ausliefern der Website nutzen wir auf HTTP-Ebene keinen Cache. Bei jedem Seitenaufruf ist PHP involviert. PHP lädt aber die einzelnen Bestandteile der Seiten teilweise bis komplett aus Redis (es sei denn es wurde gerade ein Artikel veröffentlicht und der jeweilige Cache-Eintrag geflushed). Da könnte man noch etwas optimieren, aber den Großteil der Last verursacht das Forum.

majusss schrieb:
Wozu RAID-Controller? Die Teile haben keinen Mehrwert, außer das sie zusätzliche Komplexität ins System bringen.
Das würde ich so pauschal nicht unterschreiben, in der Tendenz aber schon. Ein RAID-Controller kann dann etwas bringen, wenn er einen Cache mit BBU hat. Dann kann jeder Schreibzugriff schon dann bestätigt werden, wenn die Daten im Cache des Controllers angekommen sind. Es muss nicht auf die Festplatte gewartet werden. Dieser Vorteil schmilzt aber glaube ich bei SSDs und insbesondere NVMe-SSDs zunehmend dahin. Das sehe ich auch als validen Kritikpunkt an unserem neuen Server-Setup: Vielleicht wäre eine Software-RAID-1 mit NVME-SSDs sinnvoller als ein Hardware-RAID-1 mit SSDs und Cache+BBU.

umax1980 schrieb:
Darf man fragen, welche Kosten für diesen Server berechnet werden?
Ich weiß gerade nicht ob ich genaue Zahlen nennen darf/sollte, aber du kannst ja mal auf https://www.nimblu.com/konfigurator/jetzt-konfigurieren den Konfigurator nutzen, um einen ungefähren Eindruck zu bekommen.

Haldi schrieb:
Wenn die Bilder mit 500gb und 135gb Anhänge lokal gehosted werden. Wie gross ist dann die Download Datenbank auf S3?
Gerade im Moment 103 GB. Deutlich größer ist das Video-Bucket (800 GB).

Masamune2 schrieb:
Ja es ist neuer und es ist auch direkt schon enthalten, es gibt in der Generation gar keine Controller mehr mit BBWC.
https://www.hpe.com/de/de/product-c...he-12g-sas-modular-controller.1010026915.html
https://www.hpe.com/us/en/product-c...12g-sas-modular-lh-controller.1010026928.html

Also alles gut, ein Akku kann hier nicht mehr kaputt gehen.
Dass es einen FBWC gibt bedeutet doch nicht unbedingt, dass der von einem Kondensator anstatt Akku gespeist wird, oder? Das Tool "hpssacli" spricht von einer "Battery" und auch das Handbuch spricht von einer "HPE Smart Storage Battery".
 
Zuletzt bearbeitet:
Steffen schrieb:
...
Dass es einen FBWC gibt bedeutet doch nicht unbedingt, dass der von einem Kondensator anstatt Akku gespeist wird, oder? Das Tool "hpssacli" spricht von einer "Battery" und auch das Handbuch spricht von einer "HPE Smart Storage Battery".

FBWC sind immer solid caps (Supercap), dahinter ist dann ein Flash mit eben 1/2/4GB Cache. HP hatte immer schon "kreative" Bezeichnungen für alles Mögliche :freaky:

1031685023.jpg

Ps. Hardwareraid 1 lässt sich eigentlich immer auch als einzelne Platte an einem Controller gleichen Herstellers auslesen. Bei Intel zb. wird im letzten MB dieser Raid-"Container" geschrieben damit der Controller weiß das die Platte zu einem Array gehört, sonst sieht der Controller einfach die "normale" Platte.

edit: hier sieht man die FBWC-Sache besser https://support.hpe.com/hpsc/doc/public/display?docId=emr_na-c02231971
 
Zuletzt bearbeitet:
Alles sehr überschaubar :)
Nunja, CB ist ja nun auch nur ein "einfaches" Forum, da braucht man jetzt wahrlich keine Killer Hardware.
 
Schöner bericht Lese gerne darüber ihr müsstet mal eine kleine staffelung machen mit dem ersten Server von CB bis jetzt mit den dazugehörigen nutzer zahlen muss ja nicht genau sein aber wäre mal intressant :)
 
keine Ahnung was hier der HPE rant soll, habe bisher nur gute Erfahrungen mit dem Support sowie der Einrichtung gemacht. Dell ist bei mir bis jetzt nur durch zweiAusfälle aufgefallen.

Nur der Bedarf von Java für das iLO will mir auch nicht so wirklich in den Kopf.

Nehmen sich aber alle nichts, wirklich „schlimm“ finde ich nur Fuji.
 
Steffen schrieb:
Nimblu hat keine Server mit AMD-CPUs im Angebot: https://www.nimblu.com/produkte/dedicated-server

Da wir mit Host Europe / PlusServer / Nimblu seit 14 Jahren gute Erfahrungen gemacht haben, wechseln wir deshalb nicht den Provider. Früher hatten wir mal einen Opteron, ich bin da ganz unvoreingenommen.

ist leider bei vielen Hostern so.

Die sind seit Jahren bei Intel und Zufrieden so auch mein Anbieter.
Ich hab dort wegen AMD angefragt.

Sie testen natürlich AMD klar könnte evtl ja gut sein für die Marge.
Aber bis jetzt bieten sie auch weiter nur Intel an.

Wen AMD mit der Zen Architektur weiter druck macht und über Jahre Gute Power/Effiziens bringt werden sie wider in die Rechenzentrums kommen.

Steffen schrieb:
Das haben wir früher offen kommuniziert, aber seitdem wir Probleme mit DDoS hatten möchte ich diese Informationen lieber nicht mehr herausgeben. Ich bitte um Verständnis.

Würde ich auch nicht!
Hab ich früher auch nach dem Ich stark mit DDoS zu Kämpfen hatte geb ich auch nichts mehr Preis.
Wobei die Hoster oft selbst leider zu viel Preis geben.

Minimum sind es aber 2x 100Mbit würde ich jetzt behaupten (1x100mbit pro server)
Wobei ich eher von 1000Mbit ausgehen würde wird oben rum ja meist von den Anbietern inkl in den packeten mit rein gestopft.
Würde evtl noch 2x 100mbit je 19er ins Rennen werfen :)

Auf mehr als 3-4Gbit/s sehe ich euch aber nicht um eine Obergrenzen zu Legen :)

PS:
Danke für die News und auch das Steffan uns reden und Antwort steht.
Eure Patches habt ihr ja auch schon gemacht zum Thema Nr1 :)
 
Also ich muß jetzt auch mal eine Lanze für HPE brechen (kenne auch Fujitsu und Dell) und bin seit gefühlten 17 Jahren damit zufrieden. Mir sind dabei diverse kleine und große DL und ML Systeme untergekommen und an der Zuverlässigkeit der Systeme habe ich Nichts auszusetzen. Natürlich fällt auch mal was aus, aber wer sich auf den Auslieferungszustand verlässt, ist selber Schuld. Wie überall gibt es Stümper und Experten, deswegen Augen auf nach dem Serverkauf.

iLO Java Remote Console ist Schrott, die Active-X Remote Console dagegen sehr empfehlenswert, HTML5 wäre noch besser. Aber die Quantensprünge in Sachen iLO1 bis iLO5 von der Handhabbarkeit sind gewaltig. IDRAC hat mich nicht so überzeugt.

Die Support-Seite von HPE ist richtig gruselig aktuell, vor allem weil nicht nach Datum sortiert werden kann. Warum man sich für den Zugriff auf Treiber und Firmware anmelden muß, erschließt sich mir auch nicht, lästig!

Persönlich bin ich auch großer Fan der HPE Storage Systeme, sehr einfach zu konfigurieren. NetApp Storage habe ich hier auch in kleiner und großer Ausprägung und in alter und neuer Bauart und so gut ONTAP auch konfigurierbar ist, so beschissen finde ich die Backup-Performance im Vergleich zu HPE- und EMC-Storage.

Fazit:
Ich finde die Auswahl HPE DL360 G10 eine sehr gute Wahl.

P.S.: Danke für die Insights (allerdings hätte ich zu einer Virtualisierungslösung geraten, vor allem auch wegen eines möglichen DR-Falls oder habe ich da was überlesen?)

Gruß
Marc
 
Zurück
Oben