Kaufberatung Server-Plattform für Virtualisierung und Datenbanktest

webtaz

Lt. Junior Grade
Registriert
März 2010
Beiträge
276
Hallo Zusammen,

ich habe mich ja immer für relativ "belesen" gehalten was Hardware angeht, bin jetzt aber recht ratlos.
Ich benötige Rat zur Auslegung (CPU/RAM/Plattform), wo ich das "kurzfristig" bekommen könnte, und dann vermutlich speziell zum Datenspeicher (für die verschiedenen Anwendungen, wie z.B. Datenbanken)

Ich aber (an der Universität) den Auftrag erhalten "Projektmittel" auszugeben, für eine Serverplattform deren Anforderungen ich nur grob benennen kann.

Rahmenbedingungen:
=> 8000€
19" zweifache Höhe (das ist was an Platz da ist, bzw. was ersetzt werden soll, es wird in einem Serverraum im Gebäude stehen, der angemietet ist)
WICHTIG:
Wegen Projektmitteln usw. muss das ganze entweder direkt bis Anfang Dezember lieferbar sein, oder zumindest ordentliche (angewiesene?) Rechnungsstellung bis zu diesem Datum. (Falls jemand in dieser Richtung einen Händler oder auch Erfahrungen zu Abläufen geben kann, wäre ich auch dankbar.

Vorgesehene Anwendungen:
  • Virtualisierung:
  • - Div. VMs mit verschiedenen Betriebssystemen (momentan arbeiten wir mit HyperV auf Win Server 2016) wenn ein anderes Basissystem deutlich mehr Sinn macht, kann ich das bestimmt durchsetzen.
  • - Docker / Container allgemein, wir planen eigene Container anzubieten (Zukunftsmusik), aber auch für CI/CD im experimentellen Umfeld, zu via CI/CD implementierte Tests, aber auch um andere Services die per Docker angeboten werden laufen zu lassen (Datenbanken,...)
  • CI/CD d.h. für uns wir fangen zuerst damit an unseren Code bzw. Daten mit Tests lokal, dann in einer VM, dann in VM mit Gitlab Runner, und schlussendlich evtl. als Container angeboten.
  • div. Datenbanken (neo4j für Metadaten von Forschungsdaten, evtl. aber auch direkt die Forschungsdaten (keine GBs "pro Messlauf"), aber auch InfluxDB, MongoDB), (wir wollen dieses Projekt testen: https://gitlab.com/dlr-shepard, https://gitlab.com/dlr-shepard/deployment#system-requirements )
  • evtl. das Self-Hosting von HDF Kita bzw. HSDS (eigentlich für Cloud Hosting vorgesehen, POSIX oder OpenIO Storage werden hier genannt)
  • "Nach Projekt" oder bei "Nichtnutzung" sollen die Hardware für Simulationen genutzt werden können (ich denke das kann über separate VMs abgebildet werden? aber bedeutet das etwas für Hardware.

An Hardwareanforderungen wird von shepard z.B. vorgeschlagen: 8GB RAM und 4/8 core per service, neo4j alleine sagt intel Xeon CPU, 8GB+RAM,

Für die OS der Systeme sollte definitiv SSD Speicher her (oder?) - bei den Datenbanken und für echte Datenablage eher ein RAID ?
Die VMs könnten sich nach Möglichkeit Ressourcen teilen (außer jene evtl., die Docker oder Runner dauerhaft hosten)
Wie sollte der Speicher aufgebaut sein (mehrere Controller? etc.) damit er für Virtualisierung gut geeignet ist? Braucht es hier spezielle Dateisysteme für die Objektbasierten Speicherlösungen (OpenIO ) ?



Ich werde versuchen auch mal Produkte, die ich finde, hier zu posten und zur Bewertung zu stellen, allerdings schwimme ich hier ziemlich, ich bin für jeden Ratschlag dankbar!
 
webtaz schrieb:
Ich aber (an der Universität) den Auftrag erhalten "Projektmittel" auszugeben
An dem Punkt hättest du dir den Rest sparen können. Ab damit zum Systemhaus und denen den Text vorlegen.
Die erarbeiten mit dir ein System + Support.

Bezüglich Lieferbarkeit hat ein Systemhaus auch viel mehr Möglichkeiten.
 
  • Gefällt mir
Reaktionen: PHuV, TorenAltair und t-6
Sind beim Budget Lizenzen (für zB VMWare oder Windows Server) schon dabei?

Wollt / braucht ihr Redundanz? Redundanz in Form von mehreren Hosts?

Wie viel Speicher braucht ihr?

Habt ihr an eine Backuplösung auch gedacht? Hier bietet sich zB Veeam an.

Würde wie #2 schon sagt, ein Systemhaus kontaktieren.

Kaufen ist das eine, in Betrieb nehmen, richtig konfigurieren, richtig lizenzieren und hinterher warten ist das eigentliche Thema

Kann an deinen Anforderungen leider nicht erkenne, ob das ne reine Bastellösung sein soll, zum testen oder ob das ein wichtiges Produktivsystem werden soll
 
Für Virtualisierung auf jeden Fall alles auf NVMe.
Ein Container kann mit viel weniger RAM auskommen als eine richtige VM.
Ich kenne nur den Vergleich zwischen Docker/LXC geht ab 512MB, KVM besser ab 2GB.
 
webtaz schrieb:
Für die OS der Systeme sollte definitiv SSD Speicher her (oder?) - bei den Datenbanken und für echte Datenablage eher ein RAID ?
Wenn dann für die Datenbankserver die SSDs
 
  • Gefällt mir
Reaktionen: BrollyLSSJ und t-6
webtaz schrieb:
Ich aber (an der Universität) den Auftrag erhalten "Projektmittel" auszugeben, für eine Serverplattform deren Anforderungen ich nur grob benennen kann.
Deine Uni hat Rahmenverträge, die hier keiner kennt. Und was ist mit dem Support für die Hardware? Wie lange soll die Serverhardware Support haben? Same day? Next-Business-Day? Welche Laufzeit?

Normalerweise fragt man soetwas das eigene Uni-RZ.

Die Lieferzeiten für Serverhardware sind zur Zeit ohnehin sehr unvorhersehbar. Selbst wenn wir über die Rahmenverträge bestellen, dauert es mitunter mehrere Wochen in Abhängigkeit davon, was darin verbaut ist.
 
Zuletzt bearbeitet:
webtaz schrieb:
Für die OS der Systeme sollte definitiv SSD Speicher her (oder?) - bei den Datenbanken und für echte Datenablage eher ein RAID ?
ja wie jetzt. beides natürlich. SSD RAID für alles, was sonst.
Auf HDDs greift man nur für Langzeitaufbewahrung von statischen Daten zurück.
 
Beim Rechenzentrum anfragen welchen Lieferanten für Server die nehmen; das wäre die ALLER-erste Anlaufstelle, auch damit die nicht bös überrascht werden weil ein Institut angeflemmt kommt weil der neue Server - von dem die bis dato nichts gewusst haben - nicht richtig ins Uni-Netz kommt und die Deadline ist in einer Stunde.

Falls Ihr komplett autark seid: --> Systemhaus; allein schon um Projektpreise für öA/Edu rauszuschlagen.
 
  • Gefällt mir
Reaktionen: nebulein, TriceO und madmax2010
Und wie bereits angesprochen wurde, sind die Lizenzkosten u.U. sehr hoch. Da komm es alles darauf an was die Uni für Kondizionen hat. Da gibt es bestimmt ein paar Leute im Rechenzentrum, die das schon mal gemacht haben.
 
  • Gefällt mir
Reaktionen: t-6
" direkt bis Anfang Dezember lieferbar " ist auch komplett ausgeschlossen. Wir geben 3-4 Monate an als Partner von allen gängigen Herstellern. Recherchiere erstmal wie und wo ihr sonst Hardware bezieht. Lizenzen gibt's alle mit EDU Rabatten für fast nichts hinterhergeworfen.
 
  • Gefällt mir
Reaktionen: TorenAltair und madmax2010
Tamron schrieb:
st auch komplett ausgeschlossen. Wir geben 3-4 Monate an als Partner von allen gängigen Herstellern.
+1
unsere aktuellen Cluster sollen mit zen3 CPUs laufen. Anfragen an den Distributor gehen i.d.r mit 'nimm als CPU was am schnellsten verfuegbar ist' raus.


wo sollen die Server denn laufen (uni rz vorhanden?)?
Welche Anforderungen soll es an die Wartung geben?
Soll es eher Supermicro oder HP/Lenovo/Dell & Co sei?
Welche Virtualisierungssoftware soll drauf? Klingt eig. als ob Proxmox sinnvoll ist.
Falls ihr kein systemhaus habt: Kann dir gern welche Empfehlen. Dann gibts auch geschreite Rabatte ;)

Ergänzung ()

0x7c9aa894 schrieb:
Für Virtualisierung auf jeden Fall alles auf NVMe.
Warum das? Bei Datenbanken macht das Sinn, aber abgesehen davon profitieren relativ wenige anwendungen von den Latenzen. kleine Webanweundungen mit ein paar zehntausend Usern können auch super auf einer bspw MX500 ohne das sie an ihre IO grenzen kommt.
Kommt immer auf die Anforderungen an..
0x7c9aa894 schrieb:
Ein Container kann mit viel weniger RAM auskommen als eine richtige VM.
kommt drauf an..
0x7c9aa894 schrieb:
Ich kenne nur den Vergleich zwischen Docker/LXC geht ab 512MB, KVM besser ab 2GB.
Docker ist eine Runtime, die ich nicht mehr empfehlen würde.., LXC ein Containerformat
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PHuV
Die influxd tun es in der Regel auch einfache HDDs.

8k€ sind nicht viel. Bei nem 2U Server musst dich auch entscheiden ob 2.5 oder 3.5" Platten. Wenn 2.5" kannst gleich Flash online SATA Platten nehmen.

Wie gesagt, du musst erstmal definieren was du an Redundanz brauchst. 2 PSUs sind denke ich gesetzt. Aber wie sieht es mit Netzanbindung aus? Ich hoffe ihr wollt nicht über 1G gehen.

Und aktuell verstehe ich das ihr genau einen Server wollt. Wenn es mehr werden sollen sond 2U4N immer eine Überlegung Wert.

Aber wie schon gesagt. Bis Dezember ne Lieferung? Vergiss es.

Wenn du nach Bang for the Bugs schaust, wird es wahrscheinlich nen Rome EPYC Dualsocket mit 128GB ECC Ram. 10G nic ist eventuell schon onboard.

SAS würde ich bei dem Budget die Finger von lassen. Und auf 3.5" HDD sowie zwei M2 NVMEs setzen. In eurem Fall wohl billigen Consumer Kram. Dann kannste auch nen TB oder zwei nehmen als raid1. Der Rest als raid5.

Wobei ich lvm dringend empfehlen würde. Wenn ihr so viel unterschiedliches Zeug laufen lassen wollt werdet ihr nicht drum Rum kommen das hin und wieder zu ändern bezüglich der Zuteilung.

Insgesamt aber nicht viel Luft für große Sprünge.
 
  • Gefällt mir
Reaktionen: webtaz
Oh wow, das waren schnell und viel mehr antworten als ich erwartet habe.
Bruzla schrieb:
Sind beim Budget Lizenzen (für zB VMWare oder Windows Server) schon dabei?
Sind erstmal nicht angedacht. Idealerweise würden wir versuchen soweit wie möglich (Free&) Open Source zu verwenden, Windows Server Lizenzen würden über die Uni gehen (und das kann dann nächstes Jahr über andere Töpfe usw. gehen.
Bruzla schrieb:
Wollt / braucht ihr Redundanz? Redundanz in Form von mehreren Hosts?
Soweit nicht.
Bruzla schrieb:
Wie viel Speicher braucht ihr?
Momentan nicht hoch also ein- bis niedriger (mittlerer) zweistelliger TB Bereich insgesamt.
Bruzla schrieb:
Habt ihr an eine Backuplösung auch gedacht? Hier bietet sich zB Veeam an.
Soweit ich weiß sind solche schon vorhanden (eben Veeam)
Bruzla schrieb:
Kaufen ist das eine, in Betrieb nehmen, richtig konfigurieren, richtig lizenzieren und hinterher warten ist das eigentliche Thema

Bruzla schrieb:
Kann an deinen Anforderungen leider nicht erkenne, ob das ne reine Bastellösung sein soll, zum testen oder ob das ein wichtiges Produktivsystem werden soll
Soll vorerst wirklich nur zum Basteln sein, wobei später daraus ein Produktivsystem erwachsen könnte - aber das kann dann auch Umbauten / Upgrades mit sich bringen, muss also nicht bereits darauf ausgelegt sein.
Atkatla schrieb:
Deine Uni hat Rahmenverträge, die hier keiner kennt. Und was ist mit dem Support für die Hardware? Wie lange soll die Serverhardware Support haben? Same day? Next-Business-Day? Welche Laufzeit?

Normalerweise fragt man soetwas das eigene Uni-RZ.

Die Lieferzeiten für Serverhardware sind zur Zeit ohnehin sehr unvorhersehbar. Selbst wenn wir über die Rahmenverträge bestellen, dauert es mitunter mehrere Wochen in Abhängigkeit davon, was darin verbaut ist.
Mir wurde von der Institutsleitung zumindest nicht kommuniziert hier über die Uni bzw. unser RZ zu gehen. Könnte sein, dass es hier in der Vergangenheit schlechte Erfahrungen gab, und deshalb in der Vergangenheit Mailserver oÄ selbst angeschafft wurden.
madmax2010 schrieb:
wo sollen die Server denn laufen (uni rz vorhanden?)?
Das wird nicht direkt im /am RZ sein, aber in einem Kellerraum hier im Gebäude, das vom RZ angemietet wurde (ich habe ihn selbst noch nicht gesehen XD), und in dem auch schon andere Server laufen (und Ethernet, Strom, Kühlung/Lüftung vorhanden ist.
madmax2010 schrieb:
Welche Anforderungen soll es an die Wartung geben?
Da es keine wichtige Infrastruktur ist, sondern eher "Prüfstand" / "Basteln" kein hoher.
Ich würde ja selbst dran rumschrauben, aber so etwas wie 24/7 braucht es sicher nicht.

madmax2010 schrieb:
Soll es eher Supermicro oder HP/Lenovo/Dell & Co sei?
Keine Präferenz (soweit mir bekannt)
madmax2010 schrieb:
Welche Virtualisierungssoftware soll drauf? Klingt eig. als ob Proxmox sinnvoll ist.
Auch da besteht noch freie Auswahl, wir sind eben Wissenschaftliche Mitarbeiter keine ITler, wir müssten uns sowieso in das meiste reinlesen.
Wäre natürlich interessant bereits vorhandene VM von HyperV übernehmen zu können? (Die haben alle aber noch keine "fordernden" Aufgaben, sprich man könnte den gesamten alten Server virtualisieren (afaik geben die Win Server Lizenzen das (teils?) her)
madmax2010 schrieb:
Falls ihr kein systemhaus habt: Kann dir gern welche Empfehlen. Dann gibts auch geschreite Rabatte ;)


Gerne gehe ich morgen/übermorgen auch nochmal mit einer Reihe Fragen zur Institutsleitung.

Wenn hier aber die Mehrheit sagt, dass das bis Dezember nicht mehr zu machen ist (wie gesagt muss nicht Lieferung sein, aber Rechnungsstellung + Bezahlung), dann könnten die Mittel auch noch umgewidmet werden.
 
webtaz schrieb:
Wenn hier aber die Mehrheit sagt, dass das bis Dezember nicht mehr zu machen ist, dann könnten die Mittel auch noch umgewidmet werden.
Naja, man kann so Dinge machen wie Lieferung zum Partner mit Rechnungsstellung etc. Weiß ja am Ende keiner ob der Server der fotografiert wird am Ende auch der ist den man bekommt. Wir haben ja Corona und so...

Aber Die Zeit ist schon sehr sportlich. Wenn ihr Glück habt hat einer das was ihr wollt da. Ansonsten wird es sehr schwer, selbst bei nem einzelnen Server.
 
@madmax2010 nannte Proxmox
kurz überflogen klingt das passend
Das wäre dann das Server OS, als Debian für LVM auch unterstützt werden?


Aus den Anforderungen auf deren Website:
  • Intel EMT64 oder AMD64 mit Intel VT/AMD-V CPU Flag.
  • Arbeitsspeicher: mind. 2 GB für OS und Proxmox VE-Dienste. Für jeden Gast zusätzlichen Arbeitsspeicher. Zusätzlicher Arbeitsspeicher für Ceph oder ZFS, ca. 1 GB Speicher pro TB genutztem Storage.
  • Schneller und redundanter Storage, SSD Disks empfohlen.
  • OS-Storage: Hardware RAID mit Batterie-gestütztem RAID-Controller (“BBU”), oder non-RAID mit ZFS- und SSD-Cache.
  • VM-Storage: Für lokales Storage, Hardware RAID mit BBU, oder non-RAID für ZFS. Weder ZFS noch Ceph sind kompatibel mit einem Hardware RAID-Controller. Auch shared und distributed Storage sind möglich.
  • Redundante Gbit NICs, zusätzliche NICs je nach Storage-Technologie und Cluster-Setup - 10 Gbit und mehr sind unterstütz
CPU und RAM sollten klar gehen,

Zum Storage, brauche ich wieder etwas Nachhilfe:
Generell ist Hardware Raid doch vorzuziehen oder? die BBU klingen für mich nach hohen Anforderungen die ich nicht sehe (wenn hier Stromausfall ist, dann arbeitet eh erstmal niemand mehr ?) - oder geht es hier darum Dateisysteme zu schützen (sprich wenn Strom einfach weg, dann wäre nicht nur die aktuell geschriebene Datei im Eimer, sondern das ganze Volume ?)
ZFS und Ceph würde ich jetzt einfach mal übergehen. BBUs sorgen ja auch d

Skysnake schrieb:
8k€ sind nicht viel. Bei nem 2U Server musst dich auch entscheiden ob 2.5 oder 3.5" Platten. Wenn 2.5" kannst gleich Flash online SATA Platten nehmen.
Ich denke das war tatsächlich eine der wenigen Präferenzen die ich gehört habe, für 2,5"
  • I
Skysnake schrieb:
Wie gesagt, du musst erstmal definieren was du an Redundanz brauchst. 2 PSUs sind denke ich gesetzt. Aber wie sieht es mit Netzanbindung aus? Ich hoffe ihr wollt nicht über 1G gehen.
Die 2 PSUs habe ich bisher auch immer gesehen. Das müsste ich noch genau nachfragen, der alte Mailserver (der ersetzt werden soll, nicht für einen neuen Mailserver) hat zumindest drei GBit Ethernet Interfaces (2x I350 und CT Desktop)
Skysnake schrieb:
Und aktuell verstehe ich das ihr genau einen Server wollt. Wenn es mehr werden sollen sond 2U4N immer eine Überlegung Wert.
ja, wirklich nur einer
Skysnake schrieb:
Wenn du nach Bang for the Bugs schaust, wird es wahrscheinlich nen Rome EPYC Dualsocket mit 128GB ECC Ram. 10G nic ist eventuell schon onboard.
Dann auch mit 2 CPUs? Oder sind die Plattformen einfach günstiger ?

Skysnake schrieb:
SAS würde ich bei dem Budget die Finger von lassen. Und auf 3.5" HDD sowie zwei M2 NVMEs setzen. In eurem Fall wohl billigen Consumer Kram. Dann kannste auch nen TB oder zwei nehmen als raid1. Der Rest als raid5.
Also 1-2 TB (x2) Raid1 NVME als OS- und VM Storage, und RAID5 HDDs als Datenspeicher?
Skysnake schrieb:
Wobei ich lvm dringend empfehlen würde. Wenn ihr so viel unterschiedliches Zeug laufen lassen wollt werdet ihr nicht drum Rum kommen das hin und wieder zu ändern bezüglich der Zuteilung.
Insgesamt aber nicht viel Luft für große Sprünge.
Mit lvm würde ich dann die den SSD-RAiD1 in Volumes für einzelne VMs zuteilen? Oder den RAID5 ?
Ergänzung ()

Skysnake schrieb:
Wenn 2.5" kannst gleich Flash online SATA Platten nehmen.
https://geizhals.de/delock-sata-flash-module-32gb-54656-a1295619.html
So etwas? Das ist ja kein 2,5", was ist der Vorteil hier, die Größen sind doch recht klein?
 
Zuletzt bearbeitet:
webtaz schrieb:
Zum Storage, brauche ich wieder etwas Nachhilfe:
Generell ist Hardware Raid doch vorzuziehen oder?
Wenn Geld keine Rolle spielt ja. Also für euch ziemlich sicher nein. Nen HW-Raid Controller macht nur Sinn, wen er nen Write buffer hat. Und dann brauchst du ne Batterie für den Controller sonst sind Daten bei nem Stromausfall hinüber. Bei HWRaid ist ja der Witz, das bei einem Write Cache der Controller dem OS bereits das sync to disk zurück gibt, wenn die Daten erst im FLÜCHTIGEN Cache des Controllers sind. Und das ist halt um Größenordnungen schneller als der Write to disk. Selbst SSDs sind nicht so schnell. In den meisten Fällen brauchst du das aber nicht und man kann sich die Kosten sparen.

webtaz schrieb:
die BBU klingen für mich nach hohen Anforderungen die ich nicht sehe (wenn hier Stromausfall ist, dann arbeitet eh erstmal niemand mehr ?) - oder geht es hier darum Dateisysteme zu schützen (sprich wenn Strom einfach weg, dann wäre nicht nur die aktuell geschriebene Datei im Eimer, sondern das ganze Volume ?)
Jup, ohne Batterie (BBU?) musst du den Write cache abschalten wenn dir deine Daten was bedeuten. Und dann kann man es meiner Meinung nach auch einfach sein lassen...

webtaz schrieb:
ZFS und Ceph würde ich jetzt einfach mal übergehen. BBUs sorgen ja auch d
Ceph ja, weil das für multi node ist. Du hast da nen storage Cluster dann.

ZFS könnte aber interessant sein, da müsste man aber genauer wissen was ihr machen wollt. Schau dir mal die Snapshots an. Wenn du das nicht brauchst lass ZFS eher weg.

Die Komplexität kann man sich dann sparen

webtaz schrieb:
Ich denke das war tatsächlich eine der wenigen Präferenzen die ich gehört habe, für 2,5
Dann bist du aber bei HDDs bei max 4TB pro Platte. 2U hat 24 slots also max 96TB. Wenn euch das reicht ok. Billig viel Speicher bekommst du aber eher mit 3.5" HDD. Aktuell gibt es die Toshiba 14TB für 240€. Da würde ich 6 von nehmen für nen Raid6. Die restlichen 6 Slots dann entweder nochmals nen raid 5 oder 6 nach zu schieben für mehr Platz oder halt SSDs rein packen um schnellen Speicher zu haben. Oder halt für nen ZFS SSD Cache.

webtaz schrieb:
Dann auch mit 2 CPUs? Oder sind die Plattformen einfach günstiger ?
Ob 1 oder 2 CPUs müsst ihr halt bei den Kosten checken. Die 128GB ergeben sich durch 16 Channels für Dual Socket. Es gibt halt nicht weniger als 8GB DIMMs und wenn doch mal sind die ziemlich teuer. Wenn's dumm läuft gibt es irgendwann nur noch 16GB DIMMs...

Ihr könnt aber durchaus mit einer CPU anfangen um erst mal Kosten zu sparen. Würde ich aber wirklich nur machen wenn nötig.

webtaz schrieb:
Also 1-2 TB (x2) Raid1 NVME als OS- und VM Storage, und RAID5 HDDs als Datenspeicher?
Die NVMes für das rootfs vom Host und den VMs. Die Homes und alles was sonst Platz braucht geht auf das Raid.

1-2TB sind nicht viel Platz. Beim Host kann man sich vielleicht noch überlegen alles auf die NVMes zu packen um es einfacher zu machen in der Administration. Dann muss man aber schon Disziplin haben da keinen Datenmüll ab zu legen...

Ich würde das an sich auch eher nicht partitionieren abseits dem zwingend nötigen für die bootpartition etc. Für die VMs würde ich dann ein logical Volumes machen, die je nachdem auf den NVMEs oder dem Raid liegt.

Beim Raid würde ich eine Partition für die VM Volunes machen und eine für Sachen die für das Host System sind. Wenn ihr wirklich auf der Kiste auch rechnen wollt, dann würde ich das nicht in ner VM machen wenn es nicht nötig ist. Den Overhead kann man sich sparen. Wobei halt die Frage ist wieviel ihr "rechnet" wahrscheinlich doch lieber in die VM um die Administration einfacher zu machen.

webtaz schrieb:
Mit lvm würde ich dann die den SSD-RAiD1 in Volumes für einzelne VMs zuteilen? Oder den RAID5 ?
Also bei den NVMes kann man es sich überlegen, wenn man Partitionen als Blockdevice direkt durchreichen will. Ich würde aber erstmal schauen ob nen Logical Volume nicht schnell genug ist, wovon ich ausgehe. Sprich lvm schon mal aufsetzen aber erst mal alles in ein Volume packen.

webtaz schrieb:
://geizhals.de/delock-sata-flash-module-32gb-54656-a1295619.html
So etwas? Das ist ja kein 2,5", was ist der Vorteil hier, die Größen sind doch recht klein?
Ne, das sind SATA DOMs. Auf Serverboards hat man oft Sata Buchsen die auch Strom liefern können. Ist dann quasi wie USB nur mit SATA. Da kann man dann so kleine Dinger rein packen um das OS installieren zu können oder um Log files lokal speichern zu können und ansonsten PXE Boot zu machen. Die Daten liegen dann normal in einem NAS oder SAN.

Mit so was verschwendet man halt keine Disk Bay und packt nicht so viel Zusatzkosten pro Server dazu.

Die M2 SSDs haben den gleichen Zwecks nur das sie viel größer und schneller sind. Ein Nachteil hat M2 gegen Sata. Es ist nicht hotswap fähig. Aber das ist für dich ja egal.

Ich meine aber, das ihr SATA SSDs nehmen sollt und nicht welche mit SAS oder U2, also PCIe, oder nem anderen der neuen Disk Formate für Flash basierte drives.

Darum ging es mir mit dem Kommentar.
 
Habe heute leider zu viel zwischenrein bekommen.

Ich habe mal etwas zusammengestellt (dabei eure Angaben bedacht), dass ich als absolute baseline betrachten könnte. (Gerne wäre ich ja eine CPU Etage höher gegangen...also mehr Kerne)
Mit EPYC konnte ich nur 3,5" Festplatten (Slots?) finden im verwendeten Konfigurator.
Mir ist auch bewusst, dass das im Preis im Gespräch noch deutlich runter sollte - bzw. in Spezifikationen nach oben.

Seht ihr dabei eklatante Mängel?
Die 2TB SSD NVMe sollten locker reichen um auch Anwendungen zu testen bei denen das HDD Raid 5 (oder 5+0?) limitiert.

Das zweite ist komplett mit 2,5" (und NVME), gefällt mir persönlich aber weniger, zumal an weniger Stellen Upgrade Möglichkeiten gegeben sind.

Die Zusammenstellung wäre auch nur als Grundlage für Gespräche mit Vorgesetzten bzw. eben als unterste Orientierung beim Aushandeln gedacht.
 

Anhänge

  • supermicro-server-konfigurieren-egino-23122a-SoC-amd-epyc-1129921 (1).pdf
    268,1 KB · Aufrufe: 265
  • supermicro-storage-server-konfigurieren-egino-22241s-c422-1129940 (1).pdf
    219,1 KB · Aufrufe: 313
Jetzt geh endlich zum Systemhaus oder ruf die Typen an bei denen du das bestellen willst....
 
Tamron schrieb:
Jetzt geh endlich zum Systemhaus oder ruf die Typen an bei denen du das bestellen willst....
Morgen! Versprochen! ;) Habe jetzt auch einen Blocker im Kalender, so dass nicht wieder alles mögliche "dazwischen" kommt.
 
Ist bei den beiden Zusammenstellungen auch empfehlenswert und nicht böse gemeint, aber da sind so einige Konfigurationsfehler drin bzw. teilweise alte Hardware konfiguriert. Es ist zwar gut wenn man grundsätzlich mit einem Plan an die Sache heran geht, aber glaub mir die Systemhäuser wissen sehr genau was auf Dauer funktioniert und was nicht. Das ist deren tägliches Geschäft.
 
Zurück
Oben