AMD Epyc 9175F vs. AMD Epyc 4585PX

qiller

Commodore
Registriert
Nov. 2022
Beiträge
4.921
Hu zusammen,

ich mache grad ne Überlegung/Brainstorming für ein eventuelles Hardware-Upgrade bei ner Firma, die ich mit betreue. Und zwar nutzt die Firma die "Sage 100 Warenwirtschaft" (die Warenwirtschaft selber betreue ich nicht, aber das ganze drumrum) und die ist leider ziemlich lahm. Wenn man da in der Warenwirtschaft rumklickt, hat man da öfters mal nen schönen Ladekreis in der Sage App, teilweise bis zu 15s.

Einige Tips und Hinweise im Sage-Forum haben wir schon umgesetzt (oder hatten diese eh schon so, wie z.B. High-Performance Energiesparplan, C-States deaktiviert, AV deaktivieren etc.), aber einige Tips gingen auch auf die Hardware selber ein.

Und zwar ist Sage 100 wohl ziemlich schlecht für Mehrkern-CPUs optimiert, so dass im Sage-Forum stur hochtaktende (AMD-)CPUs empfohlen werden. Aktuell läuft das Sage 100 Hyper-V virtualisiert verteilt auf 2 Intel Xeon-Server (2x Intel Xeon Silver 4215R + 2x Intel Xeon Gold 5222). Der SQL-Server läuft auf dem Xeon Gold 5222-System, der Sage 100 Application-Server und der Remotedesktopserver (hier ist dann der Sage 100 Client installiert) auf dem Xeon Silver 4215R-System. Also Cascade Lake IPC und ca. 3.2-3.9GHz Kerntaktfrequenz.

Der Plan wäre den SQL-Server da zu lassen, wo er ist, weil dieser problemlos mit mehreren Kernen umgehen kann und immer wenn ich mich da drauf schalte, langweilt der sich zu tode. Den Sage-Application- und vor allem den Remotedesktop-Server würde ich allerdings gern auf IPC- und taktstärkere CPUs umziehen. Da die Server virtualisiert sind, ist das auch relativ unproblematisch.

Welche CPU aus dem Threadtitel würdet ihr bevorzugen? Im Sage Forum tauchte immer wieder der AMD Epyc 4585PX auf. Allerdings wurde da immer nur von ~10 Usern geredet. Bei der Firma sollen allerdings bis zu 30 Nutzer auf dem Remotedesktopserver arbeiten können.

Am Epyc 4585PX stört mich das Dual-Channel Speicherinterface (PCIe Lanes würden ausreichen) und am Epyc 9175F natürlich die höheren Kosten und dass er im Passmark (andere Vergleichsbenchmarks hatte ich noch nicht gefunden) 9% schlechter abschneidet. Ich hatte erst überlegt, ob die Aufteilung der 16 Kerne auf 16 einzelne CCDs (wo dann nur 1 Kern aktiv ist und der dann satte 32MB L3 Cache für sich allein hat) nicht vlt. nachteilig wäre. Aber da die Sage 100 App wie gesagt nix mit mehr Kernen anfangen kann, denke ich dass eine evt. schlechtere Inter-Core Latenz hier keinen Einfluss haben dürfte.

Die Frage ist also, kann der (deutlich) günstigere 4585PX mit seinem Dual-Channel seinen Vorsprung auch halten, wenn da nicht nur ~10 User gleichzeitig arbeiten? Was denkt ihr?

Hinweis: Das soll hier keine Kaufberatung sein, eher ein Brainstorming. Achso, und ich glaube nicht, dass eine Wartezeit von 15s dann mit neuer Hardware plötzlich auf nur 1-2s fällt, wie sich das einige da in der Firma vorstellen. Ich persönlich finds einfach nur traurig, wie schlecht die Software optimiert sein muss, wenn aktuelle, hochtaktende CPUs mit ordentlich Cache die Lösung sein sollen.
 
Zuletzt bearbeitet:
Willkommen in der heutigen Welt der „wir schmeissen nur noch ineffizenten Müll in die Welt“.

Ich kann ggf nicht mit Sage helfen, aber haste mal ggf analysiert woran es genau liegt der bottleneck? Theoretisch nach Beschreibung müsste ja in dem Prozess von 15 Sekunden irgendwas irgendwo blockieren. Also laut das was du aufrüsten willst: 10 CPU Kerne.

Wenn die Software zb nur ein Kern pro User Instanz nutzen sollte, wär das ein ziemliches Problem.

Hab das gleiche nämlich mit JTL Wawi und dem SQL Server, es ist einfach stur langsam und hab schon die dicken Geschützenausgefahren, AM5 Platform, 64GB RAM, 10Gbit Glasfaser zum Client und den Server halt auch. Im Endeffekt ist der SQL Server einfach nicht mehr Zeitgemäß imho.

Aber irgendwie gefällt es vielen Firmen wenn man sich zwischendurch nochmal ein Kaffee ziehen kann.
 
  • Gefällt mir
Reaktionen: NameHere
Was mir aufgefallen ist, große SQL datenbanken sind auf einem richtigen Server deutlich schneller als in einer VM. Beim testen wieso ist es die RAM-Geschwindigkeit die in der VM deutlich einbricht.
Die Datenbank Files der Ausschluss Liste des AV hinzufügen mach ich schon seit vielen Jahren.
Evtl. darüber nachdenken die Software zu wechseln.
 
  • Gefällt mir
Reaktionen: =dantE=
Die Frage wäre auch, ob etwas an der Software angepasst wurde. Falls ja, wurde vielleicht ineffizient programmiert?

Ich selber kann nur Microsoft Dynamics programmieren, erlebe es aber immer wieder, dass viele Systemhäuser falsche Befehle verwenden und anstatt bei einer Suche einmal alles in den Arbeitsspeicher zu laden, man lieber jedes Mal wieder von vorne anfängt.

Ebenfalls ist immer interessant, auf welchen Festplatten läuft das Ganze denn? Ich gehe davon aus, dass man die Datenbanken auf SSD's mit dementsprechend IOPS laufen lässt?
 
Wahrscheinlich liegt es an der MS SQL. Prüfe welche Version installiert ist. Wenn die installierte Version nur ein CPU-Kern nutzt, dann musst du die SQL upgraden. Im Netz gibt es Versionsvergleich.
Bevor Geld in Hardware fließt, wird es wohl in das SQL Upgrade fließen.
 
  • Gefällt mir
Reaktionen: =dantE=
Ich hoffe doch nicht, dass man auf einem Produktivsystem noch eine so alte SQL Version nutzt. SQL 2008 konnte doch bereits 8 Prozessoren nutzen, bestimmte Versionen sogar 256 Kerne.
 
@Shark1705 aber nur wenn man sie lizenziert hat.
Auch bei SQL gilt immer mal wenige schnelle kerne sind besser als viele langsame Kerne
 
@Shark1705 diese Versionen kosten Geld. Mit SAGE wird wahrscheinlich die kostelose Version ausgeliefert. Und die unterstützt nur 1 CPU-Kern.
 
Auch die kostenlose SQL Express Version unterstützt 4 Kerne. Ich hätte da eher Schwierigkeiten, dass man nur 1 GB RAM unterstützt und nur 10 GB an Datenbankgröße.
 
@NameHere das mit 1 kern bei der sql express war mal. Mit den aktullen versionen wurde das auf 4 kerne angehoben.
aktulle genzen pro Instanz liegen bei glaub 4 Kerne, 1,5 GB RAM und 50 GB Datenbank
 
  • Gefällt mir
Reaktionen: konkretor und qiller
@Shark1705 @wern001 Danke für die Info. Hatte das mit einem Kern noch im Kopf. Das mit der RAM Begrenzung war ja auch noch.

P.S. Ich habe noch eine Übersicht der 2025 Version

Screenshot 2025-12-15 090850.png
 
  • Gefällt mir
Reaktionen: qiller, wern001 und Shark1705
Was mir kürzlich aufgefallen ist als ich einen Server geupdatet habe.
Sata SSDs sind in einer HyperV instanz arsch langsam.

2x Samsumg 860 Pro (Raid1 an einem Adaptec SmartRaid) auf dem Host mit Diskmark bis zu 800 MB/sek in der HyperV VM nur noch ca 30 MB/sek
Nach tausch der SATA Samungs gegen zwei SAS-SSDs auf dem Host ca 1000-1200 MB/sek in der HyperV VM bis zu 800 MB/sek

Es wurde keine einstellungen verändert nur das SATA Raid1 auf ein SAS Raid1 geklont.
 
Ja bei so etwas spare ich nie, da es sich über die Laufzeit locker rentiert. Wir haben hier aktuell in der VMWare für das ERP-System 10GB/s lesen und je nach Dateigröße bis zu 4 GB/s schreiben. Auch bei den kleinen Dateien kommen wir in der virtuellen Maschine auf über 1 GB/s schreibend, meistens sind es ja genau die vielen kleinen Datenbankzugriffe.
 
Für mich klingt das stark nach einem SQL Bottleneck, der Applikations-Server und DB-Server können schon direkt ohne Firewall kommunizieren?
Läuft der Terminal Server als richtiger Terminal Server oder als Remote Apps?
Wie ist der Virenscanner für den DB Server konfiguriert?
Wann wurden Daten zu Letzt ins Archiv verschoben? Sprich wie gross sind die Tabellen?
Wann wurde zu letzt ein Reindex durchgeführt?
 
crazycusti schrieb:
Willkommen in der heutigen Welt der „wir schmeissen nur noch ineffizenten Müll in die Welt“.
Ja da bin ich schon lange. Was ich immer nicht verstehe: Warenwirtschaftssysteme gibts doch schon verdammt lange. Wie haben die Entwickler das denn vor über 20 Jahren hinbekommen, wo nur ein Bruchteil der Leistung heutiger Systeme vorhanden war?

crazycusti schrieb:
aber haste mal ggf analysiert woran es genau liegt der bottleneck?
Ja, auf dem VMHost und in den Server VMs selber. Die IOPs des NVMe RAID Verbunds hatte ich auch erst im Verdacht, aber auch da nur niedrige einstellige Warteschlangen/Antwortzeiten. Dann hatte ich noch das Netzwerk in Verdacht, aber die Server sind alle mit 10G angeschlossen und da fließen auch kaum Daten, wenn man in der Sage 100 rumklickt. Das einzige, was man sah, waren halt die CPU-Ausschläge. Auf dem RDS-Server stark, auf dem Sage App Server moderat und auf dem SQL-Server musste ich mit der Lupe gucken.

Shark1705 schrieb:
Die Frage wäre auch, ob etwas an der Software angepasst wurde. Falls ja, wurde vielleicht ineffizient programmiert?
Ja, da wurden wohl Anpassungen vorgenommen. Dazu kann ich aber nix sagen, weil ich da nicht involviert bin. Ich denke ja auch, dass das eher ein Software-Problem ist, aber ich bin kein Sage Fachmann.

Shark1705 schrieb:
auf welchen Festplatten läuft das Ganze denn?
NVMe SSDs in nem Hardware RAID1 (2x1TB). Der SQL Server leider auf nem RAID5 (4x1TB), aber wie gesagt, der langweilt sich einfach. Achso und, Sage100 ist auch lahm, wenn nur sehr wenige Nutzer oder gar nur einer drauf ist (wurde am Wochenende im HomeOffice mal getestet). Also die IOPs sind nicht das Problem.

NameHere schrieb:
Wahrscheinlich liegt es an der MS SQL. Prüfe welche Version installiert ist.
Da ist ein vollständig lizensierter MS SQL Server 2019 drauf, kein Express, der nur 1 Kern nutzt.

wern001 schrieb:
das mit 1 kern bei der sql express war mal. Mit den aktullen versionen wurde das auf 4 kerne angehoben.
wern001 schrieb:
aktulle genzen pro Instanz liegen bei glaub 4 Kerne, 1,5 GB RAM und 50 GB Datenbank
NameHere schrieb:
Ich habe noch eine Übersicht der 2025 Version
Ah, danke euch, gut zu wissen.
Ergänzung ()

AAS schrieb:
Läuft der Terminal Server als richtiger Terminal Server oder als Remote Apps?
Läuft als richtiger RDS-Server.
Ergänzung ()

AAS schrieb:
der Applikations-Server und DB-Server können schon direkt ohne Firewall kommunizieren?
Ja, können sie.

Edit: Das hier ist übrigens ein Thread im Sage Forum, wo auch auf die hochtaktenden AMD-CPUs hingewiesen wurde, falls es wen interessiert: https://www.sage-forum.de/threads/der-warenwirtschaft-client-von-sage-100-ist-sehr-langsam.5281/
 
War Vorgabe des Sage Betreuers.

Edit: Ich glaube auch, dass das so in den Sage 100 Anforderungen drin stand, die ich mal zu gesandt bekommen hatte. Also getrennte Server für SQL, Sage Application und RDS-Server, jeweils mit entsprechenden Anforderungen (wo übrigens keine schnell taktenden CPUs erwähnt wurden^^).
 
Mach doch nur Remote Apps, so sparst du dir 50-70% Overhead.
Mail, Office, Browser usw. kann ja heute auf jedem Client laufen, solange du keine ThinClients hast.
 
Ich bin mir nicht sicher, ob dann nicht andere Dinge nicht mehr funktionieren (da werden z.B. auch Mails in den Postausgangs-Ordner von Outlook geschoben), aber ich werds mal beim Sage Betreuer ansprechen. Ich selber hab mit Remote Apps auch noch nicht gearbeitet. Was wär denn da genau der Vorteil? Läuft die App dann auf den Client-Rechnern (und nein, das sind keine Thin-Clients, sondern ganz normale Office Kisten und Laptops mit Windows 11)?
 
Zuletzt bearbeitet:
Zurück
Oben