News Server-CPUs: Xeon Platinum und AMD Epyc auf Augenhöhe

Augenhöhe trifft es gut und es verwundert etwas. Cinebench liegt Ryzen bzw Zen auch extrem gut. In Real World mag es doch etwas pro Intel aussehen aber das AMD System ist sau stark und wird über den Preis richtig punkten.

Mich überrascht hier eher das Xeon System.

Edit: Naja okay das war bei fast gleicher Thread und Kernzahl wohl doch schon fast zu erwarten.
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/3/#diagramm-cinebench-r15

Scheinbar können beide CPU den Takt recht hoch halten. Auch der Verbrauch dürfte recht ähnlich sein
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/6/

6900X vs 1800X. Beide etwa gleich schnell in Chinebench und nahezu gleicher Verbrauch. Auch beide 8 Kerne. Der Xeon braucht seine hohe TDP in erster Linie auch wegen AVX, sieht man in dem CB Test auch gut.

Allein aber wieder vorne dabei zu sein ist erstaunlich gut und erste Sahne was AMD da liefert. Im Server Markt heißt es erstmal wieder Fuß zu fassen.
 
Zuletzt bearbeitet:
strex schrieb:
So gut wie jeder DAX30 Konzern der eigene DCs betreibt. Da fliegen in der Regel die alten Kisten nach 4 Jahren raus. Treibt man sich in den Kreisen umher, wird nur noch von XX.000 VMs pro Dual-Site gesprochen. Unternehmen wie VW haben schnell mal 5-10k Applikationen am laufen.

Heute packt man so gut wie alles in eine VM und somit auf ESX Hosts (Enterprise), sogar so etwas wie eine SAP HANA auf ner HP Superdome mit xTB Memory pro VM.

Ja klar - ich wollte ja auch nicht sagen, dass da gar keine dicken Server-CPUs hinwandern...sondern vielmehr den Massenvergleich aufstellen: unter den Clouds/HPC-Clustern sind die Forschungscluster von Universitäten, wo jetzt nicht gerade Fraunhofer o.Ä. mit 'ner Kooperation drin hängt, relativ kleine Cluster (vergleichsweise). Aber selbst die kommen halt schon von der Skalierung her problemlos in die Größenordnung von 10k CPUs.

Also was ich eigentlich ausdrücken wollte: selbst wenn so was wie VW auf vergleichbare Stückzahlen kommt mit Windows/VMWare, dann ist das ja trotzdem nur mit den "kleinen" HPC-Clustern von Unis vergleichbar.

Und wie viele Universitäten gibt es - wie viele Dax Unternehmen?

Große Sachen wie Google, Amazon, Cern, größere Forschungskooperativen, die Top500-Supercomputer ... sind da dann ja noch gar berücksichtigt. Und alleine an Universitäten wird man da schon auf deutlich mehr Cluster kommen, als es überhaupt Dax-Unternehmen gibt.


Unabhängig davon war die Ursprungsdebatte ja auch der Use-Case: man darf imho ja nicht vergessen, dass sicherlich auch VW irgendwo 'ne Cloud und Konsorten laufen hat, oder vielleicht auch einen kleinen HPC-Cluster für Simulationen - whatever.

Sprich auch VW wird ja nicht nur reiner Abnehmer für Windows/VM-Ware sein, sondern auch bei VW werden sicherlich einige der dicken Server-CPUs hinterher mit Linux/Unixoiden-Zeug laufen.

Das war ja die ursprüngliche Debatte bzw. darauf wollte ich eigentlich hinaus: dass die Masse dieser CPUs eher unter Linux/Unix laufen wird, als unter Windows oder für VMWare Applikationen benutzt wird.
 
Zuletzt bearbeitet:
Mein Qualitätssenf:

Find ich toll, dass das alles so interessant wird. Aber warum wird sowas mit Cinebench gemessen? Ich mein ich nehm für mich so als Schnellcheck immer die Passmark-Suite her, welche mir dann auch so ne grobe Vergleichsbasis gibt (brauch auch keine detaillierte, da kein Produktivsystem im Sinne von Wirtschaftlichkeit hat oberste Priorität). Aber im Professional & Enterprise Segment wäre doch die SPEC Suite angebrachter.

Zur allgemeinen Lizensierungsproblematik, ich denke es wird so kommen, dass man die Leistung lizensiert.
ARM dringt ja auch immer weiter vor, und könnte ja auch theoretisch 256 Core Prozessoren produzieren, nur wie müsste man sowas lizensieren, zumal wenn sowas dann "nur" die Leistung von 16 Xeon Cores erbringt, dafür aber bedeutend besser auf Auslastung/Stromverbrauch skaliert?! Ausserdem gibt es Anwendungen welche ja jedes MHz kreischend empfangen, und andere wiederum, die gut mit MT skalieren. Wenn man per Core lizensiert schränkt man Anwender, Produzenten und Entwickler (Bezug Multithreadingoptimierte Software) massiv ein.
Wenn man nun aber anfangen würde, die relative Leistung zu lizensieren, dann würde man es fairer handhaben, da man den Anwendern offen lässt, was dieser einsetzt. Ausserdem würde man es auch kleineren Unternehmen, Startups bedeutend erleichtern.

Dann noch rasch was zu Microsoft, klar ist Windows nicht das beste, tollste, etc. Meine Erfahrung damit bezieht sich im Bezug zu Server 12 und 16 auch nur auf die Gratisversionen welche man im ImagineX Programm erhält, kann dort aber nur gut über MS sprechen (hab ja auch keine Kosten). Man erhält Werktags raschen Support, und kann vieles realisieren, was man als gelegenheits Linux Nutzer noch nicht könnte. Das soll jetzt nicht heisen, dass man Oma Eda einfach mal rasch nen Windows Server administrieren lassen sollte, aber ich finde einfach, dass man Windows Server schneller interpretieren kann, da ja vieles schon intuitiv vom Customerbereich vorhanden.
 
Schade, dass der Artikel doch recht uninformiert scheint... Nicht was die nakten Fakten angeht, sondern was die Backgrounds angeht:
"Der Xeon Platinum 8180 als eines der Topmodelle arbeitet dort mit 800 MHz im Leerlauf und 2,5 GHz bei Last, ..."
Es ist der Basistakt... Der Turbo kommt obendrauf. Selbst unter Volllast sollte das Ding höher gehen. Unter Teillast sogar drastisch über -> >3GHz ist definitiv möglich und sogar warscheinlich.
Beim AMD Modell ist das möglicherweise nicht anders...

"Von AMD gab es bereits das eine oder andere Detail in dieser Richtung, doch die Benchmarks waren in der Regel voll fokussiert auf das neue Acht-Kanal-Speicherinterface der Naples-Prozessoren, das gegenüber Intels bisherigen Xeon-Generation auf Basis von Broadwell-EP, die nur Vier-Kanal-Speicher bietet, natürlich einen haushohen Vorteil hat."
Das ist genau genommen Unsinn... Das Speicherinterface des Naples Prozessors wird nach aktueller Infolage/Spekulation durch ganze vier Dual Channel SIs (der 4x MCM unterm Deckel) gebildet. Das bedeutet, es wird aller Warscheinlichkeit nach eine NUMA aware Software notwendig sein sonst hat es bestenfalls den Speed von einem Dual Channel SI oder gar drunter mit grottiger Latenz -> weil Speicherinhalt und Thread sich auf unterschiedlichen NUMA Nodes befinden können bzw. häufig auch werden.
Nimmt man es richtig, dann ist das hier abermals ein "Trick" um Kosten zu sparen aber dennoch viel Performance anzuliefern. Große "Server" in diesem Bereich verstehen NUMA. Stino 0815 Software hingegen idR nicht... Hier muss sich noch rausstellen, ob und vor allem in wie weit ein 8-Kanal SI überhaupt ansatzweise skaliert.

Wenn man sich mal die Marktverhältnisse ansieht. 8x NUMA Nodes gibt es im Moment mit einem Quad-Sockel G34 System und einem Okta-Sockel Xeon E7 System. BEIDES ist HPC only. Nur die aller aller wenigsten Betreiber, weder in 0815 RZs noch in den Unternehmen mit IT On-Premises werden sich ein 8x NUMA System ins Rack zimmern. Weil es einfach aberwitzig viel Aufwand erzeugt, den Spaß gescheit zum Skalieren zu bringen.

Unterm Strich bedeutet hier viel nicht automatisch gleich besser. Wenn es nicht skaliert, sind 4x2 eben weniger als 1x4 oder gar 1x6. Ebenso muss man die Mengen im Auge behalten. Gerade beim Thema Virtualisierung. Wenn sich 512GB auf vier NUMA Nodes pro CPU verteilen bedeutet das maximal 64GB pro Node. Ohne den Interconnect mit massiv Daten zu fluten brauch es also A) eine NUMA aware Lösung oder B) sinnigerweise maximal 64GB pro VM. Was ist aber, wenn es mehr sein darf? Oder da nicht 512GB drin stecken sondern vielleicht nur 128?

Basti__1990 schrieb:
Jahrelang Stillstand und jetzt geht alles auf einmal ganz schnell. Konkurenz ist einfach was tolles :D

Stillstand?
2008 -> Hexacores S604 auf Core2 Basis
2009 -> 8C Nehalem EX
2011 -> 10C Westmere EX
2014 -> 15C Ivy EX
2015 -> 24C Haswell-EX
2017 -> 28C, ggf. auch mehr, abwarten -> Skylake Platinum

ascer schrieb:
Selbst die allergrößten Systeme lösen das häufig so. Z.B. der Inifinity von Cray, aktuell auf Platz 10 der schnellsten Supercomputer, hat für seine HPC Cluster pro node 2x Xeon E5-2698v3 16C 2.3GHz verbaut.

Der IBM Sequoia, aktuell auf Platz 4 der schnellsten Supercomputer, hat beispielsweise sogar nur single-socket nodes: 100.000 Stück mit 16 Core CPUs.

Das hat, wie oben schon angeschnitten, weniger was mit der Sockel-Anzahl zu tun, sondern was mit der Verdrahtung.
Dual Sockel bei Intel heist im Moment Dual NUMA Node Konstrukt. Single Sockel bei Intel heist Single NUMA Node.
Das heist, EIN Thread kann (bei letzterem) technisch gesehen die komplette Speicherinfrastruktur und alles Backend hintendran nutzen ohne über irgendwelche Interconnects zu müssen.
Gerade im HPC Umfeld ist das möglicherweise ein Vorteil -> weil es mitunter auch um Latenzen und Bandbreiten geht. Wenn der Clusterconnect der Infiniband Module auf nen NUMA Node tuckert und alle Daten da erst von Links nach Rests durch komplette System müssen, wird das nunmal ggf. zäh. -> nicht pauschal/immer, aber es ist mindestens mal Anwendungsspezifisch.

Es ist aber recht mühsam über derartige Thematiken ohne direkte Umsetzungen zu spekulieren. Problem A) skaliert und Problem B) skaliert nicht. Ohne das Problem zu benennen ist es nur reden um den heißen Brei ;)

Der Cinebench Screen ist auch nicht ganz grundlos gewählt -> denn der Cinebench ist durch die Tiles einfach gut auf NUMA auslegbar. Jeder Thread bekommt losgelöst vom Rest seinen eigenen Datenpool, kein anderer Thread muss überhaupt da irgend wie Zugriff bekommen. Es findet nahezu gar kein Traffic zwischen den Threads statt -> Skalierung geht gern auch annähernd perfekt.
 
Zuletzt bearbeitet:
@fdsonne: Das wollte ich ja auch gar nicht in Abrede stellen. Ich hab ja selbst schon geschrieben, dass bei derartigen Systemen Effizenz (wo die Skalierung ja ganz erheblich für verantwortlich ist) und Kühlung gewichtigere Probleme darstellen als Hardware- oder Softwarekosten (/Lizenzkosten).

Das wollte ich damit eigentlich ja auch nur zum Ausdruck bringen, als Erwiderung auf die vereinzelten Äußerungen, dass in Clustern "immer" 4+ Sockelsysteme zum Einsatz kämen.

In der Hardware selbst stecke ich nicht besonders tief drin, ich benutze die Teile "nur" für Simulationen ^^

Nichtsdestoweniger hieß es bei uns eben auch: 2 socket-node-design, weil (a) interconnect / bandbreiten sonst ganz anders hätten organisiert werden müssen (bei 4+ Sockeln) und (b) weil die Kühlung so - laut unseren Ingenieuren - am effizientesten designed werden konnte.

Das war im Übrigen ja auch nur mein response darauf (mit mehreren Beispieln aus den Top500), dass sowas bei Cloud/HPC-Clustern durchaus sehr üblich ist. Wie hier ja ebenfalls schon geschrieben wurde, kenne ich halt kaum Cluster, die nicht single- oder dual-socket nodes haben.

Und ich würde mal behaupten, dass das höchstwahrscheinlich sehr häufig primär am interconnect / bandwidth und sekundär am Kühlungsdesign liegt. Da zumeist ja das eigentlich - so höre/lese ich es zumindest immer von den Ingenieuren, die die Teile konzipieren - die größte Problematik bei der Skalierung darstellt.
 
Zuletzt bearbeitet:
ascer schrieb:
Also was ich eigentlich ausdrücken wollte: selbst wenn so was wie VW auf vergleichbare Stückzahlen kommt mit Windows/VMWare, dann ist das ja trotzdem nur mit den "kleinen" HPC-Clustern von Unis vergleichbar.

Und wie viele Universitäten gibt es - wie viele Dax Unternehmen?

Wie gesagt nicht wirklich. HPC oder deine "Forschungscluster" sind in der Stückzahl nichts, wenn du wirkliche Mengen sehen willst schau dich im ISP/Hosting Bereich um.

ascer schrieb:
Das war ja die ursprüngliche Debatte bzw. darauf wollte ich eigentlich hinaus: dass die Masse dieser CPUs eher unter Linux/Unix laufen wird, als unter Windows oder für VMWare Applikationen benutzt wird.

Und das ist nicht korrekt. Das Meiste wird heute in VMs betrieben, egal ob Windows oder Linux. Im Unterbau steckt dann immer VMware wenn wir uns im Enterprise Markt bewegen.
 
Zuletzt bearbeitet:
druckluft schrieb:
Im Serverbereich geht es nicht um die absolute Leistungskrone sondern vor allem um die Effizienz. Es bleibt ja nicht nur bei der von den CPUs verbratenen Energie, die Kühlung dürfte nochmal so viel verschlingen.

Etwas niedriger getaktet laufen beide Architekturenauf einem ganz anderen Effizienzniveau als wir es aus dem Desktop gewohnt sind. Ich denke es wird noch sehr spannend.

Ist wirklich so

Habe in meinem NAS ein 12 Kerner Broadwell-EP ES mit 45W TDP :D Bei 1,9GHz Takt.
Cinebench haut das Ding auch 1100 Punkte raus, bei der TDP von nem Pentium


Mehr Kerne bei niedrigerem Takt sind eigentlich immer besser als weniger mit hoeherem Takt
 
Knogle schrieb:
Ist wirklich so

Habe in meinem NAS ein 12 Kerner Broadwell-EP ES mit 45W TDP :D Bei 1,9GHz Takt.
Cinebench haut das Ding auch 1100 Punkte raus, bei der TDP von nem Pentium


Mehr Kerne bei niedrigerem Takt sind eigentlich immer besser als weniger mit hoeherem Takt

Was prügelst du den eigentlich so durch dein NAS als dass das 24 Threads benötigt?
 
Knogle schrieb:
Mehr Kerne bei niedrigerem Takt sind eigentlich immer besser als weniger mit hoeherem Takt
Das kann man so nicht sagen (speziell das Wort "immer"). Es gibt immer noch genügend Anwendungsbereiche, die schlecht parallelisieren oder wo es letztlich trotz Parallelisierung immer noch auf die Performance eines Einzel-Threads ankommt.
 
Also was ich immer lese ist das es nur auf die Rechenleistung diskutiert wird. ich bin mal gespannt was amd mit den 128 PCI Express Lanes vor hat. Denn ich kann mir schon ein Hyperconverged System vorstellen das aufgrund dessen schon viel mehr iops produziert als ein Intel Sytem. Ich sag nur NVME Disks.

Und wenn die dinger dann noch Preislich in die richtige richtung gehen dann wird Intel mächtig Probleme bekommen. Ich denke auch das was AMD schon verlauten lassen hat das die versuchen aufgrund der Cores die leute von 2 wege auf 1 Wege syteme zu bringen auch mit dem Preis interessant werden dürfte.

Ich bin mal gespannt und warte auf erst Verfügbare CPU Preise und darauf was die großes Hersteller draus machen.
 
So siehts aus. Ein Nutanix Knoten mit einer CPU und direkt angeschlossenen NVMe SSDs dürfte Preis/Leistungsmäßig alles in den Schatten stellen was bisher da ist. Freue mich auf die ersten Installationen mit der Plattform.
 
Zwei große Dies mit beispielsweise je 16 kernen in zwei Packages auf zwei Sockeln versus 4 relativ kleine Dies im MCM auf nur einem Sockel, da dürfte letzteres recht interessant ausfallen. Von einen Intel 32-Kern-Die gegen die 4 AMD Dies brauch man schon gar nicht reden, wer da kosteneffizienter da steht. Insbesondere durch Intels neue und komplexe Inter-Core-Verbindung dürfte so ein Die recht teuer werden. Intel ist dann in einigen Situationen weiterhin schneller aber zu welchen Preis? Da wird dann bei diversen Anwendungsfällen AMD durch den Preis gut in den Markt stoßen können. Wer glaubt, auf die Kosten kommt es nicht an....doch das tut es.
 
Zurück
Oben