News AMD Epyc: Mit High-End-Servern von Dell EMC zum Durchbruch

xexex schrieb:
Machen sie doch auch! Man kann allerdings Lösungen auf AMD und Intel Basis nicht 1zu1 vergleichen. Am Ende zählt die Anzahl der Kerne und der Preis und wer bei Intel 64 Kerne haben will kommt mit einem 4x System um einiges günstiger weg.

Tut man das wirklich wenn man alle Kosten genau betrachtet, also den Stromverbrauch und den höheren Platzbedarf? Glaube ich kaum...
Aber einige werden immer einen Grund finden wieso intel besser ist, kennen wir ja :freaky:
 
Bedenkt man die RAM Preise, kann ich xexex Argumente gar nicht mehr nachvollziehen!
 
Bärenmarke schrieb:
Aber einige werden immer einen Grund finden wieso intel besser ist

Intel ist da keineswegs "besser", beim Platzbedarf hast du zum Beispiel absolut recht, 4 CPUs brauchen mehr Platz als die AMD Lösung mit zusammengefügten Kernen. 1HE Systeme mit 64 Kernen wird es bei Intel so schnell nicht geben.

Beim Strombedarf wäre ich mir da bereits nicht mal mehr sicher. 64 Kerne brauchen Strom, egal ob sie von 2 oder von 4 Sockeln verbraucht werden, allerdings wird bei Intel die wesentlich höhere Zahl an Speicherkanälen mehr Strom verbrauchen.

DonL_ schrieb:
Bedenkt man die RAM Preise, kann ich xexex Argumente gar nicht mehr nachvollziehen!

?
 
Zuletzt bearbeitet:
MrJules schrieb:
Warum sollten sie? OC hat in dem Segment überhaupt nichts zu suchen.

Server sollen in erster Linie stabil und korrekt arbeiten. Ich hätte ehrlich gesagt auch überhaupt keine Lust, Client eines u.U. instabilen Servers zu sein, weil sich der Betreiber dachte: Spare ich mir ein paar hundert Euro und hole aus dem Ding raus, was geht.

glaubt du dass das asus, msi, gigabyte & co. vollkommen egal ist? die bauen nen board, das hat passende bios optionen und fertig.

wie damalas als alle nen opteron genommen haben weil er schneller war als der FX.
 
Ok mein Denkfehler, du willst ein 4 Sockel Intel System (1 Mainboard) mit einem 2 Sockel System von AMD vergleichen.

Da würde ich dann aber gerne mal Benchmarks sehen, denn die Latenzen bei einer 4 Sockel Kommunikation dürften um einiges höher sein als zwischen 2 Sockeln und der INF von AMD. Dazu müssen sich hier 4 CPUs den verfügbaren RAM "teilen", bei der Epyc Lösung nur 2.
 
XTR³M³ schrieb:
glaubt du dass das asus, msi, gigabyte & co. vollkommen egal ist? die bauen nen board, das hat passende bios optionen und fertig.


Da frage ich nochmals: Warum sollten sie? Warum ein Feature in das BIOS einpflegen, das nahezu null nachgefragt wird in diesem Bereich? Welcher Irre kauft sich eine Server-CPU für mehrere tausend Euro, um sie zu übertakten?


Die CPUs sollen effizient arbeiten. Meinst du irgendein Admin setzt sich hin und testet stundenlang, ob seine Server-CPUs im übertakteten Zustand prime-stable sind?

Das würden höchstes irgendwelche Bonzen privat machen, denen langweilig ist. Nur für die baut man keine Funktionen ein.


Für alle halbwegs Normalsterblichen, die privat viel Rechenleistung brauchen, gibt es TR und SLX.


Es ist natürlich nicht ausgeschlossen, dass es trotzdem ein Hersteller macht.

Ich halte es aber für eher unwahrscheinlich und ohnehin blödsinnig.
 
Zuletzt bearbeitet:
DonL_ schrieb:
Da würde ich dann aber gerne mal Benchmarks sehen, denn die Latenzen bei einer 4 Sockel Kommunikation dürften um einiges höher sein als zwischen 2 Sockeln und der INF von AMD. Dazu müssen sich hier 4 CPUs den verfügbaren RAM "teilen", bei der Epyc Lösung nur 2.

Auf Benchmarks bin ich sowieso gespannt, wobei bei Servern sowas stark von der Konfiguration abhängt und vermutlich schlecht auf den eigenen Anwendungsfall übertragbar ist. Bei deinem Beispiel übersiehst du eine wichtige Sache.

Bei einem System mit 4x Xeon Gold 6130 hat jede CPU 6 Speicherkanäle auf die sie mit voller Leistung zugreifen kann. Solange einer VM <=16C zugewiesen werden, kann diese VM auch mit voller Leistung auf den Speicher zugreifen. Werden mehr als 16C zugewiesen, fällt die Leistung je nach eingesetzter Anwendung ab und der Zugriff auf nichtlokalen Speicher erfolgt über die vergleichsweise langsamen UPI Links.

Bei AMD sieht die Sache etwas anders aus. Jeder Sockel besteht ja aus 4 CPUs, die selbst nur 2 Speicherkanäle haben. Ein 64C AMD System besteht also aus 8 NUMA Nodes, bei denen jeweils 8C auf 2 Speicherkanäle lokal zugreifen können. Dafür ist die Infinity Fabric schneller als UPI.

Wie du siehst wird man Intel und AMD nur schlecht 1 zu 1 vergleichen können. Alles ist stark abhängig vom jeweiligen Workload und wird mit Sicherheit auch noch einiges an Optimierungsbedarf seitens der Software und Virtualisierungslösungen benötigen.

Meine Kristallkugel sagt, dass AMD vor allem bei kleinen VMs Vorteile haben wird, wie man sie bei Hostinganbietern häufig vorfindet. Dafür spricht auch der geringere Platzbedarf pro Kern wenn man auf die 64C Lösungen zugreift. Intel wird hingegen vor allem bei Terminalserverfarmen Vorteile haben, wo man auf so eine Kiste einfach 4x16C VMs platziert. Bei Datenbanken wird es stark darauf ankommen inwiefern sie mit der darunterliegenden Architektur zurecht kommen.

Vielleicht hab ich aber meine Kristallkugel einfach lange nicht mehr geputzt und sie erzählt Blödsinn. :evillol:

EDIT:
Bei Dell stört mich übrigens ein wichtiger Punkt! Den Trumpf ein 64C 1HE System bauen zu können haben sie nicht ausgespielt!
 
Zuletzt bearbeitet:
@xexex

Mir will noch nicht so ganz einleuchten, warum man für stupide Terminal-Server Sitzungsknoten auf aufwendige Quad-Socket-Maschinen gehen will. Das ist m.E. ein klassischer Anwendungsfall für 1HE-Dual-Sockel-Maschinen.

a) Bei 4-Sockel-Maschinen ist die Auswahl an Hardware schon wesentlich geringer und außer Fujitsus RX4770 sind sowohl Dells PE R940, Cisco UCS C480 M5, als auch ein HPE DL580 Gen10 mit 3 bzw. 4 HE ungleich größer und somit vom Platz/Ressourcen-Verhältnis her ungünstig.

b) Ist der Impact bei Ausfall/Wartung eines Knoten schon wesentlich größer. Ob 60 oder 120 User aus ihren Sitzungen fliegen ist schon ein Unterschied. Immerhin muss die Spare-Kapazität ja auch vorgehalten werden.

Der Vorteil einer 4-Sockel-Maschine gegenüber zwei 2-Sockel-Maschinen beim Stromverbrauch ist zumindest bei so einem Szenario vernachlässigbar.

Angesichts der Lizenzkosten allein für OS, CALs, RDS-CALs und vor allem Office (geht halt nur Volumenlizenz oder O365 E3-Plan aufwärts) sowie ggf. spezielle für Terminal-Server lizenzierte Fachapplikationen sind die Hardwarekosten bei TS-Projekte sowieso oft eher zweitrangig.
 
fdsonne schrieb:
Die paar Piepen für den Epyc oder Xeon Unterbau ziehste dabei aus der Portokasse... Vom aktuellen RAM Pricing mal ganz zu schweigen -> mittlerer fünfstelliger Bereich für 2TB in 32GB Riegeln. Meinst du da interessieren paar hundert Dollar mehr oder weniger WIRKLICH?
Die HPE Teile gibts wohl offiziell seit 12/2017 -> lieferbar ist das aber aktuell meines Wissens nach nicht...

Selbst bei Projekten über 100k oder 200k schauen die Kunden auf den Preis bei der Hardware. Und die Großen Epyc sind um mehrere 1000 Euro günstiger als die Xeon wenn das pro Server mal eben 3-5000 Euro sind kommt in so einem Projekt schon was zusammen.

Nein die HPE "Teile" gibt es offiziell schon seit Oktober, und lieferbar sind diese auch seit Ende November.

Tja das die Produkte mit Epyc auf sich warten lassen, liegt auch daran das vom Design Win bis zum fertigen Produkt schon Zeit vergeht weder Dell noch HPE werfen Server auf den Markt die Kinderkrankheiten haben oder nach 6-12 Monaten ausfallen. Da wird erstmal getestet bis der Arzt kommt. Und da HPE und Dell nicht mit Exoten Hardware um die Ecke kommt sondern mit Servern die die ihre Volumenmodelle sind sagt schon einiges.
 
@fdsonne-Deine Blauäugigkeit im Hinblick auf Intel Produkte in allen Ehren, aber mein Vertrauen in diese Firma ist im A....und so geht es vielen hier. Noch dazu die Drecks Zahnpasta unter dem IHS egal ob Xeons oder Desktops - es reicht ! Eine CPU in die selbst Intels Chef kein Vertrauen mehr hat, möchte ich nicht im System haben. Wenn alles gut wäre, würde Intel nicht schon in diesem Jahr CPUs ohne dieses Debakel ankündigen -Aluhut hin oder her.. man muss diesen Mist nicht mehr kaufen und das ist auch gut so.
 
Zuletzt bearbeitet:
Simon schrieb:
Sofern auf dem System dann Windows Server 2016 läuft, darfst aber schön die extra Core-Lizenzen mit in die Kalkulation aufnehmen. ;)

:lol:

wer auf solchen Systemen Windows (nativ) einsetzt legt keinen Wert auf Performance und Stabilität :p
 
Es freut mich sehr, dass die Systeme nun auch offiziell beworben werden und nicht nur auf Nachfrage.
Ich werde mir die Kisten evtl. auch mal anschauen.
 
xexex schrieb:



xexex schrieb:
Beim Strombedarf wäre ich mir da bereits nicht mal mehr sicher. 64 Kerne brauchen Strom, egal ob sie von 2 oder von 4 Sockeln verbraucht werden, allerdings wird bei Intel die wesentlich höhere Zahl an Speicherkanälen mehr Strom verbrauchen.
?

Naja, der Intel hat 6 statt 4 wie der Ryzen, wären also 24 Channels gegen 18. Aber wie sieht es mit den Lanes aus ?
Der von dir genannte Intel hat 48 Lanes, insgesamt also 192 Lanes. Der Epyic allein hat aber bereits 128 Lanes, also insgesamt 2* 128.
Das frisst nicht weniger Strom oder ?

Somit kommt es nicht auf den Einsatz an, wann welches Setup besser ist ? AMD hat ja auch vergleiche gemacht, wenn man eine Plattform braucht, für viele Beschleunigerkarten, hat man aufgrund den Lanes meist zu 2SP gegriffen. Mit Epyic 1SP hat man bereits soviele Lanes um die selbe Anzahl an Grafikkarten zu nützten, wie zur Vergleichsplattform von Intel.
amd-epyc-server-platform-techday-presentation-deck_Page_57.jpg


Gut das sind wieder so "spezielle" Beispiele und betrifft das Thema hier weniger.

Aber um noch mal zum Beispiel 2x16 vs 32 Cores oder 4x16 vs 2x32 Cores zu kommen.
Ist ein AMD System mit 2x16 Cores nicht auch günstiger als 2x16 Cores Intel ?
https://geizhals.de/?cat=cpuamdam4&xf=12099_Server~25_16~820_SP3
Hier hätte man im Vergleich dann nämlich nicht nur den niedrigeren Preis, sondern doch auch mehr Lances und 8 statt 6 Channel für RAM, oder ?
 
Zuletzt bearbeitet:
MrJules schrieb:
Da frage ich nochmals: Warum sollten sie? Warum ein Feature in das BIOS einpflegen, das nahezu null nachgefragt wird in diesem Bereich? Welcher Irre kauft sich eine Server-CPU für mehrere tausend Euro, um sie zu übertakten?

urgh... sone lange leitung kann man doch nicht haben!? es gibt leute, ausserhalb von deiner gattung der "0-8-15" user, nennen sich enthusiast user... von denen gibt es genug und denen ist geld egal, am ende muss nur der 3dmark score stimmen.... die phase hatte ich auch mal, und kann dir sagen, es ist geil mit trockeneis zu spielen und in futuremark auf platz eins zu stehen. :king:
 
Simon schrieb:
Mir will noch nicht so ganz einleuchten, warum man für stupide Terminal-Server Sitzungsknoten auf aufwendige Quad-Socket-Maschinen gehen will. Das ist m.E. ein klassischer Anwendungsfall für 1HE-Dual-Sockel-Maschinen.

Ich gebe dir ja grundsätzlich recht, es ist aber eine Kostenfrage! Gegen ein 2x32C System von AMD kannst du kein 2x28C System von Intel antreten lassen weil die CPUs zu der 8xxx Reihe gehören und in einer ganz anderen Preiskategorie liegen. Du kannst erst recht nicht behaupten, dann einfach 2x1HE Server zu nehmen. Kosten für den Server, Netzteile, Support, Raid Controller und Co. fressen jegliche Preisvorteile auf.

Am Ende ist es die Frage der Vergleichbarkeit und darum ging es bei meiner Aussage. Nimm den Dell EMC 7425 den es mit 64C ab 12k zu kaufen gibt, und setze den FUJITSU PRIMERGY RX4770 M4 dagegen kommst du preislich vermutlich irgendwo auf den gleichen Level.

Wenn du keine 64C brauchst, dann gebe ich dir absolut recht. Ein 2S 44C Server mit 2xIntel Xeon Gold 6152 ist weniger aufwändig und noch halbwegs bezahlbar.

Es fließen viele Faktoren ein in die Entscheidung welche Serversysteme man beschafft. AMD EPYC macht es möglich kompakte 1HE Server mit 64C zu bauen, was ihn vor allem für Hoster interessant macht. Leider bietet Dell zwar keinen passenden Server an, die Konkurrenz aber wird hier nicht schlafen. Die Entscheidung für ein 1S, 2S oder 4S System muss man seit EPYC aber neu überdenken!

Simon schrieb:
a) Bei 4-Sockel-Maschinen ist die Auswahl an Hardware schon wesentlich geringer und außer Fujitsus RX4770 sind sowohl Dells PE R940, Cisco UCS C480 M5, als auch ein HPE DL580 Gen10 mit 3 bzw. 4 HE ungleich größer und somit vom Platz/Ressourcen-Verhältnis her ungünstig..

Es gibt eine passable Auswahl an 4S Maschinen in 2HE.

HPE ProLiant DL560 Gen9
Supermicro SuperServer 2048U-RTR4
Dell PowerEdge R830 Rack Server
FUJITSU Server PRIMERGY RX4770 M4

Deine Aussage ist an dieser Stelle nicht korrekt!
 
Zuletzt bearbeitet:
ThePlayer schrieb:
Selbst bei Projekten über 100k oder 200k schauen die Kunden auf den Preis bei der Hardware. Und die Großen Epyc sind um mehrere 1000 Euro günstiger als die Xeon wenn das pro Server mal eben 3-5000 Euro sind kommt in so einem Projekt schon was zusammen.

korrekt, somit bekommt man für das geplante buged entweder deutlich mehr leistung, da mehr server für die veranschlagte summe gekauft werden können, oder man kann das buged zusammenschrumpfen und der +billianz der firma/instutition zukommen lassen.
 
Wundert sich hier keiner darüber, dass Dell den Epyc im Bladeserver-Portfolio gar nicht anwendet? Dort hätte ich ein, zwei Anwendungsfälle wo ich den gebrauchen könnte, aber wir machen fast alles nur noch mit Blades...

@Xedos99:
Noch dazu die Drecks Zahnpasta unter dem IHS egal ob Xeons oder Desktops - es reicht !
Glaubst du auch nur einer der Serverbauer oder der Firmenkunden macht sich da Gedanken darüber? Die CPU muss halten und ihre Leistung erbringen. Dell, HP & Co validieren die CPUs vor dem Launch zu Tode und schauen, ob sie hält was der Hersteller verspricht. Selbst wenn Gummibärchen drin verbaut wären, wäre das egal. Die Spezifikation muss erfüllt werden.
Wenn alles gut wäre, würde Intel nicht schon in diesem Jahr CPUs ohne dieses Debakel ankündigen
Dieser Satz ergibt Null Sinn, da ist ein Bug, der wird angegangen. Wenn dein komplettes Sicherheitskonzept durch diese Lücke unterlaufen wird, dann hast du was falsch gemacht. Sicherheit ist immer ein Konstrukt aus mehreren Schichten und man muss jederzeit davon ausgehen, dass einzelne Schichten (z.B: Hardware, Software, Netzstruktur) bzw. deren Komponenten durch Bugs kompromittiert sein können. Wenn du dagegen alles auf eine Karte setzt und darauf vertraust, dass die Komponente 100% bugfrei ist und dies auch immer sein wird, dann hast du was falsch gemacht.

Daher kaufen die Serverhersteller und Serverbetreiber auch weiterhin Intel, wenn Intel für die Anwendung besser ist, genauso wie sie AMD kaufen wenn AMD besser ist.
 
Also ich freue mich wirklich richtig, meinem Arbeitgeber beim nächsten Projekt ein AMD-System vorschlagen zu können (von 50 Servern haben wir aktuell einen mit einem Opteron 4122 von 2010), aber hab ich bei den Preisen etwas verpasst? AB 5.000 €? Zzgl. MwSt.??

Und da geht es gerade mal los mit 8 Kernen, 8 GB RAM und einer 120 GB SSD. Oder bezahlt man dafür, was man mit dem System alles tolles machen kann (für noch mehr Geld)? Beim PowerEdge R440 bekomme ich ja für die hälfte schon 2x 8 Kerne geboten. Ich sehe erstmal zu, dass ich meine Kinnlade zu bekomme, bis mir das jemand erklärt. Oder ich warte, bis Fujitsu & Thomas Krenn nachziehen.
 
XTR³M³ schrieb:
korrekt, somit bekommt man für das geplante buged entweder deutlich mehr leistung, da mehr server für die veranschlagte summe gekauft werden können, oder man kann das buged zusammenschrumpfen und der +billianz der firma/instutition zukommen lassen.
Wie hier schon beschrieben wurde, machen die Softwarekosten dies oft zunichte, der Markt geht eindeutig Richtung pro-Core-Lizensierung. Es sei denn, du betreibst hauptsächlich freie Software auf den Maschinen. Da ist das dann egal.

Ein Projekt mit 200k € Kosten ist auch relativ klein. Da wo es um die wirklich großen Stückzahlen geht, machen z.B. geringe Unterschiede im Stromverbrauch pro CPU schon wieder einen großen Kostenunterschied bei Strom aus. Den muss ich nämlich dreimal zahlen: einmal den Mehrverbrauch der CPU, dann den Mehrverbrauch der Kälteanlagen und den Investanteil in leistungsfähigere Kälteanlagen. Viele Kerne allein sorgen nicht automatisch dafür, dass Epyc überall eingesetzt werden kann. Es gibt Einsatzbereiche, wo er sehr gut passt, keine Frage.
 
Zuletzt bearbeitet:
Zurück
Oben