News Server-CPUs: Xeon Platinum und AMD Epyc auf Augenhöhe

DocWindows schrieb:
@Basti__1990: Den jahrelangen Stillstand gibts allerdings nur in deinem Kopf. Es gab durchaus Weiterentwicklungen, aber wahrscheinlich keine die in deinem Interesse gelegen haben.

Ob man einen schritt oder 1000 läuft, macht trotzdem ein unterschied.

Viele geht es um Leistung, ein i7 6700k war nicht wirklich schneller als ein i7 2600k

der i7 6700k und i5 2500k haben in spielen ein unterschied von 20% das ist kein Fortschritt für mich
 
druckluft schrieb:
Glaube ich ehrlich gesagt nicht.
Erstens haben in den letzten Jahren sehr wohl Leistungssprünge stattgefunden, nur konnte man eben nicht IPC und Takt beliebig steigern. Bei der Coreanzahl hat es aber enorme Fortschritte bei den CPUs im Serverbereich gegeben. Klar hätten sie das theoreretisch auch im Consumerbereich bringen können, aber der Nutzen ist dort für die meisten Anwender deutlich beschränkt.
Zweitens hatte Intel gerade bei der Fertigung in den letzten Jahren mit deutlichen Problemen zu kämpfen, was unterstreicht, dass sie nicht mal eben so an der Leistungsschraube hätten drehen können und stattdessen absichtlich verzögert haben.
Klar hätten sie AMD weiter unter Druck setzen können, dann aber über den Preis. Das wäre aber etwas, was beiden Unternehmen nicht gut getan hätte.

Serverbereich kann ich absolut nicht beurteilen, aber im Consumerbereich habe ich noch nie erlebt dass eine Architektur mehr als 8 Generationen durchgehalten hat. Sandy Bridge war ein riesen Sprung aber spätestens bei Haswell hätte man vielleicht auch was komplett neues bringen können.

Aber aus mir spricht nur der Laie, ich denke manche von euch können das viel besser einschätzen. :-)
 
projectneo schrieb:
Nach wie vor ist der einzige Wehrmutstropfen, dass AMD scheinbar (!) mehr Kerne für die gleiche Leistung braucht als Intel. Das könnte AMD zurückwerfen wenn es dann um Softwarelizenzierung geht (die mittlerweile oft pro Core ist).

Wenn es um hohe Lizenzgebühren pro Core geht, dann ist POWER gefragt ;)
 
Ich warte immer noch auf den Tag an dem vmware auf pro Core Lizensierung umzusteigen, dann wird der Aufschrei riesengroß.
Das hatten sie schon mal so ähnlich und zwar mit vRAM Lizenzierung. Das gab damals auch einen riesen Aufschrei und wurde wieder zurück gezogen. Ich glaube nicht das sie das wiederholen werden, zumal VMware mittlerweile durch Hyper-V und KVM zu viel Konkurrenz entgegen steht.
 
Hades85 schrieb:
Du musst aber schon zugeben dass Intel sehr gemächlich vorangeschritten ist.

Intel hat eine Zeit lang viel im Bereich für Mobilchips und Atom-Prozessoren gemacht wie du vielleicht weißt. Dafür deutlich weniger im Desktop und etwas weniger im Serverbereich.
Als Resultat hat man dann über die Jahre etwas weniger Fortschritt bei den großen CPUs, aber dafür großen Fortschritt bei kleinen CPUs.

Natürlich hat der Desktop- und Serveraffine User da dein Eindruck dass sich nichts tut, aber das ist eben nicht der Fall. Es tut sich nur nichts in seinem Sichtfeld.

DiedMatrix schrieb:
Und MS lizensiert seit diesem Jahr (Windows Server 2016) per Core und das geht richtig ins Geld mittlerweile,.

Inwiefern geht das denn genau ins Geld?
Ein Windows Server Standard ist in der Basisversion bereits für 16 Cores lizenziert. Also 2 Sockets x 8 Cores oder 1 Socket x 16 Cores. Und er kostet so ziemlich genauso viel wie die ältere Version.
4 zusätzliche Cores um z.B. auf 20 Cores zu kommen kosten dann 200$ zusätzlich. So furchtbar teuer finde ich das jetzt nicht.
 
Zuletzt bearbeitet:
AMDprayer schrieb:
Der Kommentar von birday war unnötig aber als jemand aus der "Arbeitswelt" kann ich dir sagen dass sich immer mehr große Konzerne gerade wegen dieser "per core" Lizenzpolitik von Windows als Server-Betriebssystem abwenden. Viele Gründe dafür gibt es ohnehin nicht. Es ist ja nicht so dass dort ein Mädel aus der Verwaltung davor sitzt die mit Linux nicht umgehen kann sondern ein hoffentlich fähiger Admin. Was auf den Servern läuft ist zudem nach außen weitestgehend transparent.

Das findet bei uns definitiv auch statt. Wir schauen vermehrt was man alles auch mit Debian bewerkstelligen könnte.
Schlussendlich ist es aber so, dass wir viele VMs noch unter Windows laufen lassen müssen und schlussendlich Datacenter Lizenzen benötigen. Das heisst ob wir auf einem Host 20 oder 10 Windows VMs laufen lassen macht lizenzkostentechnisch 0 Unterschied, selbst mit Core Lizenzierung (bei Hyper-V).
 
DocWindows schrieb:
Intel hat eine Zeit lang viel im Bereich für Mobilchips und Atom-Prozessoren gemacht wie du vielleicht weißt. Dafür deutlich weniger im Desktop und etwas weniger im Serverbereich.
Als Resultat hat man dann über die Jahre etwas weniger Fortschritt bei den großen CPUs, aber dafür großen Fortschritt bei kleinen CPUs.

Der Atom steht trotzdem nicht so super da und Intels Misere im Mobile-Segment mussten die mit der Zusammenlegung von BUs in den Bilanzen verschleiern. Hier hat Intel eine Menge Geld verbrannt. Was die übrigen mobilen CPUs angeht, werden wir sehen, was Intel da tatsächlich auf die Reihe gebracht hat, wenn Raven Ridge den Markt erreicht.
X-Point muss sich auch noch erst beweisen, ob es das Geld wert ist, noch eine Cache-Ebene mehr zu etablieren, bzw sich als Speicher zu behaupten (ReRAM kommt ja auch noch).
Am meisten hat Intel noch mit den Xeon Phi getan.
Es ging zwar stetig vorwärts, jedoch schließt AMD bei den Prozessoren auf einem Schlag auf gut Augenhöhe auf (und das mit dem Budget!)... Wieder einmal.
 
Ob die Entwicklung nun schnell ist oder nicht, liegt im Auge des Betrachters. Ich würde es trotz allem als soliden Fortschritt sehen. Mal abgesehen von der IPC, Features und sonstigem, hier zwei Beispiele für die Entwicklung der letzten 5 Jahre:

2690 v0 / 8* 2,9 GHz / 135W TDP (Q1-12)
2690 v2 / 10* 3,0 GHz / 130W TDP (Q3-13)
2690 v3 / 12* 2,6 GHz / 135W TDP (Q3-14)
2690 v4 / 14* 2,6 GHz / 135W TDP (Q1-16)

2630 v0 / 6* 2,3 GHz / 95W TDP
2630 v2 / 6* 2,6 GHz / 80W TDP
2630 v3 / 8* 2,4 GHz / 85W TDP
2630 v4 / 10* 2,2 GHz / 85W TDP
 
Ihr vergesst mal wieder, dass es wie immer nur ums schnöde Geld geht;)
Klar könnte der Stand der Technik schon weiter sein. Wenn unbegrenzte Forschungsmittel zur Verfügung stünden z.b.
Konkurrenzkampf ist nur die Krücke des Kapitalismus, sich abseits realer bedrohungen (wie z.b. Kriege), einen Technischen Vorteil durch wirtschaftliche Nutzung der zur Verfügung stehenden Mittel zu erarbeiten, um noch mehr Kapital zu erwirtschaften.
Kapitalismus ist aber nicht hauptsächlich an Fortschritt, sondern an Gewinn interessiert. Dabei geht es auch nicht um effiziente Nutzung der (begrenzten) Ressourcen, sondern nur um deren Wirtschaftlichkeit (Wegwerfgesellschaft).
Sehr gutes Beispiel ist die Autoindustrie.
Wenig Fortschritt in den letzten Jahrzehnten. Würde Tesla keine Edel E-Limousinen bauen, würden die anderen Hersteller bis heute kaum nachziehen.
Die Lockerung der Emissionsgrenzen inden USA (und wie auch in D gewollt), werden sicher nicht zum Fortschritt beitragen, sondern zu kurzsichtiger Gewinnmaximierung.
Noch einige jahre gute Gewinne, bevor wieder richtig investiert werden muss. Aber das können dann ja andere machen=) Die Vorgänger haben bis dahin mit Aktienpaketen und Millionenboni den Reibach gemacht...
So ungefähr muss das auch bei Intel gelaufen sein...
 
happylol schrieb:
DocWindows schrieb:
@Basti__1990: Den jahrelangen Stillstand gibts allerdings nur in deinem Kopf. Es gab durchaus Weiterentwicklungen, aber wahrscheinlich keine die in deinem Interesse gelegen haben.

Ob man einen schritt oder 1000 läuft, macht trotzdem ein unterschied.

Viele geht es um Leistung, ein i7 6700k war nicht wirklich schneller als ein i7 2600k

der i7 6700k und i5 2500k haben in spielen ein unterschied von 20% das ist kein Fortschritt für mich

Der Punkt ist aber wesentlich: Während der Endkunde sich von Jahr zu Jahr von einem Quadcore zum nächsten hat abspeisen lassen, wurde die Kernzahl am oberen Xeon-Ende immer höher skaliert und das nicht erst seit gestern oder Dank AMD.

Was am unteren Ende für den Consumer zwischen nichts und 5 % gebracht hat, wurde oben an der Kernzahl gedreht. Von Vierkern, Sechskern, Achtkern, Zehnkern, Zwölfkern bis hin zu den jetzigen 22 und 28ern um mal nur die letzten sieben, acht Jahre abzubilden.

Intel hat die Enthusiasten mit Rahmen des Sockel 2011 mit paar Krümeln noch abgemolken und verdient mit den Xeons das richtige Geld. Dort können sie mit 99% Marktanteil defacto nur verlieren und das ist ihnen sicher nicht recht. Alles was sich die letzten Jahre vor Ryzen im CPU-Segment signifikant abgespielt hat, ist dort passiert, mit irgendwas muss die "Cloud" je befeuert werden wo Omma Erna ihr Leben abspeichert.
 
borizb schrieb:
Warum steht in der Überschrift nicht stattdessen das, was auch im Text steht?
Xeon Platinum mit weniger Kernen schneller als Epyc?

Wozu? Es geht um das ganze Produkt. Und dafür ist die Aussage doch richtig unter den genannten Punkten.
 
birday schrieb:
Dann würde ich mal ein gescheites Betriebssystem benutzen..

DiedMatrix schrieb:
Danke für den Beweiß dass du nicht aus der realen Arbeitswelt stammst...

Mit der Äußerung wäre ich vorsichtig.

Abgesehen davon, dass gerade in großen Unternehmen (und in der Serverwelt sind ja nur Großkunden wirklich von Belangen, da die für die absolute Masse des Umsatzes sorgen) mittlerweile auch viel in Richtung Linux migriert wird, scheinst du (wie wohl auch viele andere) der Prämisse erlegen zu sein, dass der Absatzmarkt derartiger CPUs primär die herkömmliche Geschäftswelt, also der VMWare Server, die Windows Domäne, der Backupknecht, usw. usf. ist.

Das kann ich mir aber ehrlich gesagt weniger vorstellen. Ob nun Web, Domäne, VMWare oder oder - das läuft ja meist verteilt. Selbst pro Standort und im Zweifelsfall Abteilung oder Dergleichen - soweit mir von Administratoren/Markt bekannt.
(Sprich: wozu bräuchte ma da bitte die Server-CPUs mit möglichst vielen Cores? Da sollte wohl jeweils was aus dem Mittelfeld ausreichen)

Gerade die Boliden mit vielen Cores peilen doch als Absatzmerkt viel eher Cloud Computing, Rechenzentren & Compute-Cluster für HPC-Zeug an.

Also mit anderen Worten das, wo (a) der normale Sys-Admin nie hinkommt und (b) damit auch die normale Serversoftware nie zum Einsatz kommt. In diesen Gebieten ist doch >= 99% Linux oder Unix-oide Software.

Und nur mal so als Beispiel: ein einziger HPC-Cluster für Simulationen von unserer Uni - also nicht mal ein Verbund von mehreren Universitäten - hat (als 16/18C noch das höchste der Gefühle war) 1000 Nodes neu angeschafft mit Dual-Sockel 16C Xeons.
Und wir reden hier von einem HPC-Cluster und einer Universität.

Was meinst du, was HPC-Forschungsinititivatien, wo mehere Unis, Institute etc. drin hängen bestellen. Oder erst Amazon, Google usw.

Oder andersrum: zeig mir mal das Unternehmen, das für herkömmliche Zwecke (also Windows, VMWare, ...) und nicht Cloud/HPC/... min. >= 1.000 CPUs bestellt (und zwar im High-End-Bereich, mit möglichst vielen Cores). Und zwar spätestens alle paar Jahre.

Denn bei HPC-Clustern sind die wichtigen Ressourcen, wie hier schon Mal genannt, Effizienz und Kühlung. Deshalb wird die Hardware da selten wirklich lange betrieben. Lizenzkosten oder Hardwareanschaffung sind da eher Nebensache.

Mit allen Clustern bei uns kommen wir beispielsweise locker über 10.000 CPUs. Ich wette, für typische Unternehmensbelange hat nicht mal so was wie VW derartig viele Server-CPUs im Einsatz (also herkömmlicher Use: Windows, VMWare, ...). Und das ist - wie gesagt - eine einzige Universität.

Im Vergleich mit Cloud/HPC-Zeug bei etwa Google, Amazon, ... dürften wir noch unglaublich winzig sein...


Ich glaube also, du verkennst da etwas den angepeilten Absatzmarkt. Außerdem verschiebt sich das ja zukünftig immer mehr - dank Cloud / IoT bzw. BigData / Machine Learning / ... hin zu riesigen Clustern.

Dagegen dürften die typischen Windows/VM-Ware Server von Unternehmen nur einen ziemlich kleinen Teil vom Kuchen ausmachen.
 
Zuletzt bearbeitet:
Epyc gibt es maximal als 2 Sockel Lösung pro Board. Und genau das setzt die typische KMU üblicherweise ein.

HPC und Cloud Systeme dürften normalerweise soviele Sockel wie möglich, also eher 4 +pro Brett verbaut haben.
 
@modena.ch: Nein, die meisten mir geläufigen, auch an unserer Uni, sind dual-socket Lösungen. Zumindest bei uns deshalb, weil dafür die Kühlung effizienter entworfen werden konnte und weil sich workload pro node so besser aufteilen lässt. Bei 4+ hätte man wohl deutlich mehr Bandbreite zwischen den einzelnen Nodes benötigt (und halt das Kühlsystem ganz anders designen müssen und anscheinend wohl ineffizienter, laut Planung) - sowas geht da ja alles in die Kalkulation mit rein.

Selbst die allergrößten Systeme lösen das häufig so. Z.B. der Inifinity von Cray, aktuell auf Platz 10 der schnellsten Supercomputer, hat für seine HPC Cluster pro node 2x Xeon E5-2698v3 16C 2.3GHz verbaut.

Der IBM Sequoia, aktuell auf Platz 4 der schnellsten Supercomputer, hat beispielsweise sogar nur single-socket nodes: 100.000 Stück mit 16 Core CPUs.


Unabhängig davon widerspricht dir bezüglich des Fokus von Epyc seitens AMD unter anderem dieser Artikel: AMD’s New Epyc Server Brand to Take on Deep Learning

Zahlreiche andere zu dem Thema findet man durchaus. Insofern nein, die Masse wird da sicherlich nicht die typische Windows/VM-Ware Serverlösung im typischen Unternehmen sein, sondern - wieder (oder vielmehr noch mehr) - Cloud & HPC.
 
Zuletzt bearbeitet:
ascer schrieb:
Dagegen dürften die typischen Windows/VM-Ware Server von Unternehmen nur einen ziemlich kleinen Teil vom Kuchen ausmachen.
Täusch dich mal nicht. Kleine und Mittelständische Unternehmen mögen vielleicht nicht die Masse an Servern haben, dafür gibt es Unmengen an Unternehmen. Bei meinem letzten AG hat allein die Kundenliste für Norddeutschland fast 10.000 Einträge, von Arztpraxis bis Enterprise ist da alles dabei. Skaliert auf den kompletten Globus, gibt es weltweit zigtausende von kleinen und mittelgroßen Unternehmen, die allesamt in irgendeiner Weise Serverhardware einsetzen. Dagegen sind die Fortune Global 500 war als einzelne Einheiten größer, dafür gibt es aber eben auch nur wenige Hundert an Unternehmen.
modena.ch schrieb:
Epyc gibt es maximal als 2 Sockel Lösung pro Board. Und genau das setzt die typische KMU üblicherweise ein.

HPC und Cloud Systeme dürften normalerweise soviele Sockel wie möglich, also eher 4 +pro Brett verbaut haben.
Ich kenne nicht ein einziges HPC/Cloud-System, wo ein Knoten mehr als zwei Sockel hat. In der Top500-Liste finden sich vielleicht eine handvoll Systeme mit Quad-Sockel-Maschinen und die großen Cloud-Provider skalieren ihre Rechenzentren eher über die Anzahl an Knoten und nicht an Knotengröße.

Im Gegenteil. Manche gehen hier sogar mehr auf Uni-Socket-Systeme, um NUMA-Problemen aus dem Weg zu gehen.
 
Simon schrieb:
Täusch dich mal nicht. Kleine und Mittelständische Unternehmen mögen vielleicht nicht die Masse an Servern haben, dafür gibt es Unmengen an Unternehmen. Bei meinem letzten AG hat allein die Kundenliste für Norddeutschland fast 10.000 Einträge, von Arztpraxis bis Enterprise ist da alles dabei.

Klar, aber wie viele 32C CPUs (oder früher halt 16C) hast du denn an solche Unternehmen verkauft?

Für alles unter Mittelstand sind doch derartige CPU-Boliden komplett überdimensioniert, besonders für die typische Windows-Domäne etc.

Und ansonsten: Cluster, die uni-intern sind, sind deutlich kleiner als die großen Teile, die bei Instituten, Forschungs-Kooperationen oder Konzernen rechnen. Wenn unsere Uni schon weit über 10.000 Server CPUs alleine verbaut hat...ich mein seriously, so viel wird nicht mal VW für ihr typisches Windows/VMWare Kontigent betreiben. Und das ist eine einzige Uni. Kein großer Verbund.

Oder anders gerechnet: selbst wenn du all deine ~10.000 Kunden zusammen nimmst, dann wird über den Daumen gepeilt (weil große und kleine Kunden dabei sind) im Durchschnitt wohl sicherlich weit unter 100 solcher dicker CPUs pro Kunde eingesetzt. Damit käme deine gesamte Kundenliste - ganz ganz grob gerundet - vielleicht ungefähr auf das, was in einem großen RZ von Amazon & Co oder einem einzigen TOP500-Cluster verbaut ist.

Ich glaube kaum, dass der herkömmliche Windows/VMWare-Absatzmarkt da auch nur annähernd mithalten kann. Imho richtet sich Intel und AMD, wie etwa bei der verlinkten News, jetzt ja auch explizit auf Cloud/HPC, besonders getrieben durch AI / Machine Learning / Deep Learning, aus - weil da die Masse abgesetzt wird.

Dazu kommt ja abgesehen davon auch noch, dass auch VW sicherlich irgendwo 'ne Cloud stehen hat. Sprich selbst bei großen Konzernen werden anteilig gesehen mittlerweile bestimmt mehr dicke Server-CPUs in Linux/Unix Cloud/HPC-Clustern landen, als im typischen Windows/VMWare-Knecht.


Simon schrieb:
Ich kenne nicht ein einziges HPC/Cloud-System, wo ein Knoten mehr als zwei Sockel hat. In der Top500-Liste finden sich vielleicht eine handvoll Systeme mit Quad-Sockel-Maschinen und die großen Cloud-Provider skalieren ihre Rechenzentren eher über die Anzahl an Knoten und nicht an Knotengröße.

Das ist - wie weiter oben bereits ausgeführt - auch exakt meine Erfahrung.
 
Zuletzt bearbeitet:
ascer schrieb:
Oder andersrum: zeig mir mal das Unternehmen, das für herkömmliche Zwecke (also Windows, VMWare, ...) und nicht Cloud/HPC/... min. >= 1.000 CPUs bestellt (und zwar im High-End-Bereich, mit möglichst vielen Cores). Und zwar spätestens alle paar Jahre.

Denn bei HPC-Clustern sind die wichtigen Ressourcen, wie hier schon Mal genannt, Effizienz und Kühlung. Deshalb wird die Hardware da selten wirklich lange betrieben. Lizenzkosten oder Hardwareanschaffung sind da eher Nebensache.

Mit allen Clustern bei uns kommen wir beispielsweise locker über 10.000 CPUs. Ich wette, für typische Unternehmensbelange hat nicht mal so was wie VW derartig viele Server-CPUs im Einsatz (also herkömmlicher Use: Windows, VMWare, ...). Und das ist - wie gesagt...

So gut wie jeder DAX30 Konzern der eigene DCs betreibt. Da fliegen in der Regel die alten Kisten nach 4 Jahren raus. Treibt man sich in den Kreisen umher, wird nur noch von XX.000 VMs pro Dual-Site gesprochen. Unternehmen wie VW haben schnell mal 5-10k Applikationen am laufen.

Heute packt man so gut wie alles in eine VM und somit auf ESX Hosts (Enterprise), sogar so etwas wie eine SAP HANA auf ner HP Superdome mit xTB Memory pro VM.
 
Zuletzt bearbeitet:
@ascer

Die Anzahl an Kunden mit den Top SKUs ist natürlich überschaubar.

Aber auch im HPC Bereich kommen nicht unbedingt nur die 2699er zum Einsatz sondern auch viele 2670 bis 2695. Der Trend wird sich mit dem zunehmenden Einsatz von Beschleuniger und FPGAs auch noch verstärken. Wer stark vektorisierbaren x86 Code hat, wird auf Xeon Phi gehen und wer sonstigen Bedarf oder neuen Code mit kleinen Matrizen und Datasets, klatscht sich seine Cluster mit GPUs voll. So richtig die Notwendigkeit für 28/32 Kern Host CPUs nimmt da eher ab.

Und VW spielt aktuell gerne mit OpenStack als neue Cloud Lösung rum. Über den genauen Projekt Stand bin ich nicht informiert, aber die erste Testinstallation hatte afaik rund 4.000 Cores. Das endgültige Gebilde wird natürlich ungleich größer ausfallen.
 
Zurück
Oben