News Skylake-SP: Weitere Benchmarks zu Intels 32-Kern-Prozessor

Kowa schrieb:
Das verstehe ich nicht. Was gewinnt man bei einer Virtualisierung, wenn man viele, langsame Cores als Host einsetzt?
Zum einen: zwei Xeons mit je 32 Kernen und 2.3 GHz würde ich in der Summe nicht als langsam bezeichnen, wenn der Vergleich z.B. zwei Xeons mit je 16 Kernen, dafür aber 3 GHz sind. (Wenn du eine Gast-VM hast, die eine hohe pro-Kern-Leistung benötigt, kannst du sie ja immer noch auf einen Virtualisierer mit hohem Takt packen, für den Großteil der VMs sind entsprechend viele virtuelle 2.3 GHz-Cores auf einem aktuellen Xeon locker ausreichend.)

Zum anderen: die doppelte Kernanzahl bietet dagegen den Vorteil, dass du mehr VMs laufen lassen kannst bei gleichbleibender oder sogar geringerer CPU Wait Time, denn bei Virtualisierungen hilft eine hohe Anzahl von GHz pro Kern nicht bei CPU-Ready-Problemen! Sofern man also keine Einschränkungen bzgl. der Performance pro Core hat, sind in Virtualisierungsumgebungen mehr Cores in vielen Fällen immer besser.

Wenn 32 Cores mit jeweils 31 anderen Cores parallel kommunizieren wollen, bricht der Durchsatz zusammen. Bleibt die Core-Affinität hoch, kann man das genausogut über mehrere Nodes abbilden.
Bitte definiere was du in diesem Fall genau unter Node verstehst. Falls es in mehr CPU-Sockeln und/oder Servern resultiert: nein, kann man nicht einfach so, es sein denn es schneit Ressourcen und man sein Budget nicht rechtfertigen müsste. Bei höheren Kernanzahlen hat man doch gerade den Vorteil, dass die Last über weniger Sockel und /oder sogar Server verteilt werden muss und die Kommunikationssituation sich insgesamt verbessert. Die Virtualisierer, Simulations- und Rechenprogramme in solchen Umgebungen nehmen auch Rücksicht auf Sockel, CPU-Aufbau, NUMA usw und verteilen die Aufgaben entsprechend möglichst ideal.

Wie hoch sind die Anschaffungs- und Einrichtungskosten eines Servers ohne CPU? Wie hoch sind die Kosten für Wartung, Strom, Stellplatz, Ports? Da habe ich leider gar keinen Preis. Wenn das mal bitte jemand aufhellen könnte, was z.B. Serverhousing beispielhaft für 1U kostet?
Der Anschaffungspreis für zwei Server mit x Kernen ist immer höher als für einen Server mit doppelt sovielen Kernen, denn die Mehrkosten der CPU sind nicht höher als die restlichen Kosten des Servers. Dies gilt auf jeden Fall bei Servern in der gleichen Klasse, in fast allen Fällen auch bei benachbarten. Kannst dir z.B. bei Dell ja mal ein paar Maschinen zusammen klicken um ein Gefühl zu bekommen und dort dann verschiedene CPUs verbauen.

Und Platz für 2U ist immer teurer als Platz für 1U, egal ob das Datacenter einem selbst gehört und man die Investitionen in das Gebäude und technische Ausrüstung dann auf die Rackunits runterbricht oder ob man mietet, wo meines Wissens fast immer auch nach RU tarifiert wird. Denn der Vermieter hat ja ein Interesse daran, möglichst viel Umsatz zu machen und das geht nicht, wenn seine Schränke mit (volumenmäßig) großen Maschinen gefüllt werden, und er pro Maschine nur das gleiche Geld wie für einen 1RU-Server nehmen würde. Das wäre ja schön blöd. Zudem ist eine höhere Anzahl an benötigten Netzwerkports bei mehr Servern auch immer höher, ebenso der Stromverbrauch. Denn der wird ja nicht nur durch die CPU definiert.
 
Zuletzt bearbeitet:
@Kowa
Mit Virtualisierung ist gemeint, dass man einer 32-Core CPU mehr VMs zuweisen kann, als einer mit "nur" 16 Cores. Da kann man dann mehr VMs betreiben, ohne einen neuen Server kaufen zu müssen.

Außerdem spielt in diesem Umfeld auch die Leistungsaufnahme pro Core eine wichtige Rolle. Der Sweet Spot liegt da irgendwo bei 2,5 GHz. Grobes Beispiel: 20 Cores mit 2,5 GHz benötigen sehr viel weniger Strom als 10 Cores mit 5 GHz.

Und es gibt auch noch genug Aufgaben, wo viele Kerne rechnen können, ohne großartig aufeinander angewiesen zu sein, wie z.B. in Cinebench. Den Satz "wer braucht sowas?" kann man sich bei Server Hardware also wirklich verkneifen. Es wird dafür immer ein Einsatzgebiet geben.
 
Simon schrieb:
Durch die hohe Anzahl an PCIe-Lanes direkt auf der CPU, wäre z.B. ein vollausgerüstetes 2HE-Chassis mit 24 x NVMe SSDs (über PCIe 3.0 x4) denkbar, ohne auf extra PCIe-Switche setzen zu müssen.
Es gibt neben der Anzahl der Lanes auch noch ein Limit für die Anzahl der Geräte. Intel S. 1151 CPUs können z.B. ihre 16 PCIe 3.0 Lanes nur maximal als 8x/x4/x4 aufteilen, man kann also max 3 SSDs mit PCIe 3.0 x4 anbinden, obwohl es 16 Lanes gibt. Bei den X370er Boards gibt nur solche die die 16 PCIe 3.0 Lanes in maximal x8/x8 aufteilen, keines welches auch x8/x4/x4 bietet. Es reicht also nicht die Zahl der PCIe Lanes durch 4 zu teilen um sagen zu können wie viele SSD mit PCIe 3.0 x4 angebunden werden können. Genaue Details über die möglichen Aufteilungen der PCIe Lanes sind aber eben (immer noch) nicht bekannt.

Kowa schrieb:
Wenn 32 Cores mit jeweils 31 anderen Cores parallel kommunizieren wollen, bricht der Durchsatz zusammen. Bleibt die Core-Affinität hoch, kann man das genausogut über mehrere Nodes abbilden.
Ja, aber wenn die 32 anderen Cores viel mit dem einen kommunizieren müssen, ist es für gewöhnlich auch keine Anwendung die gut über viele Kerne skaliert und ja, bei Naples werden sie dann wohl schlecht skalieren als auf Xeon CPUs bei denen die Kerne alle auf dem gleichen Die sind.
 
Zurück
Oben