News Server-CPUs: Intel soll intern mit vier schweren Jahren planen

Den Artikel von Charlie habe ich mir auch durchgelesen und der Abschnitt ist Blödsinn. Zum einen heißt der Interconnect (seit Skylake-SP) UPI und nicht mehr QPI und zum anderen bezieht sich die Angabe der Bandbreite auf einen Port. Je nach CPU gibt es heute 2-3 und in Zukunft können es durchaus auch 4-5 werden.

Zum anderen ist Bandbreite nur die halbe Miete. Mindestens genauso wichtig sind die Latenzen und hier deklassiert Intels UPI AMDs Infinity Fabric (Epyc). Socket to Socket (also über das Mainboard) erreicht Intel Werte welche AMD DIE to DIE (MCM, also on Package) schafft. Socket to Socket liegt Epyc ungefähr bei Faktor zwei. Wird bei Rome sicherlich ein gutes Stück besser aber das man Intels Interconnects im Rahmen der Latenz erreicht ist nicht realistisch.

Quelle: https://www.servethehome.com/amd-epyc-infinity-fabric-latency-ddr4-2400-v-2666-a-snapshot/

Was Charlie wohl überhaupt nicht versteht ist das ein 2S MCM (wie Eypc) aufgrund der 8 NUMA Nodes und den verteilten I/O Interfaces (ebenfalls pro DIE) viel viel mehr Daten hin und her schaufeln muss als beispielsweise 2S mit 2 Nodes. Die Anforderungen an die Bandbreite sind damit schon konzeptionell völlig andere.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Simon
So riesig ist der Unterschied der Inter-Socket-Bandbreite jetzt aktuell nun auch nicht.

Bei Intel sind es bei einem 2-Sockel-System aktuell rund 120 GB/s (bi-dir) mit einem 3 x UPI Connect und bei AMD EPYC sind es 152 GB/s (bi-dir). Intel hat den Vorteil dass UPI an das Mesh angebunden ist, bei AMD muss ggf. der Traffic schlimmstenfalls über einen weiteren Hop in Intra-Socket IF geroutet werden, was natürlich die Latenz massiv beeinträchtigt.

Hat eben alles Vor- und Nachteile. AMD kann über die Infinity Fabric schell und kostengünstig die Kerne auf einem Sockel mit billigeren Einzel-DIEs nach oben skalieren, in manchen Anwendungsszenarien ist dieser Ansatz aber hinderlich.

Der Markt wird sich denke ich ein wenig diversifizieren:

Die klassischen "General Purpose" Server in normalen Unternehmen mit Windows Server, MSSQL oder RHEL mit Oracle und Co. werden aufgrund der zunehmend Kern-basierten Lizenzierungsmodelle auf möglichst geringe Anzahl Kerne mit möglichst hoher Taktfrequenz setzen, da sonst die Lizenzkosten alles an Hardwarekosten in den Schatten stellen. Hier hat Intel tendenziell noch Vorteile, alleine schon weil viele Business-Software hauptsächlich auf Intel Hardware zertifiziert wird.

Dort wo Socket-basierte Lizenzierung zum Einsatz kommt, werden die AMD EPYCs stark punkten können. 32 Kerne (oder mit Rome 64), Acht Speicherkanäle und 128 PCIe Lanes sind eine Ansage, wo Intel momentan nicht gegen an kommt.

HPC-Anwendungen, die mit vektorisierten x86-Codes arbeiten, sind mit AVX-512 und integrierten Omni-Path bei Intel nicht schlecht dabei, für GPU beschleunigte Anwendungen ist es per se erst einmal egal was als Unterbau dient, dort entscheidet im Zweifelsfall der Preis. Möglicherweise droht hier von der POWER9-Schiene samt eingebauten NVLink im Zusammenspiel mit Nvidia die größere Gefahr. Der Markt ist aber auch sehr speziell und hat sich die letzten 20 Jahre immer wieder mal in die eine oder andere Richtung gewandelt.

Das, was für Intel am schmerzhaftesten wiegt sind Cloud-Provider, die einfach nur massenhaft "billiges Blech" mit möglicht vielen Kernen und RAM auf möglichst kleine Fläche stopfen, um darauf möglichst viele Kunden-VMs laufen zu lassen. Das ist die Killer-Anwendung für AMDs "Rome" und dort ist das Wachstum die nächsten Jahre auch mit am größten.
 
Zurück
Oben