News Qualcomm Centriq 2400: Mit 48 Kernen und 60 MB L3-Cache gegen Intels Xeon

hudini9911 schrieb:
Das glaubst du doch selbst nicht. Die ARM Prozessoren verbrauchen 5W, eine Intel CPU 15W, in den Macbooks eher 20-30W bei ähnlicher Strukturbreite. Sollen aber 6-Mal so effizient sein. Im Leben nicht.
Sollen Sie eine ARM CPU mit vollwertigem Windows/MacOS benchen, mal schauen ob die Benchmarks dann immernoch so toll ausfallen. Bezweifel ich.

Ich habe nicht behauptet, dass das iPhone generell schneller ist, sondern nur gesagt, dass es im Geekbench mehr Punkte erreicht. Der Verbrauch ist an das Gerät angepasst. Verwechsle Verbrauch bitte nicht mit Effizienz. Nur vom Stromverbrauch auf die Effizienz zu schließen ist sinnfrei, 15 W-Dualcores sind auch nicht 6x so effizient wie ein 7700K nur weil der Verbrauch so viel niedriger ist.

Es wäre mir neu, wenn Windows uneingeschränkt auf ARM läuft, daher kann man eine ARM-CPU nicht unter Windows benchen. Man kann nur die Zeit vergleichen, die benötigt wird um bestimmte Aufgaben zu lösen oder die berechneten Frames pro Zeit. Und genau das tun Benchmarks.
 
Jopp, das dürfte stimmen. Geekbench zeigt es zwar an, aber es gibt haufen andere Anwendungen in den der iPhone-Chip halt 3, 4 oder 5mal so langsam ist, wenn es extrem wird ist selbst das Macbook Pro auch zehn Mal so schnell. Das weiß natürlich auch Apple, sonst wären sie den Weg längst gegangen. Aber so kann man wenigstens seit zehn Jahren jedes Jahr wieder die Diskussion starten wann Apple denn Macbook Pro mit ARM-Chip ausrüstet^^
 
B34thOven schrieb:
Dacht ich auch zuerst, aber dann las ich die Beschränkung des RAM auf max. 768 GB und das auch nur mit den richtig teuren 128GB Modulen.

Hier stimmt in meinen Augen die Relation CPU Performance vs. RAM Ausbau nicht um ein wirtschaftliches HCI System aufzubauen...

Warum man bei einem Server SOC nur SATA und kein SAS verbaut erschließt sich mir auch nicht

Absolut, da geb ich dir voll recht!
 
Es kommt halt auf die Anwendung an. Und wenn der A11 nur 1/5 der Geschwindigkeit bietet bei 1/5 der Leistungsaufnahme im Vergleich zum MacBook Pro, dann ist die Effizienz noch nicht schlechter. Und der Einsatz eines ARM-Prozessors im MacBook hat in meinen Augen auch das Problem mit der Kompatibilität.
 
Solche Geräte werden wohl mehr oder weniger ausschließlich über Netzwerk kommunizieren und 2 x 1GBE deutet schon auf die zu erwartende Leistungsfähigkeit hin.

Viel RAM, wenig Bandbreite. Scheint ideal, um möglichst viele VMs im Leerlauf zu parken.
 
DIE iPhone CPUs sind nur deshalb schnell weil ein Grossteil der immer gleichen Aufgaben in der CPU direkt verdrahtet sind aka Hardwarebeschleunigt was glaubt ihr wieso die iPhone socs so riesig sind. Wenn's Mal doch ne Aufgabe bis zum eigentlichen arm core schafft ist der genauso lahm wie alle anderen besseren Arms auch
 
@Dezor: Windows 10 soll mit dem nächsten Update tatsächlich x86, natürlich wieder nicht x64, emulieren können. Mit diesem Update sollen W10-Tablets auf ARM-Basis (z.B. mit Snapdragon 835). Erste Prototypen wurden letztes Jahr vorgestellt. Aktuell prüft Qualcomm aber auch, ob mit der Emulation Qualcomm-eigene Patente verletzt werden.
 
Zuletzt bearbeitet: (Lesbarkeit)
Krautmaster schrieb:
Läuft Server 2016 schon auf ARM? Das special Windows sollte doch auch in der Lage sein X86 Code emuliert auf ARM auszuführen. Zumindest beim Windows 10 ARM Pendant war davon die Rede.
Also Windows 10 (1709 Build 16299.15) läuft auf ARM64. Ob Windows 2016 Server bereits portiert ist, muss ich mal suchen.

Windows 10 16299.15 ARM64.JPG
 
hudini9911 schrieb:
Das glaubst du doch selbst nicht. Die ARM Prozessoren verbrauchen 5W, eine Intel CPU 15W, in den Macbooks eher 20-30W bei ähnlicher Strukturbreite. Sollen aber 6-Mal so effizient sein. Im Leben nicht.
Sollen Sie eine ARM CPU mit vollwertigem Windows/MacOS benchen, mal schauen ob die Benchmarks dann immernoch so toll ausfallen. Bezweifel ich.
Das traurige für x86 ist, dass die Tests im Geekbench sehr viel mit Real-World Einsatzzwecken zu tun haben (z.B. Compiler, HTML, Datenbanken, Raytracing, Spracherkennung, usw.). Klar wird eine Intel CPU unter Einsatz von AVX den ARM deklassieren, aber welche Programme verwenden denn AVX? Wenn es um die reine CPU-Geschwindigkeit ohne diese Vektoreinheiten (= Hardwarebeschleuniger) wie AVX geht, so muss sich ARM schon lange nicht mehr verstecken. Beeindruckend ist auch das Video von Microsoft mit Photoshop CC auf einem Snapdragon 820: die Performance ist gar nicht mal so schlecht, vor allem wenn man bedenkt, dass der ARM-Prozessor den x86 Code ausführt.

Steeeep schrieb:
DIE iPhone CPUs sind nur deshalb schnell weil ein Grossteil der immer gleichen Aufgaben in der CPU direkt verdrahtet sind aka Hardwarebeschleunigt
Die Hardware-Einheiten für Crypto, Video und Vektorberechnungen existieren, die meisten davon gibt es aber schon lange bei x86 (zumindest wenn die CPU von Intel kommt).
 
Zuletzt bearbeitet:
Intel pendelt dieses Jahr permanent zwischen 1. April (Optane, X299, Z370, ...) und Halloween (RyZEN, TR, Centriq, ...) hin und her... schöne Zeiten, es geht was.
 
Solange kein x86 solange keine wirklich konkurrenz. IBM ist in dem Bereich deutlich stärker, wenn man wirklich die Parallelität braucht.
 
D708 schrieb:
Solange kein x86 solange keine wirklich konkurrenz. IBM ist in dem Bereich deutlich stärker, wenn man wirklich die Parallelität braucht.

Naja, die Leistung an der Architektur festzunageln finde ich ein bisschen kurzsichtig.
 
So wird das nichts, qualcomm ist da beim design schon einfach zu konservativ.
Wenn das mit der Leistung ebenfalls so ausfällt verpassen sie den Einstieg weil sie sich nicht getraut haben ein wirklich großes design abzuliefern.

- 48Threads sind nicht wirklich viel. Wenn es bei dem chip um hochparallelisierbare Anwendungen geht, wieso hat man dann kein SMT um die breite der einzelnen Kerne besser auszunutzen? IBM hat immerhin 4fach SMT und SPARC sogar 128fach.
- Das Fehlen von SMT deutet wieder darauf hin dass Qualcomm hier ein weniger breites Design gewählt hat wo sich SMT kaum lohnt. Das mag vielleicht im mobilbereich effizient sein und mit taktrate auch einigermaßen skalieren, erreicht aber dann eben auch nicht die Höchstleistungen von Intel und AMDs relativ breiten designs.
- 32 PCIe Lanes pro socket ist sehr mager, AMD hat 128 bei 1S bzw 64 pro socket bei 2S und intel hat 40 respektive 80.
- 768GB Ram ist nur halb soviel wie die extended versionen vom xeon Platinum. AMD Epyc hat durchgehend Unterstützung für 2TB.
- 2mal gigabit ethernet ist lächerlich für eine CPU die in großen datacentern laufen soll. Epyc hat mit Infinity fabric und vielen PCIe links die Möglichkeit 10, 25, 40GBE zu unterstützen, was viele boards von Haus aus anbieten. Und Intel schießt mit omnipath die Krone ab - 100gb/s direkt in der CPU ist ne Ansage.


Too little too late Qualcomm!
 
Simpson474 schrieb:
Das traurige für x86 ist, dass die Tests im Geekbench sehr viel mit Real-World Einsatzzwecken zu tun haben (z.B. Compiler, HTML, Datenbanken, Raytracing, Spracherkennung, usw.).
Geekbench ist ein hochgradig ungeeigneter Benchmark für Desktop-/Serverleistung und haben mit Real-World praktisch überhaupt nichts zu tun. Es sind nur Simulationen, d.h. für die Tests werden nur Code-"Bruchstücke" genutzt, die der Anbieter für irgendwie typisch für eine Anwendungsklasse hält. Diese Tests sind häufig schön klein und kompakt, was z.B. das ganze Speicher-Subsystem (Caches, RAM, I/O) entlastet. Deswegen haben alle Server-CPUs auch immer so viel Cache und massig interne Bandbreite. Bei Geekbench kommt das allerdings überhaupt nicht zum tragen. Bei Geekbench kommt noch hinzu, dass bei einem wesentlichen Teil der Tests auf Fixed-Function-Einheiten zurückgegriffen wird. Diese sagen allerdings überhaupt nichts über die allgemeine Leistungsfähigkeit einer CPU aus.

Simpson474 schrieb:
Klar wird eine Intel CPU unter Einsatz von AVX den ARM deklassieren, aber welche Programme verwenden denn AVX?
Die AVX-Einheit hat wenig damit zu tun, warum Intel/AMD CPUs bei Desktop-/Sever-Anwendungen deutlich schneller sind, sondern sehr viel stärker die interne Bandbreite, Caches, I/O, usw. ARM hat übrigens nicht nur ebenfalls eine SIMD-Erweiterung (NEON), sondern viele SoCs enthalten zusätzlich DSPs, die ähnlich arbeiten.

Simpson474 schrieb:
Wenn es um die reine CPU-Geschwindigkeit ohne diese Vektoreinheiten (= Hardwarebeschleuniger) wie AVX geht, so muss sich ARM schon lange nicht mehr verstecken.
Es kommt ganz auf den Code an. Ist der Code kompakt und nicht übermäßig komplex, dürfte das stimmen, denn die Rohpower ist nicht so unterschiedlich. Sobald der Code größer und komplexer wird und mehr Cache-/RAM-/IO-Bandbreite gefragt ist, wächst der Abstand rapide.

Simpson474 schrieb:
Die Hardware-Einheiten für Crypto, Video und Vektorberechnungen existieren, die meisten davon gibt es aber schon lange bei x86 (zumindest wenn die CPU von Intel kommt).
Diese Hardware-Einheiten werden so dimensioniert wie sie benötigt werden und nicht größer/schneller, d.h. eine AES-Einheit orientiert sich an der Geschwindigkeit von einfachen HDDs/SSDs. Sehr schnelle Speicher bringen in der Regel ihre eigene Hardwareeinheit mit. Das gleiche gilt für die Video-Einheit. Die Geschwindigkeit orientiert sich da an den typischen Framerates für Videos. Die Geschwindigkeit dieser Einheiten sagt ergo nichts über die allgemeine Leistungsfähigkeit der CPU aus.
 
@Limit
Die Rohleistung auf was Bezogen? Leistung pro Takt?
Ansonsten dürfte selbst ein Intel Dual Core mit "U" deutlich vorne liegen. Die im MacBook gängigen Intels dürften bei ca. 45-55 GFLOP liegen, während so ein Apple SOC aktuell zwischen 10 und 12 GFLOP liegt.
CPU Leistung, nicht kombiniert aus CPU+GPU oder solche Spielchen.
 
Limit schrieb:
Diese Tests sind häufig schön klein und kompakt, was z.B. das ganze Speicher-Subsystem (Caches, RAM, I/O) entlastet.
Das gilt aber auch, wenn Geekbench auf x86 läuft. Man kann Geekbench daher schon als echten Vergleich der Architekturen sehen. Das restliche Ökosystem (Speicheranbindung, Bandbreite), etc. kann damit jedoch nicht bewertet werden. Allerdings ist das auch der Teil, den Qualcomm für den Server-Markt stark angepasst hat. Es wird sich zeigen, welche Performance der Chip am Ende erreicht.

Thane schrieb:
CPU Leistung, nicht kombiniert aus CPU+GPU oder solche Spielchen.
Die FLOP bezeichnen die Floating-Point Leistung und dort wird bei Intel wohl die AVX-Performance angegeben.
 
Zuletzt bearbeitet:
Die FLOP bezeichnen die Floating-Point Leistung und dort wird bei Intel wohl die AVX-Performance angegeben.
Nein. Mit AVX dürfte ein Intel noch mehr Leistung in entsprechenden Anwendungen haben.
ARM ist einfach weit weg, was die Rohleistung angeht.
Keine Ahnung, wie du auf das schmale Brett kommst, ein ARM hätte bei gleichem Takt die gleiche oder eine vergleichbare Leistung.

Ein ARM wird irgendwo bei 4 DP FLOP pro Takt und 8 SP FLOP pro Zyklus liegen.
Bei Intel (ab Haswell) kannst du da von Faktor 4 ausgehen. Mit AVX 512 eher Faktor 8.
 
Zuletzt bearbeitet:
Zurück
Oben