News Marvells ARM-Server-CPU: ThunderX3 mehr als doppelt so schnell wie ThunderX2

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.352
ARM-Server-Prozessoren haben derzeit Rückenwind. Die zugrundeliegende Architektur hat einen großen Sprung nach vorn gemacht, davon profitieren nun die Hersteller, die sie für ihre Lösungen adaptieren. Marvells nächste Generation an ThunderX-Prozessoren soll den aktuellen Prozessor um deutlich mehr als das Doppelte übertreffen.

Zur News: Marvells ARM-Server-CPU: ThunderX3 mehr als doppelt so schnell wie ThunderX2
 
  • Gefällt mir
Reaktionen: Transistor 22, Kazuja und konkretor
Ich habe von solchen Geräten leider gar keine Ahnung. Deswegen meine Frage:
Was für Anwendungen/Systeme betreibt man auf ARM Servern idealerweise?
 
Prinzipiell können die so ziemlich alles, was die klassischen Server auch können. Teilweise muss man Sachen umprogrammieren, aber wenn es nicht gerade um x86 getriebene Infrastruktur, sondern eher um wissenschaftliche Berechnungen, kann man nach einigen Anpassungen alles drauf portieren.
 
jo89 schrieb:
Was für Anwendungen/Systeme betreibt man auf ARM Servern idealerweise?
Bei AWS ist die Aussage zu den ARM basierten Instanzen folgende: „They are a great fit for scale-out workloads where you can share the load across a group of smaller instances. This includes containerized microservices, web servers, development environments, and caching fleets.“
Quelle.
 
bei 200W TDP kann der Effizienz-Vorteil so riesig nicht mehr sein... bzw der Spielraum führ höheren Takt halt nicht.

Die ARM-CPUs takten auch schon höher als Epyc oder Rome, was ich interessant finde.
 
Askat86 schrieb:
Prinzipiell können die so ziemlich alles, was die klassischen Server auch können. Teilweise muss man Sachen umprogrammieren, aber wenn es nicht gerade um x86 getriebene Infrastruktur, sondern eher um wissenschaftliche Berechnungen, kann man nach einigen Anpassungen alles drauf portieren.
Macht nur keiner weil es viel zu aufwendig und langsam ist. Die Einzige Ausnahme sind die Chinesen wegen der Patente.
 
Mehr als 100% Geschwindigkeitszuwachs?.! Hut ab!

Leider aber nur durch mehr Rechenkerne und nicht um eine gesteigerte SingleCore/SingleThread-Leistung erreicht.

Läßt sich ein Vergleich zwischen diesen (Server-)ARM-CPUs und im Consumermarkt vertretenen x86/x64-CPUs in Form von Flops angeben?
 
Rickmer schrieb:
bei 200W TDP kann der Effizienz-Vorteil so riesig nicht mehr sein... bzw der Spielraum führ höheren Takt halt nicht.
Es kochen alle Halbleiterhersteller mit dem selben Wasser.
Im Endeffekt bewegen sich Designs ähnlicher Komplexität auf ähnlichen Effizienzleveln bzw. IPC-Leveln. Diese Diskussion hatten wir gerade auch beim ARM-Surface.
 
Botcruscher schrieb:
Die letzten Tests zur IPC die ich gesehen hab lagen auf Level von Atom oder Jaguar.

Jopp. Takten allerdings höher und bringen derzeit 128 Kerne auf einem einzigen Chiplet unter. Während jeder dieser Kerne eine IPC von Jaguar hat, aber mit wahrschl ~3,5 GHz dabei noch höher Taktet.

Unter dem Strich eine völlig andere Liga als Atom und Jaguar.

süchtla schrieb:
Im Endeffekt bewegen sich Designs ähnlicher Komplexität auf ähnlichen Effizienzleveln bzw. IPC-Leveln.

Das ist so nicht richtig. Ich kann z.B. durch den Vergleich des Rendern eines Videos unter Windows eine sehr verzerrte Situation erzeugen. Eine extrem ungünstige Situation für eine ARM CPU, mit einer extrem bevorzugten Situation für x86 CPUs, kann (soll), schon ein schön verzerrtes Bild erstellen.

Man kombiniert die Schwäche (hochkomplexe Workloads) des einen, mit der Paradedisziplin des anderen und sagt dann:

„Schau her, wenn ich den Intel soweit runtertakte, dass er gleich schnell ist, dann hält der Akku ungefähr gleich lang“ ...

🤦‍♂️


Ja, richtig. In dem Szenario indem ich der CISC und der RISC Architektur nen hochkomplexen Workload gebe, sind beide ähnlich effizient (und RISC zeitlich langsamer). Ggf. die CISC gar allgemein effizienter.
Aber dann halt Gegenfrage, wie sieht’s bei weniger komplexen Aufgaben aus?
Da stinkt x86 dann genauso ab, wie nen 12 Liter-Motor in der 30er Zone.

Wobei auch die Themen wie Compiler/Algorithmen und jahrzentelange x86-Optimierung dabei noch völligst außer Acht gelassen werden.

süchtla schrieb:
Im Endeffekt bewegen sich Designs ähnlicher Komplexität auf ähnlichen Effizienzleveln bzw. IPC-Leveln.

Gegenthese:

Eines der mit Abstand komplexesten ARM Designs, die jeweiligen Apple SoC, erreichen seit jeher die mit Abstand höchsten Effizienzwerte. Bei fast doppelter IPC und deutlich komplexeren Designs wohlgemerkt.

Deutlich mehr IPC, deutlich mehr Transistoren, und weniger Verbrauch unter Vollast.
(Bevor jetzt Laufzeit-Vergleiche für YT u.ä. kommen, bitte beachten das Apple-Akkus idR nur 60% der Kapazität ihrer Android Pendants besitzen.)

So sieht’s dann aus, wenn man auch die Software auf ARM optimiert und dessen Vorteile konsequent nutzt.
(Der Unterschied zu Android ist hier, dass Apple keinerlei Befehlssätze mehr unterstützen muss, wenn sie nicht wollen. Dann werden zu einem Punkt X alle Geräte unterhalb des iPhone XY ausgeschlossen. Und ab genau diesem Zeitpunkt, fliegen zusammen mit den alten Befehlssätzen auch die entsprechenden Compiler aus XCode und die zugehörigen Befehle aus iOS und den Apps. Apps müssen, für die dann aktuelle Version von iOS+iPhone, entsprechend neu kompiliert werden.) Ergebnis: Die neuen CPUs werden ausschließlich mit neuen Instruktionen verwendet, sogar sämtlich verfügbare dritt-Software.

Somit fliegt in einem Zug jeglicher alter Ballast über Board.
Und so sieht man letztlich auch den erheblichen Einfluss der Software auf die Effizienz eines Designs.

salvo errore
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaTux, cruse, Kazuja und 4 andere
Grösste Problem für x86 dürfte nach wie vor die Energieeffizienz sein.

Dazu kommt dann die unglaubliche Geschwindigkeit der Verbesserungen und eben der günstigere Preis.

Momentan ist so die Phase, wo alle merken ARM ist besser als x86, aber keiner richtig Lust hat die Software anzupassen. Wenn ARM in ein paar Jahren weit vorne liegen wird, dann wird auch irgendjemand Software anpassen (z.B. Apple mit ARM auf Desktop/Notebook) und dann werden sich die wirklichen Vorteile zeigen.
 
Eusterw schrieb:
Momentan ist so die Phase, wo alle merken ARM ist besser als x86

Dem kann ich nicht zustimmen. ARM hat seinen Vorteil darin, das es Stromsparend ist und alle Spezialfunktionen in Hardware gegossen sind. Sobald eine Software von diesen Funktionen abweicht hat ARM verloren.

Es wird nie eine CPU geben welche die Eierlegendewollmilchsau ist, da jedes Anwendungsfeld eigene Spezifikationen hat. Deshalb sehe ich diesem ARM Hype (den es vor ein paar Jahren schon einmal gab) mit gemischten Gefühlen entgegen.
 
  • Gefällt mir
Reaktionen: Iapetus
Sun_set_1 schrieb:
Jopp. Takten allerdings höher und bringen derzeit 128 Kerne auf einem einzigen Chiplet unter. Während jeder dieser Kerne eine IPC von Jaguar hat, aber mit wahrschl ~3,5 GHz dabei noch höher Taktet.

Unter dem Strich eine völlig andere Liga als Atom und Jaguar.



Das ist so nicht richtig. Ich kann durch den Vergleich des Rendern eines Videos unter Windows, eine extrem ungünstige Situation für eine ARM CPU mit einer extrem bevorzugten Situation für x86 CPUs, schon ein schön verzerrtes Bild erstellen.

Man kombiniert die Schwäche (hochkomplexe Workloads) des einen, mit der Paradedisziplin des anderen und sagt dann:
„Schau her, wenn ich den Intel soweit runtertakte, dass er gleich schnell ist, dann hält der Akku ungefähr gleich lang“ ... 🤦‍♂️
Ja, richtig in dem Szenario indem ich der CISC und der RISC Architektur nen hochkomplexen workload gebe, sind beide gleich effizient. Gegenfrage, wie sieht’s bei weniger komplexen Aufgaben aus?
Da stinkt x86 dann genauso ab, wie nen 12 Liter-Motor in der 30er Zone.

Wobei auch die Themen wie Compiler/Algo und jahrzentelange x86 Optimierung völligst außer Acht gelassen werden.



Gegenthese:

Eines der mit Abstand komplexesten ARM Designs, die jeweiligen Apple SoC, erreichen seit jeher die mit Abstand höchsten Effizienzwerte. Bei fast doppelter IPC und deutlich komplexeren Designs wohlgemerkt.

Deutlich mehr IPC, deutlich mehr Transistoren, und weniger Verbrauch unter Vollast.
(Bevor jetzt Laufzeit-Vergleiche für YT u.ä. kommen, bitte beachten das Apple-Akkus idR nur 60% der Kapazität ihrer Android Pendants haben.)

So sieht’s dann aus, wenn man auch die Software auf ARM optimiert und dessen Vorteile konsequent nutzt.
(Der Unterschied zu Android ist hier, dass Apple keinerlei Befehlssätze mehr unterstützen muss, wenn sie nicht wollen. Dann werden zu einem Punkt X alle Geräte unterhalb des iPhone XY ausgeschlossen. Und ab genau dem Zeitpunkt, fliegen zusammen mit den Sätzen auch die entsprechenden Compiler aus XCode und die Befehle aus iOS und den Apps. Apps müssen dann, für die dann aktuelle Version von iOS, entsprechend neu kompiliert werden.)

Somit fliegt in einem Zug jeglicher alter Ballast über Board. Und so sieht man letztlich auch den erheblichen Einfluss der Software auf die Effizienz eines Designs.


Einer der besten Beiträge hier im Forum zu ARM die es gibt!
Danke!
 
  • Gefällt mir
Reaktionen: Sun_set_1
@Sun_set_1 Schöne Zusammenfassung :)
Ich weiß, dass es massiv von dem eingesetzten Benchmark bzw. der Workload abhängt.
Trotzdem glaube ich, dass meine Aussage korrekt ist. Ähnliche Designs, und damit meine ich selbe Technologie, selbe Funktionalität bei selber maximal-ausnutzender Workload haben eine ähnliche Performance.
Siehst du das anders?
 
TD1334 schrieb:
Leider aber nur durch mehr Rechenkerne und nicht um eine gesteigerte SingleCore/SingleThread-Leistung erreicht.

Singlecore Leistung brauchen höchstens Gamer und Office PCs.
Diese CPU ist für Microservices und änhliches ausgelegt.
Ergänzung ()

süchtla schrieb:
@Sun_set_1 Schöne Zusammenfassung :)
Ich weiß, dass es massiv von dem eingesetzten Benchmark bzw. der Workload abhängt.
Trotzdem glaube ich, dass meine Aussage korrekt ist. Ähnliche Designs, und damit meine ich selbe Technologie, selbe Funktionalität bei selber maximal-ausnutzender Workload haben eine ähnliche Performance.
Siehst du das anders?

Ich sehe das anders, wie schon erwähnt der Apple-SoC ist ein gutes Beispiel, ein anderes "negatives" sind die Xeon-Phi.
Es hängt sehr stark von deinen Anwendungen ab, wie eine Architektur skaliert.
 
Zuletzt bearbeitet:
Eusterw schrieb:
Grösste Problem für x86 dürfte nach wie vor die Energieeffizienz sein.

Dazu kommt dann die unglaubliche Geschwindigkeit der Verbesserungen und eben der günstigere Preis.

Momentan ist so die Phase, wo alle merken ARM ist besser als x86, aber keiner richtig Lust hat die Software anzupassen. Wenn ARM in ein paar Jahren weit vorne liegen wird, dann wird auch irgendjemand Software anpassen (z.B. Apple mit ARM auf Desktop/Notebook) und dann werden sich die wirklichen Vorteile zeigen.

Das problem ist, ARM und x86 sind in völlig verschiedenen lastszenarien effizient. ARM hat seine Vorteile bei wenig Last bzw. im Idle. Daher haben auch alle Smartphones ARM CPUs. Die meisten Zeit haben die CPUS dort nichts zu tun. Unter last bewegt man sich dann beim Strmverbrauch aber auch auf einem ähnlichen level wie x86 CPU und ist nicht wesentlich effizienter.

Nach "Lust" geht es in der Industrie nicht. VW hat auch keine Lust ein neues Auto zu entwickeln. Kostet Geld und Arbeit. Aber Sie müssen es um Konkurrenzfähig zu bleiben.

So sieht es auch in anderen bereichen aus. Wäre es mea effizient un dtrivial die Software auf ARM zu portieren und hätte man mega Vorteile, dann würde man es längst machen.

Und woher kommt der günstigere Preis? Der Preis hängt hauptsächlich davon ab, was der Hersteller verlangt. Ein 500mm² Chip kostet in der Herstellung in etwa gleich viel, egal ob man da nun ARM Kerne oder x86 Kerne drauf unterbringt.

Durch skalierbare Cloudinfrastrukturen sind ARM Kerne im Server weniger sinnvoll geworden. Die meisten Server laufen nicht im Idele. Da man heute viele Anwendungen je nach Bedarf skalieren und einfach bei bedarf neue Computeunits hoch und runterfahren kann, fällt hier ein großer Teil weg. Man lastet die Hardware heute in der Regel deutlich besser aus, als noch vor einigen Jahren.

Es gibt Vorteile von ARM, keine Frage. Aktuell sind es aber recht wenige Breiche, wo man wirklich punkten kann.

jo89 schrieb:
Was für Anwendungen/Systeme betreibt man auf ARM Servern idealerweise?

Durch die geringe IPC hauptsächlich Anwendungen die man gut parallelisieren kann. Webserver würden sich beispielsweise gut anbieten. Gerade als dauerhaft laufender Webserver (Keine skalierbare Infrastruktur) kann das sinn machen, da der Server dort ofmals ohne viel last läuft. (Stark schwankende Auslastung)

Sun_set_1 schrieb:
So sieht’s dann aus, wenn man auch die Software auf ARM optimiert und dessen Vorteile konsequent nutzt.

Jein. Das ist der Vorteil, wenn Software und Hardware aus einer Hand kommt und man nur die Kompatibilitäten schaffen muss, die man möchte. Aber ja, hier ist ein riesen Problem moderner x86 CPUs. Sie müssen alles können und können dabei nichts richtig. Man könnte jede Architektur deutlich effizienter machen, wenn man keine Altlasten mitschleppen müsste.

Sun_set_1 schrieb:
Jopp. Takten allerdings höher und bringen derzeit 128 Kerne auf einem einzigen Chiplet unter

(...)

Unter dem Strich eine völlig andere Liga als Atom und Jaguar.

Das stimmt. Wieder ein gutes Beispiel, warum ARM Software / Anwendungsbereiche gut parallel arbeiten können muss. Ein Hauptvorteil sind relativ viele Rechenwerke pro Watt. Die vergleiche zu irgendwelche x86 Geneationen hinken eh meist, da es stark auf die Anwendung ankommt und man natürlich auch theoretisch nur vergleiche ziehen kann, wenn die CPU Designs in der gleichen fertigung entstehen. Ein 7nm ARM kern gegen einen 7 Jahre alten 28nm x86 Kern zu vergleichen ist immer etwas schwierig. Mit heutiger Technik würde man bei gleicher TDP auch deutlich mehr Jaguarkerne auf einen Chip bekommen.


Fazit: ARM hat in bestimmten bereichen seine Vorteile, aber Wunder CPUs sind das nicht. Die Hersteller, egal ob x86 oder ARM kochen alle nur mit Wasser und die verschiedenen Architekturen haben verschiedene Stärken und Schwächen. Man muss also für seine Anwendung die richtige Hardware finden. Seine Anwendungen auf eine andere Hardware zu portieren ist oftmals teuer und sinnlos.
 
  • Gefällt mir
Reaktionen: Iapetus und Sun_set_1
Zurück
Oben