News Für Server und Surface: Auch Microsoft entwickelt eigene CPUs auf ARM-Basis

Monstranz schrieb:
Das Ding ist schon Hammer, aber die TDP ist nicht viel anders als bei X86. Fuer alles ist der auch nicht geeignet.
Wenn X86 alte Funktionen ueber Board werfen wuerde, saehe es besser aus. Software die 20 Jahre und aelter ist soll ja auch noch auf dem PC laufen. Interessant finde ich die Angaben zum Preis fuer dieses 80 Core Monster.
TDP wird meistens zwar nicht erreicht, aber man sieht die Chance in der überproportinalen Parallelisierung. Mit den konventionellen Methoden wird er noch hinter einer X86-CPU sein, aber Potential hat es schon mal.
 
7H0M45 schrieb:
Andersherum, ist ARM noch wesentlich effizienter wenn es den komplett gleichen Funktionsumfang wie x86 bietet, vor allem auch im Hinblick auf Abwärtskompatibilität?
ARM Befehle sind ein wenig näher an den microOP Befehlen, mit denen moderne CPUs mittlerweile arbeiten.
Dadurch kann man beim Decoder mit weniger Transistoren mehr in die Breite gehen.
Apple hat schon jetzt mehr pipelines und ein deutlich breiteres Out-of-order window eingebaut.

Wie viel X86 gewinnen könnte, wenn man alles vor x86_64 über Bord wirft, kann ich leider nicht einschätzen.

@cbtestarossa So sicher bin ich mir da nicht. Eher wird da aus Kompatibilität und aus Ökosystemsgründen noch lange drauf gesetzt. Da mahlen die Mühlen eh langsam.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: 7H0M45
He4db4nger schrieb:
die frage ist eher, was macht qualcomm eigentlich. die wurden von apple schön vorgeführt, der "neue" 888 is grade mal in reichweite vom apple a13 (aktuell ist a14).. wenn jetzt jeder sein eigenes süppchen kocht und nvidia vll auch noch was zaubert als referenz soc..wirds eher für qualcomm ungemütlich als für intel.
Da Apple keine Chips an andere Hersteller verkauft, sehe ich da kein Problem. Viele wollen kein Apple.
 
Monstranz schrieb:
Mir ging es um die ARM Licence von Xilinx. AMD hat eher an FPGA und Interconnects interesse um im Serverbereich nach zu legen.

AMD hat und hatte auch ohne Xilinx schon ARM Lizenzen.
Die Mobile Sparte ist bei Qualcomm und Broadcom gelandet darum auch immer noch Adreno GPU bei Qualcomm. (Stichwort Imageon und Xilleon)
Und es gab schon ARM basierte Operons.
Jeder Ryzen und Epyc enthält einen ARM Core.
etcpp.

Also für diese Lizenz haben sie Xilinx nicht gebraucht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
7H0M45 schrieb:
Blöde Frage an die Profis, könnte man nicht bei den x86 Prozessoren prinzipiell alten Ballast wegwerfen und darauf scheißen ob eine 30 Jahre alte Software drauf läuft oder nicht, um das ganze effizienter zu gestalten?

Du hast eine Frage vergessen, die davor kommt: hat der Schritt für die Decodierung einen messbaren Nachteil? ;) Die Personen hier, die bei solchen News jedes mal sagen, "x86" wäre tot, liefern niemals belastbare Argumente oder glänzen allgemein mit Sachkenntnis.
Das fängt meist schon damit an, dass sie Begriffe wie Befehlssatz, Architektur, Design durcheinander werfen.
 
  • Gefällt mir
Reaktionen: JohnVescoya, ComputerJunge, pseudopseudonym und eine weitere Person
konnte das Gros der Windows-Nutzer bis dato aber nicht überzeugen
Ist ja auch kein Wunder, bei den Preisen. Ich brauch kein Gerät zum Schick anschauen, sondern mit dem man arbeiten kann und bezahlbar ist.
 
calluna schrieb:
Du hast eine Frage vergessen, die davor kommt: hat der Schritt für die Decodierung einen messbaren Nachteil?
Hat sie einen messbaren Nachteil?
 
Ich fand diesen Artikel hilfreich im Ausdröseln warum x86 in vielen Situationen in einen Performance-Flaschenhals reinläuft (auch trotz micro-ops usw) in denen RISC Lösungen hier nicht ausgebremst werden:
https://medium.com/swlh/what-does-risc-and-cisc-mean-in-2020-7b4d42c9a9de

In vieler Hinsicht sind diese Begrenzungen von x86 der Preis, auch heute noch 30 Jahre alte Software voll kompatibel ausführen zu können.
 
  • Gefällt mir
Reaktionen: Cruentatus und ghecko
Robo32 schrieb:
Bei Servern kann ich mir eine Umstellung recht gut in recht kurzer Zeit vorstellen, bei Clients im privatem Umfeld wird es aber eher keiner von uns erleben da Henne<>Ei Problem und eine Emu nie die native Leistung erreichen wird...

Interessante Vorhersage von dir! Den Home Computer gibt es erst seit 1977 (43 Jahre) und du wagst dich die nächsten 50+ Jahre abschätzen zu können? Gewagt oder komplett unfundiert...

Abgesehen davon zeigt der Apple M1 doch heute schon, dass Emulation in bestimmten Szenarien sogar schneller läuft als nativ auf einem x86-Prozessor (Watt/Performance).

Klar läuft native Software auf dem M1 nochmals schneller, aber das ist ein Argument sich in bestimmten Bereichen noch schneller von x86 wegzubewegen.
 
  • Gefällt mir
Reaktionen: KitKat::new()
Alphanerd schrieb:
Da Apple keine Chips an andere Hersteller verkauft, sehe ich da kein Problem. Viele wollen kein Apple.
wollen schon, kriegen nur keine. wer will nicht das beste, was es im arm mobil Sektor gibt? Qualcomm kann es nicht liefern und wird es auch vorerst nicht liefern können. also genug platz für andere, sich zu profilieren..
 
He4db4nger schrieb:
wollen schon, kriegen nur keine.
Glaub, das bezog sich eher auf Endkunden. Und da wollen einige kein Apple, ich auch nicht.
 
  • Gefällt mir
Reaktionen: KitKat::new()
calluna schrieb:
Du hast eine Frage vergessen, die davor kommt: hat der Schritt für die Decodierung einen messbaren Nachteil?
X86 Decoder sind zwangsweise komplexer (mehr Transistoren) als jene von ARM bzw. RISC Designs. Das x86 Designs in "complex Decoder" und "Decoder" aufgeteilt werden genauso wie es µOp Caches gibt um die Nutzung der Decoder wenn möglich zu vermeiden. Da hat es RISC wirklich leichter.
Messen kann man das kaum ohne halb in der Entwicklung zu stecken.

eastcoast_pete schrieb:
Ich fand diesen Artikel hilfreich im Ausdröseln warum x86 in vielen Situationen in einen Performance-Flaschenhals reinläuft (auch trotz micro-ops usw) in denen RISC Lösungen hier nicht ausgebremst werden:
https://medium.com/swlh/what-does-risc-and-cisc-mean-in-2020-7b4d42c9a9de

In vieler Hinsicht sind diese Begrenzungen von x86 der Preis, auch heute noch 30 Jahre alte Software voll kompatibel ausführen zu können.
Der Artikel gibt viel Historie wieder, und hangelt sich stark am Artikel von Realworldtech entlang, welcher als Quelle genannt wird. Das der realworldtech im Jahre 2000 geschrieben wurde und x86-64 kaum beachtet blendet der Autor von Medium aus. Allerhand der Nachteile des reinen x86 wurden da ja angegangen (in erster Linie, mehr Register)
 
Fritzibox schrieb:
X86 muss absterben. Niemand braucht mehr sowas

Genau, geh sterben x86... #ironie
Ergänzung ()

KitKat::new() schrieb:
Irgendeine fundierte Basis für solche Aussagen?

kanns nur subjektiv bestätigen. Das Surface mit ARM ist sowas von lahm. Solange MS nicht eigenentwickelte Prozessoren anbietet und „nur son bissel“ mitmischen möchte ohne massiv In die Anpassung zu investieren, fehlt auch der Druck Windows zügig anzupassen. Apple macht da aus meiner Sicht derzeit alles richtig. Unter Umständen haben die im CPU Bereich bald einen unaufholbaren Vorsprung.
 
Zuletzt bearbeitet:
konkretor schrieb:
Wir leben halt aktuell in einer 20 Jahre alten x86 Blase.
Intel hatte ja bereits versucht, da auszubrechen, ist aber ebenfalls gescheitert
 
  • Gefällt mir
Reaktionen: konkretor und 7H0M45
Da Nvidia die Arm Lizens inne haben wird, werden die Preise sicherlich nicht so bleiben. Die Frage ist jedoch, wie lange es noch dauern wird, bis Arm die X86 Tech überholt hat. Da habe ich ein mulmiges Gefühl.

Gruß Andy
 
Schon ne interessante Sache aber ich glaube kaum das da aufm normalen Verbrauchermarkt groß was passieren wird die nächsten 10 Jahre und wenn dann auch nur Stück für Stück.
Wie bei Apple quasi auf einen schlag klappt das nicht aufm großen offenen Markt möcht ich mal meinen
 
He4db4nger schrieb:
wollen schon, kriegen nur keine. wer will nicht das beste, was es im arm mobil Sektor gibt? Qualcomm kann es nicht liefern und wird es auch vorerst nicht liefern können. also genug platz für andere, sich zu profilieren..

Irrtum. Apple kann nicht liefern, weil man sonst ein Alleinstellungsmerkmal weniger hätte.

Der Snapdragon wird nicht bei TSMC gefertigt, und muss nur so stark sein, dass die Kunden nicht abspringen. Wenn Samsung der Durchbruch bei GAA eher gelingt als TSMC, dann könnte die Leistungskrone ganz schnell den Besitzer wechseln.
 
  • Gefällt mir
Reaktionen: Monstranz
7H0M45 schrieb:
Blöde Frage an die Profis, könnte man nicht bei den x86 Prozessoren prinzipiell alten Ballast wegwerfen und darauf scheißen ob eine 30 Jahre alte Software drauf läuft oder nicht, um das ganze effizienter zu gestalten?

Andersherum, ist ARM noch wesentlich effizienter wenn es den komplett gleichen Funktionsumfang wie x86 bietet, vor allem auch im Hinblick auf Abwärtskompatibilität?
Ich versuche mal - als Nicht-Profi, aber interessierter Laie - eine Erklärung anhand des Apple M1 Prozessors, warum der (ARM-)RISC-Ansatz der sinnvolle(re) Weg für den Umgang mit der immer größer werden Zahl zur Verfügung stehender Transistoren im CPU-Design sein könnte:

Die "interne Parallelität" (Superskalarität) der ultra-wide execution architecture des Apple M1 Prozessor ist doppelt so groß wie bei x64 (8-fach vs. 4-fach), doppelt so viele Pipelines können also mit Befehlen gefüttert werden. Das kann aber nur dann sinnvoll geschehen, wenn die Maschinenbefehle zuvor unter Berücksichtigung etwaiger Abhängigkeiten neu sortiert wurden (out-of-order execution: Ausführung der Maschinenbefehle in anderer Reihenfolge als im Programmcode) und Maschinenbefehle auch schon mal "auf gut Glück" ausgeführt werden (speculative execution - wird das Ergebnis der Ausführung nicht benötigt, dann bekommt man die misspeculation penalty in Form eines höheren Stromverbrauchs). Dazu benötigt der M1 sehr komplexe Dispatch/Reorder-Units. Zusammen bescheren ihm die 8-fache Superskalarität und diese komplexen Dispatch/Reorder-Units den ca. 4-fach höheren Maschinenbefehl-Durchsatz im Vergleich zu x64, wobei die einzelnen Maschinenbefehle allerdings weniger mächtig sind.

x64 bleibt dieser Design-Pfad verwehrt - zumindest in einer so konsequenten Umsetzung wie beim M1 (und im kommenden Jahr beim Power10-RISC-Prozessor von IBM - ebenfalls 8-fach superskalar), weil x64 als CISC mit variable length instructions (1-15 Bytes bei x64) arbeitet im Gegensatz zum RISC (fixed length instructions - 4 Bytes bei ARM), womit der Aufwand für die Erhöhung der super-scalarity und gleichzeitig der out-of-order & speculative execution extrem anwachsen würde im Vergleich zum RISC. Obendrein müsste dieser Aufwand auch für alle zwar mächtigen, aber selten(er) benötigen Maschinenbefehle des CISC betrieben werden, während sich der RISC auf wenige, aber häufiger verwendete Maschinenbefehle konzentriert und komplexere Funktionen aus diesen zusammenbaut.

Man kann es also auch so ausdrücken: Der RISC nutzt das zur Verfügung stehende Transistor-Budget eines Chip-Designs besser als der CISC. Dass der RISC letztendlich dominieren wird, ist den Experten schon seit den 80er Jahren des letzten Jahrhunderts klar. Aber erst die Revolution des mobilen Internets hat letztendlich die entscheidende Wende gebracht. Solange konnte man sich im x86/x64-Lager noch mit dem Vorteil der Abwärtskompatibilität, starker Verbreitung und schweren, voluminösen Endgeräten - mit ebensolcher Kühlung - behaupten.

… und mit RISC-V steht jetzt sogar eine freie Alternative zur Verfügung. Ich hoffe, dort schaut man sich bei Apple etwas ab.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor und JohnVescoya
Zurück
Oben