News Für Server und Surface: Auch Microsoft entwickelt eigene CPUs auf ARM-Basis

Makso schrieb:
Aber ich würde lachen wenn AMD Qualcomm kauft und ein mix draus macht.
Mit Qualcomm würde AMD aber auch die ganzen Rechtstreite mit Apple mitkaufen was denke ich eher semigut für AMD wäre. Und rein anhand nackter Finanzzahlen und Größe der Unternehmen würde Qualcomm noch eher AMD schlucken ;)
 
  • Gefällt mir
Reaktionen: Blade_user
He4db4nger schrieb:
wollen schon, kriegen nur keine. wer will nicht das beste, was es im arm mobil Sektor gibt?
Ich meinte den Endkunden. Klar würden die anderen Hersteller Apples SoCs mit Freude nehmen.
 
v_ossi schrieb:
Sicherlich nicht ausschließlich, aber eine Teilschuld kann man da bestimmt ausmachen. Zwischen ~2012 und ~2018 waren das ja wirklich homöopathische Verbesserungen, die Intel teils zu Apothekerpreisen verkauft hat.
Der "Hochmut" kommt bekanntlich vor dem "Fall".

Ich bin weder Prozessor noch Intel-Experte. Aber auch rein aus Konsumentensicht war der von Dir angesprochene jahrelang andauernde Minimalstfortschritt wohl kalkuliert. Ich dachte halt - wie so viele andere auch - dass in der berühmten Schublade ausentwickelte Konzepte lägen.
Hier zeigt sich wieder mal exemplarisch, dass die Manövrierfähigkeit von Supertankern Kapitäne mit herausragender Fähigkeit zur Weitsicht erfordert.

Fritzibox schrieb:
X86 muss absterben. Niemand braucht mehr sowas
Doch, ich "brauche" das - und das wird vermutlich noch eine ganze Weile so bleiben.
 
andi_sco schrieb:
Intel hatte ja bereits versucht, da auszubrechen, ist aber ebenfalls gescheitert
Sie wollten eigentlich den Schritt mit IA-64 machen, was sie mit dem Itanium vorbereitet haben. Haben aber dann wohl zu lange gewartet und AMD haben die 64 in die x86 eingepflegt. Ob das nun Fluch (man behielt Altlasten), oder Segen (man war noch lange Abwärtskompatibel) soll jeder für sich entscheiden. Als schlecht Empfand ich es aber letztlich nicht.

daknoll schrieb:
Wer ist dieser niemand.
Kennst du den?
das ist der Bruder von "keiner" ;)

Zur News allgemein. Also ich bin da wirklich Laie, aber wie ich es immer verstanden habe, ist RISC im Speziellen schneller, aber nicht so Flexibel, während CISC eher der Allrounder ist.

Demnach schaffen die Anbieter (ich nenne hier jetzt mal Apple, Google, Microsoft), Insellösungen. Entsprechend sehr große Insel, wo es dann kaum noch auffällt, das sie für sich selbst sind.

Und ob nun x86 verschwindet? Vielleicht. Aber ich glaube, dass wird dann doch in einer Zukunft liegen, wo es für den User kaum eine Rolle spielt. Da hat jeder nur noch seine Empfangsgeräte und die eigentliche Rechenpower für Spiele, oder Videobearbeitung mietet man sich von irgendeinem Rechenzentrum, welches für die Gewünschte Software extra ausgelegt wurde.
 
CCIBS schrieb:
Zur News allgemein. Also ich bin da wirklich Laie, aber wie ich es immer verstanden habe, ist RISC im Speziellen schneller, aber nicht so Flexibel, während CISC eher der Allrounder ist.
Es ist genau andersherum: Der RISC kann weniger, was er tut, tut er aber effizienter.
Ein RISC-Design ist häufig - gerade wegen der Flexibilität und Einfachheit - die Basis für Cores im Bereich Domain-Specific Computing (also spezielle Aufgaben) wie Shader, Tensor und RT Cores, DSPs, …
Das muss man aber auseinanderhalten. Vom Prinzip her ist der RISC eher der Generalist, der CISC eher der Spezialist.
 
So schnell würde ich Intel nicht abschreiben. Anfang nächsten Jahres kommt doch so ein Intel Y Prozessor, der verschiedenen Kerne hat. Also wie beim Arm mehrere stromsparende und dann Performance Kerne. Mal sehen was damit so in mobilen Geräten möglich ist. Dann wird auch Intel irgendwann kleiner Fertigen und Stromsparender Prozessoren anbieten. Zu guter Letzt gibt es noch AMD, welche gerade im Server Segment zulegen. ARM wird im Server immer häufiger eingesetzt und auch Amazon hat eigene Arm Prozessoren, trotzdem bleibt Intel stark, der Markt ist eben riesig.


Man darf auch nicht vergessen, jeder kennt Intel uns es wird noch lange in den Köpfen bleiben, dass ein i5 schneller ist als ein i3 und ein i7 eben super, duper ist. Selbst Aldi macht damit Werbung und Intel hat das Namensschema nun 13/14 Jahre?
 
lanse schrieb:
Es ist genau andersherum: Der RISC kann weniger, was er tut, tut er aber effizienter.
Ein RISC-Design ist häufig - gerade wegen der Flexibilität und Einfachheit - die Basis für Cores im Bereich Domain-Specific Computing (also spezielle Aufgaben) wie Shader, Tensor und RT Cores, DSPs, …
Das muss man aber auseinanderhalten. Vom Prinzip her ist der RISC eher der Generalist, der CISC eher der Spezialist.
Danke! Wobei bei Gedanke im Kern richtig war, "Der RISC kann weniger, was er tut, tut er aber effizienter." nur die Wie es dazu kommt, habe ich dann wohl falsch verstanden.

Also ich habe es jetzt so verstanden. Der RISC ist wie eine Stammzelle. Sie kann alles sein. Aber sobald sie dann mal ein Arm ist, ist sie ein Arm und kann kein Bein mehr sein.
 
lanse schrieb:
Die "interne Parallelität" (Superskalarität) der ultra-wide execution architecture des Apple M1 Prozessor ist doppelt so groß wie bei x64 (8-fach vs. 4-fach), doppelt so viele Pipelines können also mit Befehlen gefüttert werden. Das kann aber nur dann sinnvoll geschehen...

Es gibt x64 Architekturen mit 2, 3, 4, 5, 6-fach (und es spricht im Prinzip auch nichts gegen mehr) Superskalarität - genau deswegen ist es wichtig x64 nicht für "eine" Architektur zu halten.

Und mehr ist hier nicht automatisch besser... das ist eine Frage von Aufwand und Nutzen, die Anzahl der "Stages" pro Pipeline spielt ebenso eine Rolle wie die Verwendung von SIMD etc. (Und die Parallelität ist nicht für jeden "Stage" zwangsweise dieselbe.)

Jedenfalls ist es nicht so einfach, als das man hier die Vor- und Nachteile in einfache Sätze gießen könnte.
 
  • Gefällt mir
Reaktionen: Piktogramm
LamaMitHut schrieb:
Irrtum. Apple kann nicht liefern, weil man sonst ein Alleinstellungsmerkmal weniger hätte.

apple hat auch überhaupt kein interesse, zu liefern. darum ging es aber auch gar nicht, es ging darum, dass wohl "niemand" apple will. auch wenn sich das wohl eher auf endkunden bezog, würden die anderen schnarchnasen im android sektor sicherlich gerne die apple socs kaufen. geht aber nicht, also müssen sie hoffen, dass qualcomm oder eben jemand anderes vernünftige socs liefern kann.

ob das samsung is, nvidia, qualcomm oder sonstwer, mir schnuppe. konkurrenz belebt das geschäft und ist für alle von vorteil. es ist nie gut, wenn sich ein hersteller auf seinen lorbeeren ausruhen kann, von daher kann man nur hoffen, dass samsung da ein durchbruch gelingt und apple feuer macht. wobei ich mir nur schwerlich vorstellen kann, dass das jetzt auf anhieb in der gleichen leistungsklasse spielt, aber wäre positiv.
 
Fritzibox schrieb:
X86 muss absterben. Niemand braucht mehr sowas
Nachdem Intel verkündete, dass das BIOS und CSM wegfallen sollen, stimme ich zu.
Durch diesen Schritt verliert x86 seine Wurzeln und die Abwärtskompatibelität steht auf der Kippe.
Kein DOS mehr, kein Win98/XP, etc.
Es ist nurnoch eine Frage der Zeit, bis dann auch Real-Mode, 32-Bit Protected-Mode wegfallen.
Klar, man kann VMs nutzen. Due helfen aber nicht, wenn man alte x86-Hardware direkt ansteuern möchte.
Also ISA/PCI/PCIe/PCI-X-Karten aus der Mess-, Regel und Steuertechnik.
Ergänzung ()

SavageSkull schrieb:
Auf einmal scheint es ganz schnell zu gehen. Bin gespannt wann der x86 zum Retro PC wird.
Naja, für mich ist das klassische x86 (808x-486) schon seit den 90ern retro bzw. vintage. 😁

Vom Gefühl her gönne ich RISC-V aber mehr Erfolg.
Solange Firmen wie Nvidia, Creative, Intel etc das Sagen haben, sieht's mit dem Karma in der IT nicht gerade rosig raus, finde ich.
 
Zuletzt bearbeitet:
Leute, es gibt nicht den einen Befehlsatz/CPU/Design ect.
Das gibt es in der Informatik nicht!
Es kommt immer drarauf an für was es genutzt werden soll. Klar ist ARM super für bestimmte Anwendungsfälle. Bei 1+1 ist jeder x86 jedem ARM überlegen. Anders sieht es aus wenn nur ein sehr begrenzter Anwendungsbereich abgedeckt werden muss wie zb. NAS/Storage Systeme. Da dürfte ein ARM der dafür optimiert ist jedem x86 in diesem Bereich überlegen sein. Es kommt halt immer darauf an.
 
CCIBS schrieb:
Also ich habe es jetzt so verstanden. Der RISC ist wie eine Stammzelle. Sie kann alles sein. Aber sobald sie dann mal ein Arm ist, ist sie ein Arm und kann kein Bein mehr sein.
Ja, ein passendes Bild, das Du da benutzt.
Systematisiert und auf die Spitze getrieben wurde das bei RISC-V: Da kann man - quasi wie bei einem Baukastensystem - einen maßgeschneiderten Prozessor-Befehlssatz (keinen Chip) aus der Basis ("Base Integer" ohne Multiplikation/Division) und Standard- oder eigenen Extensions zusammenstellen und das Chip-Design dafür optimieren. Dieselbe ISA-Basis sorgt auch dafür, dass man die Compiler lediglich erweitern muss.
Das nutzen die, denen selbst ARM zu komplex und/oder teuer (wegen der Lizenzgebühren) ist … oder die (demnächst) nicht Nvidia ausgeliefert sein wollen.
In Embedded-Lösungen - z. B. in SSD-Controllern von Western Digital und für bestimmte Aufgaben in Nvidia-GPUs - wird über kurz oder lang jeder mit RISC-V in Berührung kommen.
Ein massentaugliches RISC-V-SoC mit wenigstens Raspi-Performance wird aber noch ca. zwei Jahre auf sich warten lassen.

Eigentlich schade, dass Microsoft (noch) nicht so richtig - abgesehen von der Mitgliedschaft in der RISC-V Foundation - auf den Zug aufgesprungen ist. Kann ja noch kommen: ARM als "Brückentechnologie", bis Nvidia die Folterinstrumente zeigt. Mit gut durchdachten Compilern sollte das leicht möglich sein. Die Abstraktionen von ARM, MIPS und RISC-V dürften sich nicht so sehr unterscheiden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chartmix und CCIBS
Xood schrieb:
So wie ich das sehe, hast du gleich zwei falsche Fakten genannt;

1. Microsoft hatte bereits vor dem ersten iPhone Geräte und Software unter ARM laufen. Dementsprechend wüsste ich nicht das Apple sich "schon viel länger mit ARM-CPUs" beschäftigt.

2. Microsoft mobile Sparte lief auch unter ARM, darunter z.B. Windows CE, Windows Phone 7, 8, was dann widerlegen müsste das Microsoft unwillig war sich mit ARM zu beschäftigen.
Nein du liegst falsch
Apple war von Anfang an dabei und Mitbegründer als es von Acorn ausgelagert wurde.
 
Makso schrieb:
Genau das denke ich auch. Aber ich würde lachen wenn AMD Qualcomm kauft und ein mix draus macht.
Hatte AMD nicht mal ein Prototypen gemacht für AWS? Also ein Opteron x86 & ARM mix?
Aber in großen und ganzen sieht man was AMD verursacht hat. Jahrelang hinterher, dann vor Intel.
Der Markt ändert sich langsam aber sicher. Wird spannend.
 
joshy337 schrieb:
Nachdem Intel verkündete, dass das BIOS und CSM wegfallen sollen, stimme ich zu.
Durch diesen Schritt verliert x86 seine Wurzeln und die Abwärtskompatibelität steht auf der Kippe.
Kein DOS mehr, kein Win98/XP, etc.
Und dann soll x86 sterben und ARM/RISC übernehmen? Gewagt, gewagt.
Versuche mal auf einem Apple M1, Microsoft Arm oder Androidtelefon ein anderes Betriebssystem zu installieren. Viel Spaß.
Ergänzung ()

@Jan Artikel zum Thema RISC-V wären mal was feines.
Mein Thread dazu: https://www.computerbase.de/forum/threads/themenwunsch-risc-v.1976338/
 
Zuletzt bearbeitet:
lanse schrieb:
Die "interne Parallelität" (Superskalarität) der ultra-wide execution architecture des Apple M1 Prozessor ist doppelt so groß wie bei x64 (8-fach vs. 4-fach), doppelt so viele Pipelines können also mit Befehlen gefüttert werden. Das kann aber nur dann sinnvoll geschehen, wenn die Maschinenbefehle zuvor unter Berücksichtigung etwaiger Abhängigkeiten neu sortiert wurden (out-of-order execution:
Um mehrere Pipelines zu füllen braucht es kein OoO. ARMs A55 nutzt 2 Pipelines und is in-Order. Wie sinnvoll OoO zur Auslastung mehrer Pipelines beiträgt ist u.a. davon abhänig was für ein problem gelöst werden soll und wie sinnvoll da Compiler Vorarbeit leisten können.


Dazu benötigt der M1 sehr komplexe Dispatch/Reorder-Units. Zusammen bescheren ihm die 8-fache Superskalarität und diese komplexen Dispatch/Reorder-Units den ca. 4-fach höheren Maschinenbefehl-Durchsatz im Vergleich zu x64, wobei die einzelnen Maschinenbefehle allerdings weniger mächtig sind.
Auch hier kommt es vorrangig darauf an welche Probleme bzw. welche Algorithmen genutzt werden. Superskalarität nutzt ja vor allem etwas, wenn die einzelnen Befehle unabhänig voneinander sind und möglichst wenig Branches enthalten sind. Normalerweise sind das dann Dinge, die in halbwegs kompakten Schleifen laufen.


x64 bleibt dieser Design-Pfad verwehrt - zumindest in einer so konsequenten Umsetzung wie beim M1 (und im kommenden Jahr beim Power10-RISC-Prozessor von IBM - ebenfalls 8-fach superskalar), weil x64 als CISC mit variable length instructions (1-15 Bytes bei x64) arbeitet im Gegensatz zum RISC (fixed length instructions - 4 Bytes bei ARM), womit der Aufwand für die Erhöhung der super-scalarity und gleichzeitig der out-of-order & speculative execution extrem anwachsen würde im Vergleich zum RISC.
Acht x86 "complex Decoder" in eine CPU zu packen ist wahrlich etwas arg viel. Weswegen ja auch sowas wie unterschiedlich komplexe Decoder als auch µOp-Caches entwickelt worden. Gerade die Caches sind bei besagten, kompakten Schleifen recht praktisch. Denn eben jene Schleifen passen tendenziell komplett in den Cache. Der CISC Nachteil der komplexeren (langsameren) Decoderstufen wird da ganz gut kompensiert.

Zudem, Superskalarität in allen Ehren, aber für kompakte Schleifen mit vielen unabhänigen Operationen kann man oftmals auch Vektoroperationen (SIMD) nutzen. Ob da nun n=8 Pipelines a[n] = a[n] + b[n] rechnen oder eine Pipelines auf einen Schlag A[n; n+1; n+2; ...;n+8] = A[n; n+1; n+2; ...;n+8] + B[n; n+1; n+2; ...;n+8] macht kaum einen Unterschied. Stand derzeit ist, dass frei kaufbare X86 CPUs eben jene Vektorrechnungen mit 4-facher Breite schaffen im Vergleich zu frei verkäuflichen ARM-Systemen.



Obendrein müsste dieser Aufwand auch für alle zwar mächtigen, aber selten(er) benötigen Maschinenbefehle des CISC betrieben werden, während sich der RISC auf wenige, aber häufiger verwendete Maschinenbefehle konzentriert und komplexere Funktionen aus diesen zusammenbaut.
Du solltest dir die ARM Spec mal anschauen. Das ist je nach Generation und Featurelevel mittlerweile auch eine umfangreiche Angelegenheit (wenn auch deutlich weniger als bei x86). Vor allem ist ARM nicht mehr mit einer fixen Instruktionslänge gesegnet (Thumbs und Java Extension).

Man kann es also auch so ausdrücken: Der RISC nutzt das zur Verfügung stehende Transistor-Budget eines Chip-Designs besser als der CISC. Dass der RISC letztendlich dominieren wird, ist den Experten schon seit den 80er Jahren des letzten Jahrhunderts klar. Aber erst die Revolution des mobilen Internets hat letztendlich die entscheidende Wende gebracht. Solange konnte man sich im x86/x64-Lager noch mit dem Vorteil der Abwärtskompatibilität, starker Verbreitung und schweren, voluminösen Endgeräten - mit ebensolcher Kühlung - behaupten.
Und weil RISC so derart überlegen ist, sind Power, SPARC, MIPS, PA-RSIC, AVR32, Alpha praktisch vorm Markt verschwunden :D

Oder hat es vielleicht doch eher etwas damit zu tun, dass dass marktwirtschaftliche Konsolidierung zuschlägt und sich vor allem (finanz-)starke Firmen durchsetzen, die jeweils unabhängig von der zugrundeliegenden Architektur jeweils gute Produkte abliefern? Mit wechselnden Kräfteverhältnissen.
 
  • Gefällt mir
Reaktionen: calluna
Das mag in einem Technik Forum blöd klingen, aber ich steig leider nicht durch, was das ganze mit den Architekturen angeht.

Also was macht das den Unterschied, wieso usw. Hat da jemand einen guten Link, der es "für Dumme" erklärt?
 
  • Gefällt mir
Reaktionen: 7H0M45
@Piktogramm

Man kann immer einen Spezialfall "konstruieren", der sich z. B. mit SIMD-Operationen gut erschlagen lässt, über dessen Relevanz man dann aber auch vortrefflich streiten könnte.
Wenn AVX so wirkungsvoll ist, warum wird es dann so selten / nur in Spezialfällen genutzt?
Gerade zu SIMD gibt es deshalb ja auch sehr ablehnende Haltungen, wie die von Linus Torvalds ("because people ended up using it for memcpy!"), der obendrein als VLIW-Befürworter am liebsten sämtliches Instruction Reordering vom Compiler erledigen lassen würde, und dem deshalb vermutlich schon das M1-ARM-Design zu komplex ist.

Beim Punkt "marktwirtschaftliche Konsolidierung" pflichte ich Dir bei, aber die greift ja inzwischen - dank mobilem Internet - auch bei ARM.
 
Zurück
Oben