News Für Server und Surface: Auch Microsoft entwickelt eigene CPUs auf ARM-Basis

@lanse
Ich schrieb ja extra, dass breite, superskalare Designs von ähnlichen Bedingungen profitieren, die auch für SIMD dankbare Ziele sind. Die "Spezialfälle" betreffen also tendenziell beide Ansätze und sind gar nicht so selten. Genauso wie beide Ansätze bei Code der häufig verzweigt tendenziell nicht funktionieren. Lustigerweise sind Probleme, die sich derart abbilden lassen auch recht gut geeignet um sie aufzuteilen und auf verschiedene CPU Cores zu verteilen bzw. auf GPUs[2].
Das AVX relativ selten genutzt wird, es macht Arbeit! Zum einen braucht es Leute die Code schreiben der sich automatisch vektorisieren[1] lässt oder aber direkt Assembler. Zudem muss man verschiedene Codepfade vorsehen, da die CPUs in freier Wildbahn ja zig Abstufungen bei den Featuresets hat. Der Aufwand lohnt oft nicht. Da muss ich zugeben haben superskalare Designs im Zweifelsfall einen Vorteil, da braucht es nur einen Codepfad und die CPU muss sich über große Reorderbuffer und eskalierendes Registerrenaming die Optimierungen vornehmen.[3]

Nicht zuletzt, reale Software hat oft eine erschreckend schlechte Qualität. Beim Wechsel vom OpenSource liebenden Studenten in die kommerzielle Welt hat es mir die Schuhe ausgezogen was für Müll für viel Geld verkauft wird. Da können Compiler und dicke Reorderfenster auch nichts mehr ausrichten..

Linus' Rants sollte man mit Vorsicht genießen :)
Im Linux Kernel selbst ist Kompression, Verschlüsselung, Prüfsummen- und Paritätsberechnung mit von Hand geklöppelten SIMD Befehlen enthalten. Es wären so Einige wahrscheinlich leicht "verschnupft" wenn das fehlen würde. Wobei er auch Recht hat. Intels Bugs waren nervig und es wird allerhand Schindluder getrieben.


[1] Das wäre dann auch Code, der sich gut aus viele Pipelines verteilen lässt und/oder aber genauso von ARM Neon/SVE profitieren kann.
[2] Wobei gerade GPUs so ein Ding sind. OpenCL ist ja nach Plattform und Implementierung ein Abenteuer, CUDA von Nvidia abhängig. Zudem kostet das Offloading zur GPU Zeit und in vielen Fällen hätte es die CPU in der Zeit auch selbst geschafft :/
[3] Jeder der mal kollisionsfreie Abhängigkeitsbäume implementieren musste weiß, dass das nicht ganz simpel ist. Da wird Apple auch allerhand Transistoren benötigen damit das so gut klappt wie mit dem M1.
 
  • Gefällt mir
Reaktionen: calluna und lanse
Blade_user schrieb:
Das würde auch unter ARM funktionieren, natürlich nicht nativ
Wie gut Gaming NON-Nativ geht sieht man ja unter Linux. Die meisten Online Games bannen einen direkt und es gibt Probleme mit Anti-Cheat Müllsoftware.
 
@Cl4whammer!
Wine bzw Proton nutzen nachgebaute Windows APIs/Bibliotheken aber keine Emulation der ISA. Dazu würde man Qemu nutzen und das ist mitunter Arsch langsam
 
lanse schrieb:
Eigentlich schade, dass Microsoft (noch) nicht so richtig - abgesehen von der Mitgliedschaft in der RISC-V Foundation - auf den Zug aufgesprungen ist. Kann ja noch kommen: ARM als "Brückentechnologie", bis Nvidia die Folterinstrumente zeigt. Mit gut durchdachten Compilern sollte das leicht möglich sein. Die Abstraktionen von ARM, MIPS und RISC-V dürften sich nicht so sehr unterscheiden.
Da wird sicher auch mal vorsichtig abgewartet ob der Kauf von nv "akzeptiert" wird.
Da haben noch ein paar ganz gewichtige Leute merklich was dagegen, das wird hier immer wieder vergessen...
 
Fritzibox schrieb:
X86 muss absterben. Niemand braucht mehr sowas

Naja momentan gibt es noch viele Bereiche wo man nicht einfach von X86 auf ARM umsteigen kann. (von Heute auf Morgen)
In 5-10 Jahren könnte deine Aussage stimmen, je nachdem wie gewillt die Unternehmen sind und wie sich X86 und ARM weiterentwickeln. (bzw. die Produkte die auf die jeweilige Technologie setzen)
 
chartmix schrieb:
Und dann soll x86 sterben und ARM/RISC übernehmen? Gewagt, gewagt.
Versuche mal auf einem Apple M1, Microsoft Arm oder Androidtelefon ein anderes Betriebssystem zu installieren. Viel Spaß.
Ergänzung ()

@Jan Artikel zum Thema RISC-V wären mal was feines.
Mein Thread dazu: https://www.computerbase.de/forum/threads/themenwunsch-risc-v.1976338/
Junge, das ist ja genau der springende Punkt.
Der PC entfernt sich immer weiter von der offen Plattform, welche er einst war.
Das BIOS war Dreh- und Angelpunkt und machte portable Systeme erst möglich.
Ursprünglich war das BIOS der HAL Part von CP/M.
Ohne BIOS/CSM "lebt" die Plattform nicht mehr.
UEFI bribgt mehr Hürden mit, als es wert ist.
Die ganze Zertifikate-Geschichte verhindert, dass beliebige Betriebssysteme laufen.

Und die X86-Prozessoren?
Früher waren CPUs general-purpose und kamen in PCs, Servern und Embedded Systemen vor. Nicht alle davon waren WinTel kompatibel.
Heutzutage werden Prozessoren für Betriebssysteme kompatibel gemacht bzw. unterstützen ganz "offiziell" nur eine handvoll Systeme.
Wie z.B. Intel Skylake, welches nur schwer mit Windows 7 läuft, da es von MS/Intel nicht erwünscht ist.
Früher ging es nur um fehlende Chipsatztreiber.
Neue CPUs ansich waren immer mehr oder weniger abwärtskompatibel und somit zukunftssicher. Eine der großen Stärken von x86.
Man konnte sich darauf verlassen, dass das Grundgerüst auch in 5,10,15 Jahren noch funktionierte. Und genau das ändert sich jetzt.
 
Aber dann verstehe ich nicht, dass man sich eine Zukunft mit Arm auf dem PC wünscht.
Genau die mangelene Offenheit habe ich ja angeprangert.
Wenns bei x86 ganz ok läuft und (vielleicht) nervige Sachen bevorstehen, wieso will man das noch geschlossenere Arm?
Irgendwie ist das für mich nicht verständlich und widerspricht meiner Ansicht was für Linux gut/besser wäre.
 
Warum assoziierst du (und andere) ARM mit einer geschlossenen Plattform? Nur weil Apple das so macht? Das war auch zuvor schon so, mit x86-Hardware.

ARM kann genau so offen, und wenn man möchte noch offener als Plattform dastehen wie gegenwärtige UEFI-Systeme unter x86.
 
ghecko schrieb:
Warum assoziierst du (und andere) ARM mit einer geschlossenen Plattform? Nur weil Apple das so macht? Das war auch zuvor schon so, mit x86-Hardware.
Wie groß sind denn die Chancen, dass es mit ARM ähnliches wie bei x86 geben wird?
 
Die Chancen das gesockelte Systeme und der Consumermarkt in nächster Zeit aussterben halte ich für gering.
Und dort ist eine Plattform, die harte Vendorlocks enthält nicht umsetzbar ohne einen absoluten Shitstorm heraufzubeschwören. Server mit Vendorlocks sind noch abwegiger, hier dreht sich ohnehin alles um Linux.
Und da die Firmen gegenüber Open Source immer aufgeschlossener sind, werden die einen Teufel tun und einzelne Systeme ausschließen. Intel und AMD stecken viel Arbeit in den Linuxkernel, sollten die also rein spekulativ in Zukunft ARM-Prozessoren bauen gäbe es nach wie vor Day-X Support unter Linux für alles was auf den Markt kommt. Windows ebenfalls, wenn Microsoft denn möchte.

Was Apple und Microsoft mit ihren Prestigegeräten machen muss nicht maßgebend für den ganzen Markt gelten. Wenn die das Betriebssystem mit der Hardware verlöten wollen, wie sie es schon beim RAM und Prozessor machen, bitte. Aber nichts spricht dafür, dass das in Zukunft bei Laptops und PC im allgemeinen Schule macht.
joshy337 schrieb:
Neue CPUs ansich waren immer mehr oder weniger abwärtskompatibel und somit zukunftssicher. Eine der großen Stärken von x86.
Man konnte sich darauf verlassen, dass das Grundgerüst auch in 5,10,15 Jahren noch funktionierte.
Das ganze Softwaregedöns von Windows XP und 7 ist doch schon mit Win10 inkompatibel, trotz x86.
Da braucht es gar keinen Architekturwechsel, das schafft MS auch auf Softwareebene.
 
Zuletzt bearbeitet:
Zurück
Oben