News Snapdragon X Elite mit Oryon-CPU: Dieser Chip soll Apple und Intel das Leben schwer machen

Es ist immer wieder schön zu sehen wie einige Foren User Ihre Lager verteidigen, als würden Sie eine Gewinnbeteiligung erhalten. :D Zuletzt noch bei Nvidia und AMD, heute Apple und Qualcomm.

Freut Euch über den Wettbewerb!
 
  • Gefällt mir
Reaktionen: Seven2758 und mrhanky01
FX-Multimedia schrieb:
@ghecko
Aber nicht dauerhaft, wenn die TDP Grenze nach dem Turbo (Short) packt ist der 920er vorn.
Beim N100 packt die TDP Grenze sofort. Eine short Power TDP hat der gar nicht.
Das ist den größeren Modellen vorbehalten.
 
cha0shacker schrieb:
Die PSP war wie die PS2 MIPS, nicht ARM. Nur die PSVita ist ARM wenns um Sony Geräte geht.
Tatsache, man hat mittlerweile bei Mobil Automatisch Arm im Sinn und vergisst das es auch andere gab.
MIPS ist ja mittlerweile auch quasi verschwunden, lag doch zu letzt bei nem Chinesen oder so.
 
Nein, ich wollte nichts schreiben, nein, ich wollte mich zurückhalten. Verdammt, ich schaffe es aber nicht.
incurable schrieb:
mit dem Potential eines Befehlssatzes zu tun?
Das Problem hier ist immer noch, dass viele ISA mit der Hardware-Architektur verwechseln und das eine mit dem anderen entweder gleichsetzen oder auf der anderen Seite zu stark trennen.

Die ISA gibt den Rahmen vor und bestimmte gewisse Parameter einer Architektur und hier liegt auch das Kernproblem von x86, an dem Intel und AMD aber seit Jahren durch ihre "Erweiterungen" arbeiten. x86 entstand in den 70er, damals waren Transistoren teuer und damit auch der Speicherplatz, also wurde versucht - auf das Register-Set bezogen - eine möglichst schlanke Architektur zu bauen, die nur die notwendigen Register besitzt. x86 hatte 8 Register und die meisten waren entsprechend sogar belegt und für bestimmte Aufgaben vorgesehen.

In den 80er und 90er wurden Transistoren billiger, also konnte man bei den Registern aus den vollen Schöpfen. Und genau diese "Registerarmut" ist bis heute ein Problem für x86 und auch ein Grund, warum man sich schwerer tut "effiziente" Kerne zu bauen, als mit Arm. AMD hat mit x86_64 nicht umsonst die Register auf 16 aufgestockt und Intel bei AVX512 später die FP-Register auf 32. Weniger Speicherzugriffe, weil der Compiler länger mit den Registern arbeiten kann, bevor man hinaus muss. - Und wehe, es kommt jetzt einer, der meint mit Register-Renaming, Register-Remapping und Shadow-Register kann man das ja alles bereits "umgehen". NEIN, einfach nur NEIN!

Intel will jetzt mit AVX10 nicht umsonst die 32 Register des AVX512 quasi für 128 Bit und 256 Bit "SIMD" verfügbar machen und sie wollen auch nicht umsonst selbst im "Int"-Teil von 16 auf 32 Register gehen in der ISA.

Das macht vieles für die Hardwareentwickler einfacher, weil man einfacheres Prefetching umsetzten kann, die Load/Store-Infrastruktur entlastet und es damit auch einfacher wird "breite" Kerne effektiv auszulasten. Klar, man wird L1 und auch die L2-Caches noch mal anpassen müssen, aber die Kontrolllogik bis zum RAM wird einfacher.
homer0815 schrieb:
Das wird seit Jahren schon um RISC Funktionen und Pipelines ergänzt.
Es ist heute vollkommen unerheblich ob die ISA RISC oder CISC ist, heutige Prozessoren werden ohnehin nicht mehr wirklich im Assembler programmiert. Dazu kommt, dass jede moderne µ-Arch ohnehin mit µ-Codes arbeitet und die ISA durch den Decoder gejagt wird.
SVΞN schrieb:
Ich sehe da auch gar kein Problem drin. Nur Nostalgiker klammern sich an x86, aber da ist so ziemlich die Luft raus.
Und das kannst du auch entsprechend fachlich begründen, oder ist das einfach nur dein Empfinden?

Intel hat mit AVX10 sowie APX hier bereits zu Teilen die richtigen Erweiterungen in Petto, die einige der Limitierungen und Problemen der x86-ISA weitgehend "ausmerzen". Klar, wichtig ist hier für Intel, dass auch AMD zeitnah mitzieht, doch die Hauptlimitierungen der ISA werden damit angegangen.

Weitere Probleme kann Intel in Angriff nehmen und so wie es aussieht wird auch der "Boot-Modus" der CPU angepasst, die entsprechende Probleme darstellen.
SVΞN schrieb:
Weil es symbolisch ist für das wohin x86 steuert. Darüber gibt es mittel- und langfristig auch kaum noch abweichende Meinungen.
Intel hat mit Sunny-Cove auf SkyLake ca. 19 % IPC hingelegt. Golden-Cove hat auf Sunny-Cove erneut ca. 19 % IPC hingelegt. RaptorCove hat anhand eines neuen PreFetchting in bestimmten Szenarien noch mal 5 % gebracht.
Apple hat seit dem M1 und damit verbunden den Firestorm-Kernen gerade in der IPC eher schwach zu gelegt, da man bereits einen sehr breiten Kern hat und es auch mit Arm und den 31 GP-Register ab diesem Punkt sehr schwer wird, noch breitere Kerne umzusetzen und auch effizient zu füttern.

Das Hauptproblem von x86 liegt aktuell in bestimmten ISA-Limitierungen, die geht Intel an und das könnte durchaus in Zukunft auch dafür sorgen, dass wir bei Intel noch mal radikalere µ-Arch re-Designs erleben, als aktuell möglich.

Mit den richtigen Entscheidungen in Zukunft, gerade was die "DOS"-Altlasten angeht, könnte man auch an anderen Stellen auch noch mal an Leistung und Effizienz dann gewinnen.
ghecko schrieb:
Davor sollte Qualcomm erst mal schauen das ihre Treiber im allgemeinen Linuxkernel landen.
Qualcom und Treiber ... das kannst du vergessen. Die Firma wird hier vermutlich zu den "Veröffentlichtung" auch den finalen Treiber bringen und dann nichts weiter machen, weil es ja reicht.
Poati schrieb:
Der Befehlssatz gibt schon gewissermaßen auch die Hardware vor, die man braucht um, damit die Maschinenbefehle realisiert sind.
Ja und Nein. Wie die µ-Arch am Ende ausgeführt wird, ist der ISA - damit auch dem Befehlssatz - relativ egal. Viele spezifische Punkte einer ISA werden ohnehin am Ende durch den Decoder abgefangen und in verträglichen µ-OP umgewandelt.

Was die ISA damals als auch heute noch vorgibt, ist das Register-Set und wie viele man davon für den Maschinencode verwenden kann und wie diese verwendet werden. Einen hohen Anteil an der Effizienz von Arm hat das breite Register-Set, weil man seltener in den RAM muss und wie wir bei 5800X3D und 7800X3D gelernt haben: Herade hier wird Leistung benötigt.
Poati schrieb:
Es würde mich auf der anderen Seite aber sehr wundern, wenn eine solche alte ISA nicht auch ein paar Altlasten hätte, für die man nunmal trotzdem eine Implementierung im Chip braucht.
x86 hat einige Altlasten und eine davon liegt in der "Bootsequenz" des Systems, die Intel ja auch angehen will. Manche Sachen fielen damals schon mit x86_64 weg, weiteres soll nun auch wegfallen. Genauso wie ggf. mit der Zeit ggf. veraltet Erweiterungen herausfallen werden.

AMD und Intel sind sich dessen auch bewusst und haben 2020 mit RedHat und Suse auch entsprechende "Level" eingeführt. Hier wird sich zeigen, ab wann Intel und AMD auch bereit sind entsprechend Zöpfe wirklich abzuschneiden.
bensen schrieb:
Zeigt der Exynos auch den Niedergang von Arm?
Nein, zeigt es nicht und hier wird auch etwas übertrieben.
SVΞN schrieb:
Dass es bei x86-Prozessoren mittlerweile [oder seit Jahren] nur noch mit kleinen bis winzigen Leistungssprüngen voran geht.
Sunny Cove: 19 % IPC zu SkyLake, Golden Cove: 19 % IPC zu Sunny Cove. Das sind im Bereich der IPC alles andere als winzige Leistungssprünge.

Zu mal bei Apple seit dem M1 und den Firestorm-Kernen gerade im 1T-Bereich auch eine gewisse Stagnation stattfindet und die Sprünge alles andere als riesig sind.
SVΞN schrieb:
Wer einmal an einem M2 Max oder selbst einem M1 gearbeitet hat, der merkt sehr schnell, dass da viel mehr geht.
Ich arbeite mit einem M1 und klar hat das Ding seine Vorzüge. Apple betreibt den M1 als auch die M2 allerdings auch relativ nahe am Sweetspot.

Zudem vergisst du an dieser Stelle, dass Apple den M1 und auch sonst ihre neuen SoCs weitgehend auf die Softwarearchitektur und ebenso umgekehrt anpassen kann und damit auch noch mal weitere Leistung freigesetzt wird, die man unter Linux als auch Windows alleine aufgrund der Vielzahl an Architekturen und Komponenten gar nicht freisetzten kann, da man sich in "Abfragen" und "Abstraktiosnlayer" verliert.

Sieht man sehr gut auch an den Qualcom SoCs bisher für Windows, die zwar Achtungserfolge feiern, aber gleichzeitig aber auch mit den Schwächen des Windows-Kernels zu kämpfen haben.
SVΞN schrieb:
Effizienter, reaktionsschneller, wahnsinnige Akkulaufzeiten. Da geht die Entwicklung hin und nicht dahin, immer mehr TDP, Abwärme & Co. mit der GHz-Keule zu erzwingen.
... Geht man bei Intel und AMD von den "Leuchtturm"-Projekten, die sich explizit an Enthusiasten richten, weg, dann hat sowohl Intel als auch AMD durchaus verstanden, dass mehr TDP und mehr GHz nicht der Weisheit letzter Schluss sind. Dass es eine 13900K oder jetzt 14900K mit 6 GHz gibt bei 253 W TDP "PL2" leigt primär an der Tech-Bubble und den Publikumsfachzeitschriften und damit auch an dir!

Effizienter kann sowohl AMD als auch Intel, zeigen sie mit ihren 65W Boliden, als auch im Notebook-Bereich.

Reaktionsschneller? Darf ich dich mal ernsthaft fragen, welchen IT-Background du hast? Hast du Informatik studiert? Oder eine Lehre zum Fachinformatiker gemacht? Programmierst du? Was ich bisher mitbekommen habe, bist du "Systemintegrator" und schraubst PCs für Kunden zusammen, richtig? Entschuldige, wenn ich das jetzt mal so ernst schreibe: Befasse dich mal mit Software-Entwicklung. Die "Trägheit" auf x86-Systemen hat nicht wirklich was mit den CPUs von Intel oder AMD zu tun, sondern in der Regel mit Windows und dass hier Windows massiv viele Abstraktionsschichten hat, um viel Hardware zu unterstützen, Treiber einzubeziehen und Co. Probleme hier kann man nicht Intel oder AMD anlasten, sondern muss diese Probleme eher bei Microsoft suchen und auch teilweise bei Linux.

Hier ist halt erneut der Vorteil, dass Apple die Software und Hardware weitgehend aufeinander abstimmen kann und damit sich auch Abstraktionsschichten sparen kann. Das Arm nicht automatisch "reaktionsschneller" ist, sieht man bis heute - in meinen Augen - an Android und den Arm SoCs und wie "träge" man da das Zusammenspiel empfinden kann, wenn man von einem iPhone oder iPad kommt.

Das Thema mit den Akkulaufzeiten ist auch so ein Thema, klar können und müssen hier Intel und AMD noch zulegen, aber auch hier ist erneut die Software zum Teil mit entscheidend und auch das kannst du an einem M1 oder M2-Laptop sogar nachvollziehen. Verwende mal Chrome und Firefox, statt Safari und wie effizient der Safari mit den Ressourcen umgeht. Green Coding hat sich nicht umsonst in den letzten Jahren entwickelt.
SVΞN schrieb:
Wie ausgelutscht x86-CPUs sind wird doch besonders gut ersichtlich, wenn man mal den Takt normalisiert. Dann bleibt fast gar nichts mehr ans Fortschritt übrig.
Ach, bleibt nicht? Kannst du natürlich auch erneut belegen.

Ich versuche es mal, greif aber auch auf die Community zurück.
Core i9 13900KS, 6 GHz, 140 Punkte, normiert auf 1 GHz: 23
Core i9 12900K, 5,2 GHz, 123 Punkte, normiert auf 1 GHz: 24
Core i9 11900K, 5,3 GHz, 109 Punkte, normiert auf 1 GHz: 21
Core i9 9900K, 5,0 GHz, 78 Punkte, normiert auf 1 GHz: 16 Punkt

SkyLake zu SunnyCove (kenne nur den 10nm-Namen): 31 %
SunnyCove zu GoldenCove: 14 %.

Sehen wir uns mal die Apple M1 und Apple M2 an:
Apple M1, 3,2 GHz, 111 Punkte, normiert auf 1 GHz: 35 Punkte
Apple M2, 3,49 GHz, 124 Punkte, normiert auf 1 GHz: 36 Punkte

Wo ist an dieser Stelle beim M2 denn der Fortschritt? Das Plus kam alleine durch den Takt. Und ja, Intel ist bei der IPC noch "meilenweit" weg, keine Frage, aber hier so zu tun, als wäre bei x86 die Leistungssteigerung fast nur auf den Takt zurückzuführen, kann man schon fast als mutwillige Falschbehauptung bezeichnen.

Selbst wenn wir uns AMD dazu nehmen:
Ryzen 7950, 5,7 GHz, 124 Punkte, normiert auf 1 GHz: 22 Punkte
Ryzen 5950, 4,9 GHz, 102 Punkte, normiert auf 1 GHz: 21 Punkte
Ryzen 3950, 4,1 GHz, 72 Punkte, normiert auf 1 GHz: 18 Punkte
Ryzen 2700X, 4,1 GHz, 66 Punkte, normiert auf 1 GHz: 16 Punkte


calluna schrieb:
Keine der x86 CPUs führt im Alltag noch x86 Befehle aus… der einzige „Ballast“
Na ja, die Befehle werden ja ausgeführt, sonst würde das ganze nicht klappen. CISC/RISC ist heute für eine CPU aber weitgehend egal, weil der Decoder eh die Befehle in µOPs zerlegt. Egal ob Arm, x86 oder RISC-V. Heute hat Arm "CISC-Artige"-Befehle, während x86 in ERweiterungen RISC-Artige befehle hat.
Ergänzung ()

cha0shacker schrieb:
Was hat denn die ISA mit dem eigentlichen Kern Design zutun?
Register-Set und wie die Compiler den Zugriff auf den Speicher optimieren können. Gleiches gilt für den Kern dann.

Der Rest ist dann Sache des Decoders und damit egal.
 
  • Gefällt mir
Reaktionen: Floletni, Stramma, Seven2758 und 19 andere
flaphoschi schrieb:
Wenn die Kerne skalieren (so wie bei AMD Zen 1 - 4), braucht man keine komplexen Ansatz mit Effizienzkerne.
Dieser Ansatz ist nicht komplex, er ist zwingend erforderlich. Das wissen Physiker seit über 30 Jahren. Feynman hatte dazu mal einen Vortrag gehalten. Du kannst nicht beides haben, Performance und Effizienz, das ist physikalisch nicht möglich.
Entweder du hast ein Pipelinerohr aus dem viel Wasser kommt (hohe Performance) - da muss es tief fallen (hoher Stromverbrauch) oder eins aus dem weniger Wasser kommt (geringe Performance) und du kannst die Fallhöhe gering halten (niedriger Stromverbrauch).
 
coral81 schrieb:
Du nutzt einen I7 920 für Office ? Schonmal über ein Intel N 100 Mini PC für 130- 150 Euro bei ali und Co nachgedacht ? Eine 6 Watt TDP billig Intel APU ist mittlerweile schneller als deine CPU und beherrscht alle Codecs AV 1 z.B .
Ich benutz sie auch zum Spielen (Doom Eternal etwa), arbeiten und andere Dinge die ein PC nunmal so macht.
Aber ich ersetze ja nichts, was nicht ersetzt werden muss. Dass die Effizienz in moderneren Prozessoren besser ist, ist mir klar, aber wenn dann müsste ja wieder ein PC ins Haus, wo sollen die Platten usw hin...

Ich hab allerdings manchmal stattdessen das Surface Go 3 dran hängen, ist aber eher träge.
 
Es kann nur gut für uns alle sein wenn der Druck auf Apple aber auch Intel und AMD größer wird. Blickt man zB auf AMD so hab ich auch 1 Jahr nach AM5 Launch das gefühlt das immer noch mehr auf Basis der AM4 Plattform verkauft wird. Klar gibt es inkrementelle Performancezuwächse, die hatten wir davor aber auch 10+ Jahre mit der Intel Core Architektur.
Apple hat gezeigt wie schnell man eine neue Architektur pushen kann wenn man den Entwicklern entsprechende Anreize schafft; hoffen wir mal das Microsoft das auch irgendwann hin bekommt. Aktuell war jedes Windows for ARM ja mangels 3rd Party Support für die Tonne.
Vielleicht kanns mit Windows auch nur klappen nachdem Microsoft und Sony ihre Konsolen umstellen.
 
DevPandi schrieb:
Ja und Nein. Wie die µ-Arch am Ende ausgeführt wird, ist der ISA - damit auch dem Befehlssatz - relativ egal.
Genauso war der Teil von mir gemeint. Das "wie" ist in der ISA ja nicht wirklich definiert.
 
Arkada schrieb:
Was für ein Wettbewerb denn? Apple wischt mit der Konkurrenz den Boden auf und ist technisch 10+ Jahre voraus.
Sorry wie kommt man auf sowas? Das ist doch technisch einfach nicht wahr.
Arkada schrieb:
Qual-comm und Co. kündigen nur an, dass sie bald nachziehen, aber außer vielen Kernen mit hohem Stromverbrauch kommt da doch nichts!
das weißt du jetzt schon, obwohls in den Folien anders steht?
Gehts ein bisschen weniger "biased"
coral81 schrieb:
Du nutzt einen I7 920 für Office ? Schonmal über ein Intel N 100 Mini PC für 130- 150 Euro bei ali und Co nachgedacht ? Eine 6 Watt TDP billig Intel APU ist mittlerweile schneller als deine CPU und beherrscht alle Codecs AV 1 z.B .
Das wär jetzt OT:

Das mache ich zum einen, weil ich Dinge gerne lange benutze bis sie kaputt gehen (nenn es Nostalgie, Objektophilität (ich hab auch eine Autosammlung) oder auch Umweltschutz-Denken:

Ich benutz sie auch zum Spielen (Doom Eternal etwa), arbeiten und andere Dinge die ein PC nunmal so macht.
Aber ich ersetze ja nichts, was nicht ersetzt werden muss. Dass die Effizienz in moderneren Prozessoren besser ist, ist mir klar, aber wenn dann müsste ja wieder ein PC ins Haus, wo sollen die Platten usw hin...

Ich habs mir schonmal durchgerechnet was die Effizienz betrifft und etwas nicht neues kaufen solange bis das hier nicht mehr "reicht" ist weniger Umweltschädlich: der PC (i7, 24GB Ram) braucht im Betrieb ~75W, beim Spielen bis 220W (dank Geforce 1060). Da das System undervoltet ist. Und solange es "reicht" wozu mehr? Ich werde natürlich aufrüsten, wenn es eben nicht mehr genug ist: Stalker 2, Cyberpunk, Alan Wake 2... scheinen neue Hardware zu benötigen ;) Mein Glück ist, dass mich von den modernen Spielen kaum eines reizt. Doom Eternal ist da eine Ausnahme und das ist so gut optimiert, dass ich selbst auf einem völlig überdimensionierten 3440x1440 Bildschirm über 100fps erreiche.

Ich hab allerdings manchmal (wenn ich von der Arbeit heimkomme) stattdessen das Surface Go 3 dran hängen, ist aber eher träge und braucht auch seine 35Watt. Spielen ist damit nicht. Videos und Bilder bearbeiten auch nicht. Datenspeichern auch nicht.... also schwierig. Ich denke aber beim nächsten PC an einen "T" Prozessor von Intel oder etwas vergleichbares von AMD, etwa der 7950X3D Nachfolger. Soll ja wieder ein paar Jährchen halten
 
Poati schrieb:
Genauso war der Teil von mir gemeint. Das "wie" ist in der ISA ja nicht wirklich definiert.
Ich wollte nur ergänzen, weil viele denken, dass die ISA am Ende garkeine Auswirkung hätte, was aber durch das Register-Set nicht stimmt. ;)
 
  • Gefällt mir
Reaktionen: Rockstar85
@sueside
Man kann nicht hohe Performance, kleine Fläche (wenig Transistoren) und wenig Leistungsaufnahme haben.
Zwei von dreien gehen aber durchaus.
 
Drummermatze schrieb:
Alles auf ARM umgestellt bis auf den PC-/Notebook Markt. Da ist schon einiges passiert in den letzten 10 Jahren.
Und selbst da sind alle im Bekanntenkreis die beruflich irgendwas mit Medien (Audio, Video, Bildbearbeitung) machen auf Apple Silicon umgestiegen.


68% Marktenteil ist kein Monopol.
Äh ja, APPLE ist passiert. Das hat nur indirekt mit ARM zu tun
 
sueside schrieb:
Dieser Ansatz ist nicht komplex, er ist zwingend erforderlich. Das wissen Physiker seit über 30 Jahren. Feynman hatte dazu mal einen Vortrag gehalten. Du kannst nicht beides haben, Performance und Effizienz, das ist physikalisch nicht möglich.
Entweder du hast ein Pipelinerohr aus dem viel Wasser kommt (hohe Performance) - da muss es tief fallen (hoher Stromverbrauch) oder eins aus dem weniger Wasser kommt (geringe Performance) und du kannst die Fallhöhe gering halten (niedriger Stromverbrauch).

Da steht nicht, dass man modulare Komponenten bauen darf und diese je nach Bedarf ein/ausschalten darf.

Die andere Erklärung wäre, das Intel unheimlich schlecht ist. Sowohl mit einem Kern, als auch zwei verschiedenen Typen. Und AMD dann leichtes Spiel hat.
 
FX-Multimedia schrieb:
Mit Sicherheit ist ein I7-920 schneller als ein N 100.
Ok, wenn du der Meinung bist

Geekbench 6 (Single-Core)

2023-10-25 13.46.30 www.cpu-monkey.com e4cc51078f73.jpg



Geekbench 6 (Multi-Core)

2023-10-25 13.47.12 www.cpu-monkey.com 613b61b93c09.jpg
 
  • Gefällt mir
Reaktionen: BAR86 und sikarr
Weyoun schrieb:
"Androidbasis"? Es geht hier um Notebooks und nicht um Smartphones oder Tablets.
Es gibt auch Notebooks auf Androidbasis wie die Chromebooks
 
Ich weiß nicht, warum Du so tust als hätte ich eine Aussage zum vergleichenden Alter zweier Sprachen gemacht. 🤷‍♂️
 
sikarr schrieb:
Tatsache, man hat mittlerweile bei Mobil Automatisch Arm im Sinn und vergisst das es auch andere gab.
MIPS ist ja mittlerweile auch quasi verschwunden, lag doch zu letzt bei nem Chinesen oder so.
und RISC-V wird im Mobil-Bereich mit wildern. Ob Qualcomm deswegen so rum trommelt.
 
DevPandi schrieb:
Na ja, die Befehle werden ja ausgeführt, sonst würde das ganze nicht klappen.

Nein, unter einem 64 Bit Betriebssystem und 64 Bit-Anwendungen führt eine "x86-CPU" keine Befehle aus dem x86-Befehlssatz aus... und es sollten auch kaum noch x87-Befehle dabei sein, dafür gibt es genug Ersatz aus SSEx und AVX.
Ergänzung ()

DevPandi schrieb:
Ich wollte nur ergänzen, weil viele denken, dass die ISA am Ende garkeine Auswirkung hätte, was aber durch das Register-Set nicht stimmt.

Das stimmt.. aber das Register-Set muss nicht zwangsweise auch tatsächlich existieren bei einer nachfolgenden Generation, wenn das Ziel Kompatibilität ist.
 
Zuletzt bearbeitet:
Zurück
Oben