Das kommt darauf an, wie das in dem Bereich aussehen wird und wer sich durchsetzen wird. Du kannst dir heute ja auch schon PCs mit Ampere-ARM-CPUs kaufen, die sind gesockelt usw. Wenn sich Nvidia durchsetzt in dem Markt, wird es natürlich schwieriger. Wenn AMD auf ARM schwenken sollte und die starke DIY-Position in Kombination mit dem Markt für kleine Server ausnutzen will, dann wird es wahrscheinlich besser (die jetzt nur als Beispiele genannt, ähnliche Überlegungen kann man für jedes Unternehmen in dem Bereich anstellen).Alesis schrieb:Glaubt hier jemand, dass wenn wir das x86 Ökosystem beenden und stattdessen ein ARM aufbauen, dass wir weiterhin noch die Individualität haben werden?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Probleme bei N1x?: Designfehler und Windows sollen Nvidias/MediaTeks PC-Chip verzögern
Helge01
Vice Admiral
- Registriert
- Nov. 2008
- Beiträge
- 6.528
Selbst unter Gamer werden es immer weniger.DocAimless schrieb:Wer außer die Gamer rüsten den heute noch ihren PC selbst auf?
Simonte
Commander
- Registriert
- Aug. 2024
- Beiträge
- 2.171
ARM Architecture-based CPU
Irgendwie...passt das nicht so ganzGaming-Notebooks
CDLABSRadonP...
Vice Admiral
- Registriert
- Feb. 2021
- Beiträge
- 6.946
Nein? Schau dir einfach die Benchmarks der Rosetta-Version an. Schlechter als die wird die native Version nicht laufen.9t3ndo schrieb:Denke, Nintendo Switch 2 Niveau.
Sie stagniert etwas, aber ist dennoch effizienztechnisch Ada/Blackwell überlegen.9t3ndo schrieb:Die GPU ist nicht gerade das Glanzstück an den M-Prozessoren.
Schau für beides einfach mal bei Notebookcheck rein...
https://www.notebookcheck.com/Apple...er-schnellsten-Mobilprozessoren.925344.0.html
DocAimless
Lt. Commander
- Registriert
- Aug. 2007
- Beiträge
- 1.337
@Simonte: Abwarten, ARM hat man bis vor 3-4 Jahren bzgl. Desktop/Notebook CPU auch belächelt und nun braucht sie sich weder hinter Intel oder AMD verstecken. Vielleicht wird es in 3-5 Jahren Geräte geben, die ähnlich die Leistung der PS5 bei der Grafik liefern. Also mich würde es nicht stören und vielleicht sogar ansprechen.
Independent
Lt. Commander Pro
- Registriert
- Feb. 2003
- Beiträge
- 1.155
Wird scheitern wie alles andere vorher auch. Ein neuer Chip braucht neue Software da die alte nicht mehr läuft. Die x86 Kompatibilität, also die alte Software läuft auch auf den neuen CPU wird da sicherlich von ein sehr großen Vorteil sein.
Hat nur nichts mit Effizienz zutun. x86 ist nicht inhärent ineffizienter wenn man in Arm manier darauf abstimmen würde und gleichviel Features weglässt. (SMT wird ja auch gerne unterschlagen obwohl das die Leistung und effizienz pro Kern wesentlich über jedes Arm Design hebt)DocAimless schrieb:ARM finde ich einfach der nächste Schritt in sachen Effizienz
Bei sowas am besten bei Windows beschweren was den Akku angeht.
DocAimless
Lt. Commander
- Registriert
- Aug. 2007
- Beiträge
- 1.337
@PS828: Ich meinte damit Desktop x86 vs Desktop ARM. Ich hab hier nur ein mac mini m4 in der Basis-Version, aber der ist besser als mein alter UM773 mit 32GB und 16 Threads. Allein was die Lüfter angeht, ist ARM einfach leise.
Edit:
PS: Was das mit Windows angeht, liegt es wirklich an x86 und nicht am OS, denn der Laptop hier mit ARM und Windows hält länger und ist auch leiser.
Edit:
PS: Was das mit Windows angeht, liegt es wirklich an x86 und nicht am OS, denn der Laptop hier mit ARM und Windows hält länger und ist auch leiser.
9t3ndo
Commodore
- Registriert
- Dez. 2013
- Beiträge
- 5.036
Schön das ein 3k Laptop mit der RTX4070 Mobile mithalten kann und dabei effizient ist. Ist für den Preis aber wirklich dünn. Das wird mit Ray Tracing in CP2077, wenn überhaupt unterstützt, nur schlechter.CDLABSRadonP... schrieb:Nein? Schau dir einfach die Benchmarks der Rosetta-Version an. Schlechter als die wird die native Version nicht laufen.
Sie stagniert etwas, aber ist dennoch effizienztechnisch Ada/Blackwell überlegen.
Schau für beides einfach mal bei Notebookcheck rein...
https://www.notebookcheck.com/Apple...er-schnellsten-Mobilprozessoren.925344.0.html
heise hatte sich schon auf der Computex umgehört, weil ihnen das Verhalten von Nvidia merkwürdig vorkam. Bei den Boardpartnern in Taiwan waren die Probleme da schon bekannt. Der Displaycontroller des GB10 soll defekt sein und ein vollständiges Neudesign erfordern.
https://www.heise.de/hintergrund/Da...r-hinaus-an-Notebook-CPUs-kommt-10395212.html
https://www.heise.de/hintergrund/Da...r-hinaus-an-Notebook-CPUs-kommt-10395212.html
Du wirfst hier aber gerade einiges wild durcheinander. Lüfter ist eine Frage von Minisforum vs Apple, die CPU an sich ist eine Frage von AMD vs Apple und die Frage der ISA ist eine von x86 vs ARM.DocAimless schrieb:@PS828: Ich meinte damit Desktop x86 vs Desktop ARM. Ich hab hier nur ein mac mini m4 in der Basis-Version, aber der ist besser als mein alter UM773 mit 32GB und 16 Threads. Allein was die Lüfter angeht, ist ARM einfach leise.
Ist die CPU jetzt besser, weil sie ARM statt x86 nutzt, oder weil sie in N3 statt N6 gefertigt wird? Da liegen halt zwei Full Nodes dazwischen.
Da spielt eine ganze Menge mit rein, das müsste man schon mehr aufdröseln statt einfach zu sagen ARM ist besser als x86.
CDLABSRadonP...
Vice Admiral
- Registriert
- Feb. 2021
- Beiträge
- 6.946
Genau wie Intel fehlt auch ihnen halt der V-Cache. Und die Fertigungsprozessfortschritte verlangsamen sich halt. Dazu kommt, dass es aktuell so gar keinen Fortschritt bei Chiplets und Apple gibt, nach UltraFusion ist nichts passiert und das liegt ja auch bloß auf dem Niveau, das wir jetzt bei Nvidias B200 / B300 gewohnt sind. Ein richtiges Chipletdesign ist das nicht...Cool Master schrieb:@CDLABSRadonP...
Ja das stimmt durchaus aber in 4-5 Jahren nur ~60% mehr Single-Core Leistung ist halt schon die Handbremse anziehen. Das es mehr bei der Multi-Core Leistung ist sollte klar sein weil es mittlerweile mehr Kerne sind.
DocAimless
Lt. Commander
- Registriert
- Aug. 2007
- Beiträge
- 1.337
Für mich als Endanwender ist dies aber nun einmal egal. Wenn ich auf beiden die gleichen Programme und Abläufe habe und diese auf dem ARM schneller, leiser und mit weniger Core/RAM abläuft ist für mich ersichtlich das ARM bei mir dem x86 voraus ist. Da ist mir egal in welchen Prozess der DIE gefertig wurde oder ob es ein x86 oder ARM ist. Ich kann sogar sagen, dass Snapdragon Laptop mit Windows gleich gut ist wie der UM773 trotz weniger Threads.stefan92x schrieb:Da spielt eine ganze Menge mit rein, das müsste man schon mehr aufdröseln statt einfach zu sagen ARM ist besser als x86.
Eben nicht. Du siehst als Endanwender nur, dass (bei deinen genannten Beispielen) ein Apple M4 oder der Snapdragon besser ist als ein AMD Ryzen 7735HS. Du siehst aber eben nicht, ob (oder mit welchem Anteil) das an der ISA, dem Fertigungsprozess, den Fähigkeiten der Chipentwickler oder dem Rest des PCs um die CPU herum liegt.DocAimless schrieb:Für mich als Endanwender ist dies aber nun einmal egal. Wenn ich auf beiden die gleichen Programme und Abläufe habe und diese auf dem ARM schneller, leiser und mit weniger Core/RAM abläuft ist für mich ersichtlich das ARM bei mir dem x86 voraus ist.
CDLABSRadonP...
Vice Admiral
- Registriert
- Feb. 2021
- Beiträge
- 6.946
Übrigens ist SMT nicht ARM-exklusiv, siehe z.B.:PS828 schrieb:Hat nur nichts mit Effizienz zutun. x86 ist nicht inhärent ineffizienter wenn man in Arm manier darauf abstimmen würde und gleichviel Features weglässt. (SMT wird ja auch gerne unterschlagen obwohl das die Leistung und effizienz pro Kern wesentlich über jedes Arm Design hebt)
https://www.computerbase.de/news/prozessoren/marvell-cavium-arm-server-cpu-thunderx3-96-kerne.71308/
Das unterstützt die Aussage aber nur weiter!
Ansonsten füge ich mal einfach einen alten Kommentar ein:
Nein. Aber auch umgekehrt wird kein Schuh draus, dass irgendwie ARM-CPUs magisch effizienter wären:Headyus schrieb:die CPUs für X86 sind wesentlich leistungsstärker (...)
Ich würde mittlerweile noch folgendes hinzufügen: Dass viele ihre eigenen ARM-Prozessoren herstellen liegt in erster Linie daran, dass sie das dann InHouse halten wollen und sich den Gewinn nicht mit Prozessordesignherstellern teilen wollen. Ab und an läuft das aber nicht so gut, wie sich in letzter Zeit immer wieder zeigt. Das wäre dann tatsächlich ein Moment, in dem AMD auf Tuchfühlung gehen könnte, ob jemand der großen Fische, die ihre Software nun eben für ihre InHouseProzessoren auf ARM optimiert hatten, nicht Interesse daran hätten, zu einem EPYC ARM zu wechseln (und damit sozusagen zurückzuwechseln). Sobald das der Fall ist, werden wir diese Produkte auch sehen und als Abfallprodukte kann es sein, dass dann auch Ryzen ARMs runterfallen.CDLABSRadonP... schrieb:In dem Kontext kann auch nur immer wieder an AMDs Projekt K12 erinnert werden:
https://www.golem.de/news/jim-kelle...derweise-eingestellt-von-amd-2206-166280.html
Oder auf englisch:
During his time at AMD, Jim and his team noticed that the cache design for ARM and x86 CPU was mostly the same among other things such as the execution unit and the only difference between the two processor architectures was the decode unit so they decided to work on a new chip, known to us as K12 that was later canceled by AMD.
https://wccftech.com/legendary-chip...12-arm-cpu-project-after-he-left-the-company/
Effektiv heißt es, dass wir ARM-Ryzens hätten haben können. Ungewöhnlicherweise (es ist immerhin Jim Keller) stimme ihm dabei übrigens nicht zu, dass das ganze Dummheit war, sondern bloß auf einer Erkenntnis fußte: Während der Beschäftigung ist AMD halt zu der Erkenntnis gekommen, dass die beiden Varianten sich dann eben unterm Strich auch ziemlich ähnlich verhalten. Und wieso sollten sie dann noch eine ARM-Variante anbieten? Software (auch im Serverbereich) liegt ja auch für x86 problemlos vor.
Das ganze sieht anders aus, wenn sich die Softwarelandschaft von x86 wegbewegen würde. Vielleicht würde dann ein AMD hingehen und sagen: Ja, Zen7 kommt auch in einer ARM-Variante heraus.
Jup. Und "Zur Computex 2025 erwartet" klingt danach, dass sie schon sehr weit waren, also glaube ich kaum, dass heutzutage noch so spät in der Entwicklung gravierende Fehler auftauchen.CDLABSRadonP... schrieb:Der N1X klang so dermaßen unambitioniert, dass so etwas kaum vorstellbar ist. Keine Custom-Cores, keine unbekannte GPU-Architektur, einfach nichts, was dafür spricht, dass etwas drastisch in die Hose geht.
gartenriese
Lt. Commander Pro
- Registriert
- Feb. 2011
- Beiträge
- 1.626
Ich würde nicht sagen, dass sie die Handbremse angezogen haben sondern eher, dass die Hardware momentan einfach keine größeren Sprünge zulässt. Sieht man ja auch bei den anderen Herstellern.Cool Master schrieb:Ja und Nein. Der M1 (Max/Ultra) war und ist super aber seit dem sind das so kleine Schritte, dass sich ein Upgrade praktisch nicht lohnt. Apple hat da also aktuell auch eher die Handbremse angezogen.
TheInvisible
Commander
- Registriert
- Jan. 2022
- Beiträge
- 2.091
@gartenriese Jap man muss sich endlich mal damit abfinden, Vergleiche mit den Hardwaresprüngen vor über 20 Jahren sind einfach nur Unsinn. Am meisten würde man noch mit MultiCore Unterstützung gewinnen aber selbst hier geht es bei Software extrem langsam voran, wenn überhaupt. Selbst UE5 kämpft noch mit guter MT Auslastung bzw soll das erst ab 5.6 wirklich besser werden.
Einziger Vorteil: Hardware hält quasi ewig, selbst mit 5 Jahre alter Hardware wie einem 5800x + 3090 kannst heute noch sehr gut zocken
Einziger Vorteil: Hardware hält quasi ewig, selbst mit 5 Jahre alter Hardware wie einem 5800x + 3090 kannst heute noch sehr gut zocken
foofoobar
Rear Admiral
- Registriert
- Dez. 2011
- Beiträge
- 5.397
Die nächsten Chips der meisten Hersteller in dem Bereich scheinen ja wohl alle in N2@TSMC zu kommen.DocAimless schrieb:ARM finde ich einfach der nächste Schritt in sachen Effizienz ich sehe es doch an den mac Geräten, die sind einfach gut.
Dann wird man sicherlich gut vergleichen können.
80-90% der ausgeführten Befehle sind eh nur 6 Instruktionen: Load, Store, Add, Substract, Compare, Branch.
Und da spielt die ISA keine große Rolle.
Ergänzung ()
Bei den Ki-Beschleunigern hatte NV auch einen fetten Bock geschossen welcher die Auslieferung verzögert hat.daVinci schrieb:Jup. Und "Zur Computex 2025 erwartet" klingt danach, dass sie schon sehr weit waren, also glaube ich kaum, dass heutzutage noch so spät in der Entwicklung gravierende Fehler auftauchen.
Cool Master schrieb:Konkurrenz belebt das Geschäft
Richtig. Aber irgendwie bezweifle ich, dass nVidia ein guter Kandidat für diesen Job ist... Warum wohl nur...
Ähnliche Themen
- Antworten
- 10
- Aufrufe
- 1.555