Notiz CPU-Gerüchte: Apple soll an M1-Prozessor mit 32 Kernen arbeiten

Ich schätze Apple so ein, dass ihnen und den meisten ihrer Kundschaft typische PC Benchmarks eher egal ist.

Wobei 32 Kerne klingt für mich nach sehr viel für eine Firma die im Grunde alle Stellschrauben unter Kontrolle hat. Was hindert Apple in Ihren eigenen System die Notwendigkeit an vielen CPU Kernen durch spezielle Einheiten oder durch die GPU (die schon selber viele Kerne hat) zu ersetzen. Im Grunde wollte AMD dieses früher mit Ihrer Fusion-Strategie auch machen. Nur ist AMD dabei auf die Mithilfe von vielen anderen angewiesen. Apple selber hat in dieser Hinsicht eine wesentlich höhere Marktmacht und kann vieles durchsetzen. Im Grunde ist dieses ja nur die Fortführung ihrer IOS Strategie.

Das Intel auf viele Kerne oder Hilfskonstruktion wie AVX 512 setzt, liegt an der Abwesenheit einer eigenen konkurrenzfähigen Grafikkarten. Auch die Auftrennung zwischen CPU und GPU bzw. deren Speicher verhindert vieles. Neben Apple haben auch die bisherigen APU (Intel Iris Pro, AMD) bei vielen CAD Programmen recht gute Leistungen (für die Anzahl der Kernen) gezeigt. Ein gemeinsamer Speicher erhöht halt die Anzahl der Lösungen, bei dem sich ein Hybridsystem lohnt.
Auch halte ich ein Dual bzw. Quad-System für möglich, denn viele Professionele Programme, die viele Kerne nutzen können, erweisen sich oftmals als unempfindlich auf Numa oder CCX Probleme. Vorallem sollte der Aufwand für ein Dualsystem recht gering sein.
 
smalM schrieb:
R23 lastet die Firestorm-Kerne nicht besonders gut aus und verbrät deshalb nur 15W.
Hast du dazu eine Quelle?

smalM schrieb:
Die CPU-Cluster im M1 können bis zu 21W ziehen.
Klar, da hast du natürlich Recht, hier müsste man die CPU-Kerne, wenn man ganz genau sein will, einzeln betrachten. 👍
War oben in meinem Post natürlich nur mal grob überschlagen unter der Annahme, dass auch die GPU in ähnlichem Maße mitwächst.
Hatte für den aktuellen M1 eben die 22-27W des Anandtech.com Tests im Hinterkopf. 🙂
https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested

smalM schrieb:
Ein 32-Kerner setzte sich also aus 28 Firestorm- und 4 Icestorm-Kernen zusammen. Er würde in R23 ca. 100W verbraten und etwa 40.000 Punkte erreichen.
Durchaus denkbar.
Allerdings wird das dann natürlich Effizienz kosten und den Verbrauch anheben.
Du kannst ja nicht den Leistungsgewinn durch siebenmal mehr Firestorm-Kerne mitnehmen, dann aber den Verbrauch nur vervierfachen. 😉
Edit: Aussagebezug waren die 21W.
Der Satz macht natürlich keinen Sinn, wenn die CPU-Kerne im Cinebench R23 tatsächlich nur 15W von ihrer 25-28W TDP benötigen.
Siehe Post: #83, #84


Lord Maiki schrieb:
Ich schätze Apple so ein, dass ihnen und den meisten ihrer Kundschaft typische PC Benchmarks eher egal ist.
Vermutlich.
Das Ganze ist eben auch nur ein Foren-Diskussions-Klassiker. 😉
Glücklicherweise entscheiden schlussendlich immer noch die Fähigkeiten des Anwenders darüber wie gut ein digitales Werk wird und nicht die Hardware.
Ob Mac oder PC, x86 oder ARM ist da dann natürlich egal.
 
Zuletzt bearbeitet:
smalM schrieb:
Thx. 👍
Wäre mal interessant, ob Software und Messgeräte schlussendlich auch das gleiche Ergebnis zeigen.
Der Verfasser bei Twitter scheint ja selbst etwas überrascht.

Das der R23 keine Maximalast erzeugt kennt man ja schon, aber 15W wäre natürlich schon eine andere Hausnummer als 25-28W.
Als maximal möglichen Verbrauch für das ganze System des Mac Mini M1 ruft Apple immerhin noch 39W aus.
https://support.apple.com/en-us/HT201897
Da würde mich mal das Szenario interessieren.

smalM schrieb:
Ich habe den Verbrauch im R23 x 7 genommen.
Missverständnis.
Hatte mich auf die 21W bezogen, du auf die im Twitterlink bezogenen 15W.
Habs im ursprünglichen Post von mir mal angepasst, mit Verweis auf den weiteren Verlauf. 👍
 
Zuletzt bearbeitet:
Agent500 schrieb:
Der Verfasser bei Twitter scheint ja selbst etwas überrascht.

Da würde mich mal das Szenario interessieren.
Andrei Frumusanu, Du hast seinen Artikel bei AnandTech gelesen.

Es könnte sich schlicht um das Powerlimit handeln.
Ansonsten hat der M1 ja etliche Funktionsblöcke neben CPU + GPU, die noch keiner so recht in Augenschein genommen hat. 11 TOps schüttelt die NPU ja auch nicht stromfrei aus dem Ärmel.
 
  • Gefällt mir
Reaktionen: Agent500
PS828 schrieb:
Man sollte auch bei den Benchmarks die Kirche im Dorf lassen ;) denn so ganz Sauber ist der Vergleich nicht gewesen, auch muss sich zeigen ob sie zukünftig ordentliche Leistungszuwächse garantieren können.

Denn dass die Dinger die bisher Effizientesten auf dem Markt sind sollte bei dem Verwendeten Prozess Selbsterklärend sein.
Ja dann freue ich mich auf die ersten 5nm CPUs von AMD. Wenn die auf einmal aus 10 Watt Leistung die Performance eines i9 9900 rauskitzeln, dabei noch locker flockig ihre 2,6 TFLOPS GPUs ausfahren und gerade mal 70 Grad warm werden - ohne aktive Kühlung versteht sich. Da frage ich mich doch ernsthaft was TSMC da für einen krassen Fertigungsprozess aus dem Hut gezaubert hat und vor allem was bei 7nm bisher so extrem schief läuft...
Also ich glaube das der 5nm Prozess durchaus zur Effizienz beiträgt, aber der M1 auch auf allen anderen Ebenen der Konkurrenz um mindestens eine Generation voraus ist.
Meiner Meinung nach hat Apple eine ganz neue Tür aufgestoßen und dank quasi unbegrenzter Geldmittel wird sich auch der ein oder andere gestandene Ingenieure noch zweimal umgucken, was für unmögliche geglaubte Dinge da jetzt passieren werden. Nur die Physik ist das Limit, alles andere Ideen würde ich nicht ohne weiteres abtun.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Sie verbrauchen eben nicht nur 10 Watt. Schon garnicht CPU und GPU zusammen. Das ist der Single core Verbrauch

Außerdem ist "Single core" wie beworben bei x86 nicht das gleiche wie Single Thread. Im Single Thread hat der M1 in etwa Zen2 Leistung. Dabei wird der x86 Kern bei Single Thread aber nicht vollständig genutzt.

Bei solchen Äpfel mit Birnen Vergleichen sollte man nicht vergessen dass konsequent Betrachtet der Single CORE wert einer SMT basierten Architektur nur dann auch korrekt ist wenn beide Threads Des Kerns genutzt werden.

Dann sieht so ein M1 Kern garnicht mehr so stark aus ;) Multicore läge im aktuellen CB bestenfalls bei 7,5 k was einem 2600X oder einem i7 5820k entspricht welche wie lange schon auf dem Markt sind?

Wahrscheinlich hälst du das alles jetzt für Blödsinn aber ich bin durchaus nicht der einzige der das so sieht.

Hier für dich noch was zum Lesen
 
smalM schrieb:
Andrei Frumusanu, Du hast seinen Artikel bei AnandTech gelesen.
Thx, hilft natürlich im Zusammenhang und gibt dem Twitterpost noch mehr Gewicht. 👍
Hab aber auch nicht das beste Namensgedächtnis, viele Redakteure fallen da bei mir durchs Raster. 😅

@PS828
Interessante Idee bei igorslab. 👍
SMT immer zusammen mit dem Kern zu betrachten ist auf jeden Fall eine Überlegung wert.
 
Zuletzt bearbeitet:
Es ist nunmal ein Fakt dass SMT basierte Architekturen eben ihre wesentliche Funktionalität durch die Aufteilung auf zwei oder mehr Tasks erreichen. Bei ARM ist dies anders und ich finde dass dies trotzdem berücksichtigt werden sollten wenn man den ohnehin schon schwierigen Vergleich zwischen Architekturen anstellen möchte
 
calluna schrieb:
Und angeblich soll Numpy in der MKL Version durch Rosetta übersetzt auf dem M1 im Air schneller sein als auf dem i5 im 13 Zoll MacPro.
Gibts dazu mehr? Irgendwelche Cinebench oder Geekbench Sachen (und Apple hat ja auf diese Sachen ein Augenmerk) interessieren mich eigentlich recht wenig.
 
Herdware schrieb:
Mindestens so spannend, ob und was für eine M1-CPU im MacPro landed, ist die Frage, was für eine GPU in so einem Apple-Silicon-MacPro stecken wird.
Die müsste immerhin bis zu 4x Vega + 128 GB HBM-Speicher toppen.

Eine GPU kommt noch:

china-times-apple-silicon-roadmap.jpg


According to relevant sources, Apple's self-developed GPU is progressing smoothly. The research and development code is Lifuka. Like the upcoming A14X processor, it is produced using TSMC's 5nm process. Apple has designed a series of processors for Mac personal computers. The new GPU will provide better performance per watt and higher computing performance. It has tile-based deferred rendering technology that allows application developers to write more powerful professional application software and game software.
https://www.macrumors.com/2020/08/31/apple-silicon-imac-custom-gpu-2021/

----------

Tzk schrieb:
Dann sind wir mal gespannt. Insbesondere ob Apple auch die gpu komplett ersetzt, oder ob wir einen 32c Chip mit pcie Interface und amd dedizierten Grafikkarten sehen...

Die ARM-Version von macOS hat (aktuell) keine Unterstützung für AMD-GPUs oder eGPUs.:

Apple to Reportedly Remove AMD GPU Support From macOS ARM64, Paving the Way for Custom GPUs
https://wccftech.com/apple-to-repor...m-macos-arm64-paving-the-way-for-custom-gpus/

----------

Interessanterweise soll AMD laut einem sehr aktuellen Gerücht wieder an K12 arbeiten:

Gerücht: AMD könnte an einem Konkurrenten für Apples M1 ARM-SoC arbeiten
https://www.notebookcheck.com/Gerue...fuer-Apples-M1-ARM-SoC-arbeiten.507661.0.html
AMD könnte an einem Konkurrenz-Chip zum Apple M1 arbeiten, der Windows on ARM endlich einen dringend notwendigen Performance-Vorsprung verschaffen könnte – zumindest wenn es nach einem Leaker geht. Es wäre durchaus denkbar, dass AMD sein K12-Projekt nie eingestellt hat und der Chip auf Basis modernerer Cortex-CPU-Kerne doch noch auf den Markt kommen wird.
 
Zuletzt bearbeitet:
gaelic schrieb:

Nein, leider nicht, ich habe es in einem Beitrag auf Reddit gelesen, dort hat es jemand ausprobiert... deswegen das "angeblich", weil ich die Glaubwürdigkeit nicht einschätzen kann.
 
PS828 schrieb:
Außerdem ist "Single core" wie beworben bei x86 nicht das gleiche wie Single Thread. Im Single Thread hat der M1 in etwa Zen2 Leistung. Dabei wird der x86 Kern bei Single Thread aber nicht vollständig genutzt.

Bei solchen Äpfel mit Birnen Vergleichen sollte man nicht vergessen dass konsequent Betrachtet der Single CORE wert einer SMT basierten Architektur nur dann auch korrekt ist wenn beide Threads Des Kerns genutzt werden.

Dann sieht so ein M1 Kern garnicht mehr so stark aus ;) Multicore läge im aktuellen CB bestenfalls bei 7,5 k was einem 2600X oder einem i7 5820k entspricht welche wie lange schon auf dem Markt sind?

Wahrscheinlich hälst du das alles jetzt für Blödsinn aber ich bin durchaus nicht der einzige der das so sieht.

Hier für dich noch was zum Lesen
Weil das auch blödsinn IST. Es überrascht mich, wie wenige das in Igor's Forum erkannt haben.

Single "THREAD" ist das korrekte zum testen hier.
Single "CORE" wie es in diesem schlechten Klickbait Artikel genannt wird, mag sich zwar richtig anhören, ist in der Praxis aber irrelevant

Du willst Wissen, wie Anwendungen performen, die NICHT parallelisiert werden können --> Single Thread. Da ist die Leistung genau so, wie wir es kennen, und nicht diese Fantasiezahlen aus dem Artikel.

Single-CORE zu benchmarken ergibt null Sinn, und wird in der praxis niemals relevant.
Eine Anwendung, die nicht nur den SMT-Thread erkennen sondern auch noch zusätzlich zum eigentlichen Kern nutzen kann, kann ja anscheinend problemlos 2 Threads auslasten. Warum sollte diese nicht einfach 2 normale Kerne nutzen können?


Das ganze ist also nur eine reine Definitionssache, man geilt sich auf dem "Kern" auf, um x86 besser dastehen zu lassen, als sie sind ;) Weil es eben keine Anwendung gibt, die nur mit einem Kern was anfangen kann, aber plötzlich in der Lage ist, den Kern-Thread + SMT-Thread komplett auszulasten.

Per Definition ist es so wie im Artikel beschrieben zwar korrekt, das als "Single-CORE" zu bezeichnen, aber das ist weder für Benchmarks, noch für die Realität wichtig. Wie gesagt, keine Anwendung, die sich nicht parallelisieren lässt, wird diese 2 Threads nutzen können, die nutzt genau 1 einzigen Thread. Und die heutigen Benchmarks zeigen genau das. Egal ob sie das "Single Core" oder "Single Thread" nennen.


Kurz gesagt: Diese ganze Thematik wird komplett hinfällig, und alles ist wieder völlig in Ordnung, wenn man diese Art von Benchmarks von "Single-Core" in "Single-Thread" ändert. Dann weiß man genau das, was man wissen will.

PS828 schrieb:
Es ist nunmal ein Fakt dass SMT basierte Architekturen eben ihre wesentliche Funktionalität durch die Aufteilung auf zwei oder mehr Tasks erreichen. Bei ARM ist dies anders und ich finde dass dies trotzdem berücksichtigt werden sollten wenn man den ohnehin schon schwierigen Vergleich zwischen Architekturen anstellen möchte

Das ist bei Arm genau so, wenn es mehr kerne hat.
Wie gesagt: Wenn eine Aufgabe sich parallelisieren lässt, dann kann sie das mit SMT-Threads machen, oder mit mehr kernen gleichermaßen.

Und genau das testet ja ein "Multicore" Benchmark.

Eine Anwendung, die sich nicht parallelisieren lässt, kann nur 1 einzige Sache gleichzeitig. Also 1 Thread. Und genau das testen die Benchmarks korrekt, weil das ist eben die Leistung, die man in der Realität auch bekommt^^


Die "Äpfel mit Birnen" Argumente sind ebenfalls unfug. Warum sollte man das nicht 1:1 vergleichen können?
Beide Chips müssen am Ende vom Tag die gleiche Aufgabe erledigen. Und da ist es doch egal, ob mit SMT oder ohne, oder was weiß ich.
 
  • Gefällt mir
Reaktionen: Miuwa und smalM
@Darkseth88 dann sollte man es aber auch nicht Single CORE auf den Folien Nennen oder vom stärksten CPU Kern schwafeln was ja auch insgesamt schlicht nicht stimmt.

Für nicht Parallelisierbare Tasks gibt's ja Single Thread. Aber dann muss man das auch so nennen und nicht anders.

Sobald von Kernen die Rede ist muss ein SMT Kern dieses auch nutzen dürfen.
 
Da stimme ich dir vollkommen zu. Wie gesagt, definitionssache / wording eben..
Ich bin aber denk ich der letzte, der da sagen könnte "halb so Wild, man weiß ja was gemeint ist", so haarspalterisch, wie ich sonst drauf bin :freak:
 
  • Gefällt mir
Reaktionen: Miuwa und PS828
Hayda Ministral schrieb:
Es gibt immerhin die noch recht vage Hoffnung auf Linux.
Klar, von der Benutzbarkeit ist mir ein Linux meiner Wahl lieber als MacOS und besser als Windows sowieso, aber trotzdem gibt es die CPU nur in Kombination mit Apple-Computern. Und die gefallen nicht jedem, mir z. B. nicht.
 
würde Linux solch eine Benutzeroberfläche kriegen wie windows und würden damit auch wirklich alle also nicht steam games und alte darauf laufen,dann würde ich Linux ebenso nehmen wie windows.Dem ist halt allerdings nicht so.Ohne eine einheitliche Linie sehe ich hier keine chance das es jemals die beste Alternative werden wird.Und gleichwertig ebenso leider nicht.Darauf meinte ich ohne simulieren der x86 & x64 Programme drauf laufen werden,dann würde ich dem ne chance geben aber so halt eben nie.
 
  • Gefällt mir
Reaktionen: KitKat::new()
nun das einzige was mich noch an Window hält sind wohl die Games.Und für Linux wird man wohl auch die Anwendung die ich immer für WIndows also 32 bit Anwendung ebenso vielleicht gehen,auch wenn wer unter linux andere Umwandlungs software gebraucht hatte als das was ich imemr so verwende.Aber darüber brauche ich mir keinen Kopf zu machen weil die Games eben nicht unterstützt werden.Und ich kann drauf auch nicht warten,weil ich das eben nicht mehr daleben werde.
Habe Games die mindestens 10 Jahre alt sind und teilweise sogar noch älter.Das sind jedoch alles nicht Steam Games,also schon mal verloren und damit null chance.Ich erwarte auch keine Hoffung.Ich bin da halt ein realist.Sowas wie emulieren das liegt mir überhaupt nicht.Es muss alles nativ laufen,sonst sehe ich hier keine andere Option mehr.
 
Zurück
Oben