News Apple M1: Was Apple Silicon im Mac kann und was noch nicht

Ich bin mir relativ sicher, dass Apple in den nächsten 2 bis 4 Jahren die x86 Architektur (sehr) alt aussehen lassen wird, das gleiche gilt m.A.n. auch für die GPUs (Intel, Amd, Nvidia egal). Wir werden nie da gewesene Leistung erleben...
Apple sitzt auf einem Berg von Geld (cash ca. 200 Miliarden Dollar), sie können für Forschung, Optimierung und Innovation (im Bereich CPU, GPU) so viel Geld ausgeben (und das tun sie auch) wia alle Chiphersteller zusammen (Intel, Amd, Nvidia, Qualcomm, MediaTek, Huawei etc.).

Ich bin gespannt was kommt.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
lucdec schrieb:
Ich zweifle daran, dass Apple demnächst tatsächlich eine GPU entwickeln wird / kann, die einem riesigen RDNA 2- oder Ampere-Chip gefährlich werden kann. Apples Fortschritte im Low-Power-Bereich in allen Ehren, aber eine 250-Watt-GPU ist doch ein anderes Kaliber.

Ich hätte jetzt gesagt, dass man solche GPUs auch in Zukunft einkaufen wird.

Aber vielleicht liege ich ja falsch...

Eine 250-W-GPU ist im Notebook Segment erstmal irrelevant.

Und warum soll Apple keine bauen können? Intel geht bald auch in den Markt dedizierter GPUs.

Davon ab kann man selbstverständlich auch AMD GPUs in Kombination mit einem Apple Mx Chip kombinieren. Einzige Voraussetzung sind ja vereinfacht gesagt genügend PCIe Lanes.

Genügend Know-How hat man ja um sich da etwas zu entwickeln. Nicht umsonst ist der Zeitraum auf rund zwei Jahre festgelegt, bis man komplett auf ARM umgestiegen ist.
 
Ich bin auf jedenfalls gespannt wie die ersten Benchmarks aussehen. Aber mir ist ein Fehler im Artikel aufgefallen ihr schreibt das die USB-C / Thunderbolt Anschlüsse nur bis zu 10 Gbit/s. Das ist so leider nicht richtig im USB Modus können sie nur 10 Gbit/s aber im Thunderbolt Modus bis zu 40 Gbit/s. Das liegt and der Spezifikation von USB. Also der Anschluss an sich kann bis zu 40 Gbit/s. Steht auch im Datenblatt.
 
Es sieht so aus, das Apple in 2 Jahren ein Unternehmen mit reinen Life-Style Produkten sein wird.

Denn eine Begrenzung der RAM-Größe und der GPU-Leistung auf die eGPU wird vielen Semi-Professionellen und Professionellen Nutzen gerade in Hinblick auf die Video/Foto Bearbeitung sauer aufstoßen.

Es kann ja gut sein, das Apple auf diese Nische finanziell locker verzichten kann.
 
  • Gefällt mir
Reaktionen: Trumpf und RuhmWolf
GUN2504 schrieb:
Es sieht so aus, das Apple in 2 Jahren ein Unternehmen mit reinen Life-Style Produkten sein wird.
Das sind die schon seit Jahren. 😉

@ all
Mich würde mal interessieren, ob der M1 Chip seine Leistung auch über eine längere Zeit halten kann oder ob er dann Leistung reduzieren muss, um im TDP Limit zu bleiben?

Denn im Kleingedruckten bei Apple stehen schon seltsam kurze Projektdateien. 🤔
Schon ein bisschen Realitätsfremd.

Punkt 4:
"Getestet mit einer Vorabversion von Final Cut Pro 10.5 mit einem 55 Sekunden langen Clip mit 4K Apple ProRes RAW Medien bei einer Auflösung von 4096 x 2160 und 59,94 Bildern pro Sekunde, umcodiert auf Apple ProRes 422."

Punkt 8:
"Getestet mit einer Vorabversion von Final Cut Pro 10.5 mit einem 10 Sekunden langen Projekt mit Apple ProRes 422 Video bei einer Auflösung von 3840 x 2160 und 30 Bildern pro Sekunde."

Punkt 9: (nur beim MacBook Air aufgeführt)
Die Tests wurden von Apple im Oktober 2020 durchgeführt mit Prototypen von MacBook Air Systemen mit Apple M1 Chip und 8‑Core GPU, 16 GB RAM und 2 TB SSD. Getestet mit der Vorabversion von Final Cut Pro 10.5 mit einem 13 Sekunden langen Projekt mit 4K Apple ProRes 4444 Medien bei einer Auflösung von 3840 x 2160 und 24 Bildern pro Sekunde mit zwei 5 Minuten langen Videostreams, die simultan wiedergegeben wurden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Woookie, Kaulin, el guapo und 4 andere
@kelevrax

Ich meinte mit den 250 Watt jetzt eher den iMac...

Klar, Intel macht das jetzt auch. Aber wo die Leistung dieser Karten liegen wird, ist noch unklar. Im Moment ist die Xe-GPU (als iGPU) ja eher im 15-25 Watt-Bereich unterwegs. AMD und Nvidia haben halt viel Erfahrung und ob man da jetzt so schnell aufschließen kann... - mal sehen.
 
litros schrieb:
Ich bin mir relativ sicher, dass Apple in den nächsten 2 bis 4 Jahren die x86 Architektur (sehr) alt aussehen lassen wird, das gleiche gilt m.A.n. auch für die GPUs (Intel, Amd, Nvidia egal). Wir werden nie da gewesene Leistung erleben...
Apple sitzt auf einem Berg von Geld (cash ca. 200 Miliarden Dollar), sie können für Forschung, Optimierung und Innovation (im Bereich CPU, GPU) so viel Geld ausgeben (und das tun sie auch) wia alle Chiphersteller zusammen (Intel, Amd, Nvidia, Qualcomm, MediaTek, Huawei etc.).

Ich bin gespannt was kommt.


Die Sache ist halt bei Apple bisher einfach gewesen, da sie sich auf einen Bereich konzentrieren: Low Power. Alle x86-Hersteller haben stets Server im Blick, weil da die Kohle liegt. Deshalb bin ich mal auf das Scaling gespannt um einen echten Mac Pro hervorzubringen, der den Namen auch verdient hat .. also richtig Pro mit viel Leistung und nicht nur CPU, sondern auch passenden Schnittstellen und nicht nur 2 Mal USB 3.1 mit 10 Gbps.

Berg von Geld heißt erstmal gar nix. Den haben viele andere auch.
 
  • Gefällt mir
Reaktionen: Kaulin, Hayda Ministral, Transistor 22 und 7 andere
kelevrax schrieb:
Eine 250-W-GPU ist im Notebook Segment erstmal irrelevant.

Und warum soll Apple keine bauen können? Intel geht bald auch in den Markt dedizierter GPUs.

Davon ab kann man selbstverständlich auch AMD GPUs in Kombination mit einem Apple Mx Chip kombinieren. Einzige Voraussetzung sind ja vereinfacht gesagt genügend PCIe Lanes.

Genügend Know-How hat man ja um sich da etwas zu entwickeln. Nicht umsonst ist der Zeitraum auf rund zwei Jahre festgelegt, bis man komplett auf ARM umgestiegen ist.

Das sehe ich genauso. Besonders wenn Mann nicht auf auf die Watt zahl achtet sondern auf die reine Rechenleistung. Waren ja Handy und Tablet (egal ob Apple oder jemand anderes) schon weiter in letzten Zeit nur wurden die Programm dafür noch nicht programmiert. Aber die Programme die man Vergleichen konnte waren Die mobilen Geräte Leistung fähiger. Nicht umsonst hat Microsoft selber schon mal versucht auf ARM umzusteigen.
 
Herdware schrieb:
Wo Apple wahrscheinlich punkten wird, sind einzelne Anwendungsfälle, für die das Apple-SoC spezialisierte Funktionseinheiten und/oder sonstige Optimierungen mitbringen könnte.
Aber das hat doch viel Potential, wenn man CPU und OS selbst in der Hand hat.
Dann baut man eben iregendwelche komischen Funktionen ein, die für ncihts zu gebrauchen sind, aber OS-Funktionen, die ganz, ganz oft aufgerufen werden, stark beschleunigen.
 
GUN2504 schrieb:
Denn eine Begrenzung der RAM-Größe und der GPU-Leistung auf die eGPU wird vielen Semi-Professionellen und Professionellen Nutzen gerade in Hinblick auf die Video/Foto Bearbeitung sauer aufstoßen.
Wer mehr benötigt hat weiterhin die Möglichkeit auf Intel 10. Generation zu setzen mit bis zu 32 GB.
 
Nur bis 2022. Danach nicht mehr.
Dann muss man auf ein anderes Ökosystem umsteigen.
 
pepekiller2011 schrieb:
Ich bin auf jedenfalls gespannt wie die ersten Benchmarks aussehen. Aber mir ist ein Fehler im Artikel aufgefallen ihr schreibt das die USB-C / Thunderbolt Anschlüsse nur bis zu 10 Gbit/s.

Das bezieht sich im Artikel auch lediglich auf USB.
 
Gerade im Professionellen Bereich, hat der SoC enorme Vorteile.
Die Neural Engine beschleunigt und verbessert Bildbearbeitung enorm.
Was der A12Z mit Luma Fusion im Bereich Videobearbeitung leistet, lässt viele Notebooks jetzt schon alt aussehen, da der M1 eine deutlich höhere TDP hat, wird gibt es da noch viel mehr Potential.
Wenn Apple Final Cut für ARM bringt, mit der Neural Engine, alles in Grund und Boden rendern, da bin ich mir ziemlich sicher.

In der Keynote wurden auch sehr aufwendige Vector Berechnungen gezeigt, wenn das wirklich funktioniert, ist auch dort der M1 sehr gut aufgestellt.

Zum Schluss die Grafikleistung, was jetzt mit Metal und dem A12Z und A14 schon möglich ist, dass ist schon durchaus erstaunlich.
Wenn die Entwicklung so schnell dort weiter geht, könnte optisch Nvidia und AMD in 2 Jahren eingeholt werden.

Zum RAM, es wird sich zeigen wie 16GB genutzt werden, da auf ARM Basis die Daten sicher kleiner sind, als unter x86, weil da viel mehr Altlasten dabei sind, könnte ich mir vorstellen das 16GB RAM wie 32GB jetzt sind.
Wenn ich sehe was mein iPad Pro mit 6GB RAM alles im RAM behalten kann, kann ich mir das durchaus vorstellen.

Ich finde die ganze Entwicklung äußerst Spannend, für mich das spannendste seit Einführung der Core Architektur.
Die Entscheidung von Apple könnte viel ändern, komplett neue Möglichkeiten in der Nutzung eines Computers mit nahtlosen Übergängen in Tabelet und Smartphone Welt.
 
  • Gefällt mir
Reaktionen: foo_1337, estros, howdid und 3 andere
Confidential schrieb:
Apples Marketing-Zahlen vergleichen beim Macbook Air laut eigenen Angaben die folgende CPU:

Intel Core i7 1,2GHz Quadcore im Macbook Air 2020. Hier mal Ergebnisse via Geekbench 5:
  • Single-Core: 1130 Punkte
  • Multi-Core: 2870 Punkte
  • OpenCL: 5266 Punkte
Wenn die Angaben von Apple stimmen würden, hätten der M1 mindestens folgende Benchmark Ergebnisse:
  • Single-Core: 3400 Punkte (Vergleich: AMD Ryzen 5 5600X 3700 MHz (6 cores): 1841 Punkte)
  • Multi-Core: 8600 Punkte (Vergleich: AMD Ryzen 5 5600X 3700 MHz (6 cores): 9501 Punkte)
  • OpenCL: 26.000 Punkte (Vergleich: AMD Radeon Pro 5300M: 27097 Punkte)

Falls das nur annähernd realistisch ist, bei deutlich mehr Akkulaufzeit und doppelter SSD Performance, verzichte ich gerne auf 2x USB-C und bleibe bei 16GB RAM. Aber nur dann!
Dir ist bekannt, dass Geekbench auf x86 der reinste Schrott ist? Als ob so ein dahergelaufener Apfelprozessor einfach mal die doppelte Singlecoreleistung hätte, wie einer der aktuell schnellsten, Prozessoren - haha
 
Laut Linustechtipps muss Apple x86 Anwendungen emulieren, stimmt das?
Habe keine Erwähnung dazu gefunden.
 
tarkin77 schrieb:
wenn du diesen marketing-BS wirklich selber glaubst, dann ist dir nicht zu helfen
https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive

Schon der A14 schlägt alle aktuellen Intel CPUs (bis zum 10900K), nur Zen3 ist noch schneller. Aber du beziehst dich wohl auf deine Gefühle und nicht auf Fakten.

Du denkst, "ARM = Handy/Tablet CPU = langsam". Da liegt dein Fehler. Das stimmt einfach nicht.

Fakt: M1 ist schneller. Und sparsamer.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind und HolySkillet
lucdec schrieb:
Ich zweifle daran, dass Apple demnächst tatsächlich eine GPU entwickeln wird / kann, die einem riesigen RDNA 2- oder Ampere-Chip gefährlich werden kann. Apples Fortschritte im Low-Power-Bereich in allen Ehren, aber eine 250-Watt-GPU ist doch ein anderes Kaliber.

Ich hätte jetzt gesagt, dass man solche GPUs auch in Zukunft einkaufen wird.

Aber vielleicht liege ich ja falsch...
Der M1 hat in derzeitiger Form nicht den Anspruch, gegen dedizierten GPUs der Mittel- oder Highend Klasse anzutreten. Für den iMac und Mac Pro gibt es deshalb noch keine Apple Silicon Variante.
Falls es einen M1X geben sollte (wie bei IPhone zu IPad), müsste die Leistung der GPU sich mindestens verdoppeln - also 16 Kerne enthalten - und genügend vram zur Seite gestellt bekommen, etwa 16 GB. Deshalb gehe ich von folgenden Specs aus für einen fiktiven M1X:
  • CPU: 12 Cores (8high/4low) bis 16 Cores (8high/8low)
  • 32GB Unified RAM (GPU und CPU, 24/8 oder 16/16) bis 64 GB
  • 16 Core GPU bis 24 Core
  • deutlich höherer Takt als bei MacBooks.

Damit sollte es klappen und würde weder die Architektur ändern noch größere Lücken belassen
 
  • Gefällt mir
Reaktionen: VYPA, Winder, iSight2TheBlind und eine weitere Person
Haggis schrieb:
Aber das hat doch viel Potential, wenn man CPU und OS selbst in der Hand hat.

Ganz genau.

Apple wird sich angeschaut haben, wofür die Anwender ihre Macs überwiegend benutzen. Für viele, alltägliche Sachen (Webbrowsing, Textverarbeitung usw.), braucht es eh nicht viel CPU- oder GPU-Power. Aber da, wo es doch drauf ankommt (z.B. Video-Rendering oder KI-Berechnungen usw.), können spezialisierte Funktionseinheiten wesentlich effizienter und leistungsfähiger sein, als klassische General-Purpose-CPU-Cores.

Hier kann Apple seinen Vorteil voll ausspielen, komplette Kontrolle über Hardware und OS und weitgehende Kontrolle über strategische Anwendungen zu haben. Die haben in ihrem Mac-Ökosystem alle Hebel in der Hand.

Es ist davon auszugehen, dass alle wichtigen "Killer-Apps" für MacOS sofort oder zumindest sehr kurzfristig vollen Nutzen aus den diversen Funktionseinheiten der neuen ARM-SoCs ziehen können.

In der wilden Welt der (Windows-)PCs ist sowas wesentlich schwerer. Selbst für Platzhirsche wie Intel oder Nvidia.
 
  • Gefällt mir
Reaktionen: konkretor, nuke-guy und yummycandy
Agent500 schrieb:
Mich würde mal interessieren, ob der M1 Chip seine Leistung auch über eine längere Zeit halten kann oder ob er dann Leistung reduzieren muss, um im TDP Limit zu bleiben?
Ich behaupte, dass das der Unterschied zwischen Air und Pro sein wird, Air trottelt, Pro nicht.
 
  • Gefällt mir
Reaktionen: Transistor 22 und Obvision
w0mbat schrieb:
https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive

Schon der A14 schlägt alle aktuellen Intel CPUs (bis zum 10900K), nur Zen3 ist noch schneller. Aber du beziehst dich wohl auf deine Gefühle und nicht auf Fakten.

Laut dem schlägt ja sogar ein Qualcomm Snapdragon 865 auch einen Tiger Lake 1185G7 und Zen 3 als Flaggschiff ist nur knapp vorn:

119125.png


Für den Alltag ist das aber bisher nicht wirklich gut ausgegangen für Qualcomm.

Man muss gaaaanz vorsichtig bei den Rohdaten und ihren Auswirkungen sein. Selbst AMD hat SPEC ja beim IPC-Vergleich bei Ryzen 5000 rausgeschmissen, nachdem sie es bei Ryzen 3000 noch als einzige Größe genutzt haben. Apple wird da sicher 10 mal besser fahren als Qualcomm, da sie ihr eigenes komplett abgeschottetes Ökosystem haben. Mal schauen wie das 2022 aussieht
 
  • Gefällt mir
Reaktionen: PS828, Transistor 22, Hatch und 7 andere
Zurück
Oben