News Apple: iMac Pro soll A10-Fusion-Coprozessor erhalten

Könnte das auch bedeuten, dass Apple vllt. eine Neuauflage des MacMini's (als 9. Generation) z.B. mit einem A11-Prozessor statt einem Intel?
Das wäre in der günstigen Version perfekt für einen "iTunes-Server" - direkt mit Apple Music und iTunes Match.
 
@M@tze

Es geht hier ja um OS X bzw. MacOS und da habe ich es per Wireshark und Little Snitch getestet und da ist aus wirklich aus. Klar schaltet man iCloud etc. ein wird natürlich Kontakt zu den Apple Servern aufgenommen.

Unter iOS ist das "by Design". Wenn es aus sein soll Systemeinstellungen und dort aus machen. Warum man das umbedingt ändern musste kann ich nicht verstehen aber ich bin eh immer noch auf iOS 10.

@DenMCX

Wie gesagt ich glaube nicht an ein Mac mit ARM und ohne Intel. Siehe weiter oben das wäre nicht nutzbar da es keine App gibt die darauf laufen würde mal abgesehen von iOS Apps evtl. aber Produktivität wäre damit im Po.
 
Hanfyy schrieb:
Als OS könnte ich mir eine iOS Basis vorstellen, die noch weiter aufgebohrt wird. Die iPads zeigen da schon ganz gut den Weg.

iOS und macOS (sowie tvOS, watchOS, ...) haben schon die gleiche Basis.

Mit macOS 10.13 wurde unteranderem der XNU Kernel veröffentlich der sowohl den X86 sowie auch den Arm Code enthält. Hier nur als Beispiel Teile des Mach3 Kernels (Teil von XNU):

https://opensource.apple.com/source/xnu/xnu-4570.1.46/osfmk/mach/

Verfügbar sowohl als ARM wie auch als i386
 
kadda67 schrieb:
Wär schon bitter für Intel wenn Apple es schafft mit ARM-cores das Leistungsspektrum von Core Prozessoren zu betreten, undzwar völlig passiv gekühlt.

Glaube ich nicht. Davon hört man seit fast 20 Jahren, dass ARM irgendwann ganz doll schneller sein wird, als X86.

Außerdem hatte Intel jetzt jahrelang kaum Konkurrenz durch AMD, die könnten wahrscheinlich relativ schnell noch weitere Entwicklungen aus dem Hut zaubern, wenn jemand ihnen zu nahe kommt. Man hat es ja gesehen, dass Intel bei Ryzen und Threadripper noch nicht besonders ins Schwitzen gekommen zu sein scheint. Der Konter mit mehr Kernen und mehr Leistung kam recht flott, AMD kann sich nur durch bessere Preise behaupten.
 
@SOWJETBÄR

Evtl. wegen dem DRM? Evtl. hat auch die Grafikeinheit einfach mehr Stromhunger? Ich kann es dir nicht sagen.
 
Autokiller677 schrieb:
Haben sie - je nach Benchmark - mit den iPad Pros schon. So schnell wie manche Notebookversion eines i3/i5 sind die Chips da schon. Wie gesagt, je nach Benchmark.

War das nicht ein Vergleich mit einem throttlenden Core M (MacBook) und da halt auch nur in ausgewählten Benchmarks?

Trotzdem wäre es technisch sicher kein größeres Problem, richtig große ARM-CPUs zu bauen, die leistungsmäßig in einer Liga mit großen x86-CPUs (Desktop/Server) spielen. Ist ja letztlich nur eine Frage, wie viele Recheneinheiten, Caches und wie breite Datenleitungen usw. man verwendet. Wäre nur fraglich, ob es dann noch einen nennenswerten Effizienzvorteil gäbe, der die Inkompatibilität zur x86-Softwarewelt rechtfertigen könnte.

Ich glaube eher nicht, dass es balb einen Wechsel im PC-Bereich weg von x86, hin zu ARM geben wird. Jedenfalls nicht aus technischen oder wirtschaftlichen Gründen. Vielleicht, wenn Apple oder jemand andes unbedingt komplett unabhängig von den wenigen CPU-Herstellern mit x86-Lizenz werden will. Das wäre dann halt nicht unbedingt zum Vorteil der Anwender.

Und dieser Co-Prozessor im iMac Pro ist meiner Meinung nach nicht wirklich als Anzeichen für so eine Absicht zu sehen. Das ist eher nur eine Spielerei für einen sehr speziellen Anwendungsfall. (Sprachassistent auch bei ausgeschaltetem oder voll ausgelastetem System.) Solche exotischen Speziallösungen gabs ja immer wieder mal. Ich erinnere mich z.B. dunkel an Convertibles mit ARM und x86, wo man zwischen Windows und Android umschalten konnte.
(Ergänzung: Oder auch mein alter C128, mit 6502-kompatiblem 8502 und zusätzlichem Z80 für CP/M. :D)
 
Zuletzt bearbeitet:
Herdware schrieb:
War das nicht ein Vergleich mit einem throttlenden Core M (MacBook) und da halt auch nur in ausgewählten Benchmarks?
Nicht nur, aber auch.

https://www.computerbase.de/2017-10/windows-10-on-arm-updates/
Anderes Beispiel: Windows 10 on ARM. Im Video sieht man z.B. Photoshop recht flott starten, und das ist noch eine x86 Emulation. ARM kann für day-to-day-Office und mittelhungrige Anwendungen heute schon eine gute Alternative sein. Aktuell fehlt halt noch die Software, um den normalen Büro PC abzulösen. Mal sehen, was die Zukunft bringt.
 
Ich bezweifel nicht das die ARM CPUs in letzter Zeit stark zu Intel aufschließen konnten und ein A10X oder A11 durchaus die Leistung eines kleines i3's erreicht, aber was sagt uns das?

Apple schafft es mit einem speziellen und hoch optimierten OS unter Ausnutzung aller möglichen Hardwarefunktionen auf ihrem spitzen Modell genau die Leistung herauszuholen die Intel am unteren Ende für ultrathin Laptops mit einer weitaus lockerem Ökosystem definiert hat. Das ist aber noch weit weg von dem was ein "vollerwertiger" i5 in einem normalen Laptop leistet, geschweige denn was ein i7 im Desktop kann. Und das was da am Ende im iMac Pro steckt ist mit ARM zurzeit nichtmal im Ansatz machbar.

Also halten wir fest, wenn Intel heute die Beine in die Luft streckt und das Geschäft niederlegt könnte Apple in 3-4 Jahren aus ihrem ARM Design etwas raus holen was leistungstechnisch einen Ersatz für einen einen aktuellen Desktop i7 bieten könnte. Da Intel aber momentan wie eine angestochende Sau durchs Dorf getrieben wird (nicht nur von Apple) und so nebenbei absoluter Platzhirsch im Chipsegment ist, gehe ich mal davon das sich die Leistungsschere zwischen ARM und Intel in nächster Zeit eher vergrößern als verkleinern wird.
Von daher wäre es äusserst dumm von Apple sich von Intel abzuwenden, von der Kompatibilität zu Windows mal ganz abgesehen.
 
Zuletzt bearbeitet:
@GrooveXT
Du bringst da mMn einiges durcheinander und ziehst Schlussfolgerungen aus dem Nichts. Die Benchmarks testen, abgesehen von vielleicht Metal Grafikbenchmarks, mehr oder weniger vergleichbar die Rohleistung der Chips. Softwareoptimierungen haben an dieser Stelle auf CPU-Seite praktisch keinen Effekt.

Danach vergleichst du die einzig und allein auf mobile optimierten A-Chips mit Desktopchips und schließt ohne jede Grundlage darauf, dass Apple die Leistung nicht skalieren könnte. Für so eine Bewertung müsste man mindestens folgendes Wissen: Taktskalierbarkeit der Architektur abseits von Low-Power-Umsetzungen, Größenskalierbarkeit für massiv mehr Kerne (Cache, Bus, etc.). Nichts davon ist öffentlich bekannt und somit ist eine Einschätzung in dem Bereich reines Glaskugel lesen.

Dazu wird bei Apples Chips ein Großteil der Fläche für Funktionen benutzt, die ein Xeon in der Form gar nicht bietet(/bieten muss). Da wären Grafik, NPU, Kamera-ISP,...
All das macht die Produkte praktisch überhaupt nicht vergleichbar.
 
Also dass das Mikrofon 🎤 dauerhaft an ist und alles mit lauschen kann nur um so einen sprach Befehl zu benutzen finde ich äußerst bedenklich
 
Apples Planungshorizont bei der SoC-Entwicklung beträgt ca. 3 Jahre. Zumindest für diesen Zeitraum ist ein Ersatz von x86 durch ARM nicht in der Mache. Das schließt keineswegs aus, daß Apple macOS parallel die ganze Zeit über auch auf ARM lauffähig haben wird, ist aber eben auch kein Indiz für eine kommenden Wechsel.

Bei der spezifischen Leistung kann Intel Apple nur noch bei den SIMD-Units abhängen, ansonsten liegt Apple längst vorne. Allerdings legt Apple seine SoCs z.Z. nur für den Bereich um 2,5GHz aus und selbstverständlich ist das ein absolutes ULP-Design, ausschließlich gemacht für das "Race to Sleep".

Bei der Effizienz wird x86 immer das Poblem haben einen CISC-Befehlssatz abarbeiten können zu müssen. Moderne Compiler versuchen zwar x86-Code zu erzeugen der möglichst wie RISC aussieht, da das bei der Dekodierung Aufwand spart und damit den Stromverbrauch mindert, aber die kompletten Resourcen müssen dennoch vorgehalten werden.

Zum verbauten SoC: Ich wäre mir nicht so sicher, daß da ein A10 verbaut werden wird, nur weil die Codebezeichnung vom A10 in den Treiber-Namen auftaucht. Der A7 taucht da gleich mehrfach auf und trotzdem wird der es nicht werden ;)
Vielleicht gibt's ja eine Überraschung: Ein APL1W25 ohne Immagination IP, geschrinkt auf 12FFC...

AedisToru schrieb:
Also dass das Mikrofon dauerhaft an ist und alles mit lauschen kann nur um so einen sprach Befehl zu benutzen finde ich äußerst bedenklich

Das ist bei mehreren Milliarden Geräten so, die ein großer Teil der Menschheit auch noch ständig bei sich trägt.
 
Zuletzt bearbeitet von einem Moderator:
Finde ich gut dass hier die ganzen Apple Technik Chefs mal aus dem Nähkästchen plaudern.
 
@smallM

Aber genau das Thema Befehlssätze ist ja in dem Fall auch der Punkt. Geht ja immer noch um einen Mac Pro und nicht einen 250€ Office-PC für den 0815er..

Solange der MacPro Video / Grafik, Spieledesigner und Softwareentwickler im Fokus hat, werden die dicken Befehlssätze ja eben auch genau dort benötigt.

Was aber auch richtig ist, ist dass x86 durch seine (durch den Markt erzwungene) Abwärtskompatibilität den Dekoder immer weiter aufbläht. Nehmen wir nur mal SSE. Man implementiert ja nicht nur SSSE4.2. Nö. Man schleppt auch weiterhin SSE • SSE2 • SSE3 • SSSE3 (Intel SSE4) • SSE4a (AMD SSE4) • SSSE4.1 mit.

An dem Punkt verliert x86 jegliche Argumentation hinsichtlich Effizienz.

Aber, alte Software will ja weiter laufen. So können wir heute alle (und vor allem, Firmen) noch Programme und Spiele aus den 90ern ohne größere Probleme starten. Das ist dann der Preis dafür.

Apple braucht im mobilen Bereich auf all das kaum Rücksicht zu nehmen. Spätestens nach 4Jahren wird ein Support-cut gemacht.
Entwickler sind gezwungen auf neue API’s zu stellen und Apple stellt im Hintergrund OS und Hardware entsprechend an die neuen Instruktionen an. Somit können überholte Befehlssätze ohne weiteres ersetzt werden und der Dekoder bleibt (extrem) schlank.

Im Desktop, mit all seiner Spezialsoftware, steht Apple aber vor dem gleichen Dilemma wie die Konkurrenz aus Intel und AMD.
Selbst Wenn Sie es tun würden, nach zehn Jahren wäre der Decoder genauso aufgebläht und ineffizient wie die der x86er

Und deswegen wird’s da auf absehbare Zeit auch kein ARM geben.
 
Zuletzt bearbeitet:
SSE4 ist nicht SSSE3 und die Nummern sind keine Versionsnummern. SSE4 ist keine neuere Version von SSE3 und das keine neuere Version von SSE2 etc.

Apple entwickelt zwar seine eigenen ARM-Cores, der Befehlssatz kommt aber von ARM und ich glaube nicht, daß Apples Lizenz eigene Befehlssatzvariationen umfaßt.

Nun, statt in der CPU die SIMD-Einheiten aufzublasen, haben sie halt eine eigene Unit auf den SoC gepropft, die "Neural Engine"; damit können sie machen, was sie wollen.
 
Hanfyy schrieb:
"Volllast" beim arbeiten...

Gibt es bestimmt auch, aber bei den meisten Anwendern handelt es sich um Office bei minimaler CPU Auslastung.

Ja, es gibt auch CAD Anwendungen etc. aber selbst da liegt oft nur kurz die hohe Leistung an.

Da muss man eher nach Anwendungsgebieten unterscheiden, wie heute auch schon (Reicht ein Laptop oder braucht es eine Workstation)

gibt auch 13" mit der vollen power einer workstation, kostet halt(3000€ +/-)... dafür langt sone kiste aber auch im schnitt 7-10 jahre bevor sie wirklich zu langsam wird.

und zum thema ARM vs. x86... spätestens beim datein packen sollte auch dem dümmsten klar werden, das ARM derzeit noch keine option ist, gegen die power von x86 gibt es ausser in wenigen und nicht praxistauglichen benchmarks, keinerlei bereiche wo ARM schneller wäre.
 
@XTR³M³
Wenn du dir heute einen 3.000€ 13" Kaufst, der dir 7-10 Jahre hält, dann brauchst du die Leistung entweder heute absolut nicht oder deine Anforderungen an die Software bleiben konstant und neue Programme / Updates werden nicht genutzt.

Ja, das mit dem packen von Dateien ist so ein Anwendungsfall.
Aber die Sekretärin, die mit Mail, Textverarbeitung, PDF, Kalender usw. arbeitet braucht so etwas zB nicht.

Ich denke meine ursprüngliche Differenzierung ist schon ganz zutreffend und die Bedeutung hinter Laptop und Workstation auch verständlich.
 
smalM schrieb:
Bei der Effizienz wird x86 immer das Poblem haben einen CISC-Befehlssatz abarbeiten können zu müssen. Moderne Compiler versuchen zwar x86-Code zu erzeugen der möglichst wie RISC aussieht, da das bei der Dekodierung Aufwand spart und damit den Stromverbrauch mindert, aber die kompletten Resourcen müssen dennoch vorgehalten werden.

Der Decodingeinheit ist es aber weitgehend egal, ob sie in einem kleinen ULV-Chip oder einem riesigen Multi-Core-Xeon mit zig integrierten, breiten PCIe- und Speichercontrollern usw. arbeitet. Die skaliert nicht wirklich mit der Leistung.
Im Low-End-Energiesparbereich fällt der CISC-Nachteil also bei der Effizienz stärker ins Gewicht, bei größeren CPUs verschwindet er schnell im Hintergrundrauschen. Deshalb hat ARM sich im Mobil-Segment behaupten können und x86 bei den PCs und Servern halten können.

Tatsächlich wird der x86-Decoder aber inzwischen wohl selbst bei sparsamen Mobil-SoCs nicht mehr viel ausmachen. Als AMD sich vor ca. 15 Jahren dazu entschied, seiner ersten 64Bit-CPU weiterhin x86-Kompatibilität mitzugeben (im Gegensatz zu Intels Itanium), nahm der Decoder schon nur noch 10% der Die-Fläche ein. Das war es AMD damals nicht wert, auf x86-Kompatibilität zu verzichten.
Ein Sledgehammer hatte 100 Millionen Transistoren. Apples A10 hat 3,3 Milliarden. Ein 32-Core-Epyc 19,2 Milliarden!
Da kann man sich ungefähr vorstellen, wie viel der CISC-Overhead im Frontend wahrscheinlich noch ausmacht.

Solange x86-Kompatibilität noch die kleinste Rolle spielt, und sei es nur, dass die Softwareentwickler damit und mit den entsprechenden Entwicklungstools etwas vertrauter sind, wird man es sich stark überlegen, auf CPUs zu wechseln, die das nicht mehr bieten.
 
Zuletzt bearbeitet:
smalM schrieb:
Zum verbauten SoC: Ich wäre mir nicht so sicher, daß da ein A10 verbaut werden wird, nur weil die Codebezeichnung vom A10 in den Treiber-Namen auftaucht. Der A7 taucht da gleich mehrfach auf und trotzdem wird der es nicht werden ;)
Vielleicht gibt's ja eine Überraschung: Ein APL1W25 ohne Immagination IP, geschrinkt auf 12FFC...

Guter Gedanke, es bringt ja nichts in den iOS-Geräten auf Imagination IP (PowerVR GPUs) zu verzichten, dann aber im Mac Pro ein SoC zu verbauen welches eine (ungenutzte) PowerVR-GPU mitbringt.
Imagination würde dafür garantiert auch Lizenzgebühren verlangen und wenn man realistisch ist und mal betrachtet wie lange Apple in letzter Zeit Geräte mit einem "Pro" im Namen unverändert angeboten hat würde so ein iMac Pro wahrscheinlich auch Apples gesetzte Frist bis wann sie keine PowerVR-GPUs mehr verwenden wollen reißen.

EDIT: Das trifft natürlich auch auf den (jetzt verschobenen) HomePod zu, der einen A8-SoC besitzen soll. Und bei dem ist es noch unwahrscheinlicher, dass er regelmäßig genug Hardwarerevisionen bekommt um schnell genug auf die IP von Imagination verzichten zu können.
 
Zuletzt bearbeitet:
Zurück
Oben