News Mac Pro: Apple plant M2 mit 48 CPU- und 152 GPU-Kernen

sikarr schrieb:
klingt schon spannend nur ist der Sprung von max. 28 Intel Kernen auf 48 Arm Kerne jetzt nicht gerade soooo Superlativ wie sonst von Apple gewohnt.
https://www.check-mac.com/en/benchmark-cinebench_r23-10
28 Kerne mit 56 Threads schaffen es gerade mal so in Cinebench R23 ein wenig über den 20 M1 Ultra Kernen zu stehen, von denen nur 16 Kerne "stark" sind. 20 Kerne mit 20 Threads.
Ein M2 Ultra würde die 28 kerne schon schlagen.

M2 Extreme dürfte also gute 2x CPU Leistung mitbringen, und vermutlich bei <150 Watt bleiben.

Ram dürfte auf 800 gb/s Bandbreite steigen.


Was ist man denn von Apple gewohnt was "mehr Superlativ" war?

Photographil schrieb:
Die haben ja bei dem M1 Ultra im Mac Studio mit Zahlen um sich geworfen, die unvorstellbar sind. Und auch da wurde meine ich bereits nach dem Usecase gefragt. Was für eine Daseinsberechtigung hat da noch ein Mac Pro? Wer braucht diese Leistung effektiv überhaupt? Wie viele brauchen diese Leistung? Und wer ist dann bereit so viel Geld dafür auszugeben?
Beim Mac Pro habe ich mal einen Artikel gelesen von dem Studio, welches den Jumanji Trailer gemacht hat.
Ein 18-20k Mac Pro + XDR Display. Die Anschaffung hat sich nach 2 Wochen amortisiert.

Orim_70 schrieb:
Wenn sich der M2 nun 22W gönnt - bei einem 58,2Wh Akku - braucht man kein Mathematik Studium um zu dem Schluss zu kommen, dass die M2 basierenden CPUs auch keine Dauerläufer mehr sein werden.
Die 22w gönnt er sich auch nur, wenn man Benchmarks spielt den ganzen Tag. Und die 22w sind auch inklusive GPU da.

Ein Auto fährt ja auch nicht permanent mit 6500 umdrehungen.
 
  • Gefällt mir
Reaktionen: tidus1979
Ob bei der Zielgruppe maximal 256GB gemeinsamer Speicher für den SOC reichen wird? Ich denke Apple hat nicht grundlos Konfigurationen mit 1TB+ beim aktuellen Mac Pro angeboten.
 
  • Gefällt mir
Reaktionen: thaseek
An den "großen" Macs habe ich seit ca. 10 Jahren kein Interesse mehr.
Die meiste Leistung bräuchte ich bei 3D und das ist, Stand heute, einfach nicht Apples Welt. Wenn ich maximale 3D-Leistung brauche, dann fahre ich mit einem selbstgebauten PC immer noch deutlich besser.
Für mich persönlich glänzt Apple also nicht im Bereich maximale Perfomance, sondern im Bereich rundes und schnelles Gesamtpaket.
Mit meinem MBP 16" M1 Max kann ich praktisch alles machen, was ich auch schon vor zwei Jahren mit einem vollausgestatten iMac Pro im Bereich Audio und Video machen konnte; aber jetzt auch mobil. Und: Im Alltag kommt mir die Hardware, das OS und das Ökosystem in puncto Komfort sehr entgegen.

Wer Logic oder Final Cut nutzt, der hat keine Wahl: Mac. Wer ernsthaft und schnell mit prof. 3D-Software arbeiten will hat auch keine Wahl: PC mit Windows.
Alle anderen müssen für sich Pro und Contra abwägen und auch persönliche Entscheidungskriterien einfließen lassen.
Am Ende ist es fast egal wie man sein persönliches und berufliches Ziel erreicht, so lange es irgendwie für einen passt und man dabei glücklich ist.

Deshalb gibt es auch kein pauschales besser oder schlechter, sondern nur ein passend oder nicht passend.

Aber damit würde man Fanboys ihr Spielzeug wegnehmen und das wäre auch kontraproduktiv für den Unterhaltungsfaktor dieser Clownstruppen.
 
  • Gefällt mir
Reaktionen: Blastoise, Sammy2k8, Col. Jessep und eine weitere Person
Opa Hermie schrieb:
Bin gespannt, ob der Arbeitsspeicher erweiterbar sein wird (gesteckt). Bislang hatten die M-CPUs sowas nicht, abgesehen von der Pseudo-SSD war alles fest verbaut.
Das erwarte ich nicht. Apple verwendet "unified Memory" . Das muß möglichst "schnell" an CPU und GPU angebunden sein. Den dazu notwendigen hohen Speichertakt erreicht man aber nur dadurch , das man auch kurze Leitungen hat und somit der Speicher auch physikalisch nahe an der CPU bzw GPU liegt. Und auch ein Sockel zum Stecken senkt den max. erreichbaren Speichertakt . Deswegen wird es bei fest verlötetem LPDDR-RAM bleiben ( und der M2 Extreme kann laut Gerüchteküche auch nur 256GB RAM)
 
sikarr schrieb:
Universitäten und Raumfahrt wo oft große Berechnungen angestellt werden

Aber eher nicht auf Macs, sondern auf Clustern, wo die Hardware ein besseres Preis-Leistungsverhältnis hat...
 
  • Gefällt mir
Reaktionen: Petoschka
Edelgamer schrieb:
Stimmt es gibt ne Pflicht sich jeden Beitrag vorher durchlesen zu müssen. Klugscheißer.
Bei nur drei Seiten wäre das durchaus die Erwartungshaltung in einem Diskussionsforum.
Wenn du schlicht Twittern magst, dann geh halt zu Twitter.

Und Beleidigungen nehme ich überhaupt nicht an, lies dir bitte noch mal die Regeln durch. :schluck:
 
  • Gefällt mir
Reaktionen: Zarlak
Sowas wie Proton+Wine auf Apple wäre mal was, dann könnte man mit den Kisten wenigstens gescheit zocken.
 
  • Gefällt mir
Reaktionen: Ice breaker
Bin gespannt auf die Einstiegspreise der neuen MBP 16" mit M2. Ab 3k€ gehts dann sicher los, schwacher Euro, Inflation und so 😂

Ich hab irgendwie das Gefühl man ist bei Apple auch jeglicher Realität entrückt seit der Vorstellung der neuen iPads.
 
Darkseth88 schrieb:
Die 22w gönnt er sich auch nur, wenn man Benchmarks spielt den ganzen Tag. Und die 22w sind auch inklusive GPU da.

Blöd nur, daß die Pro Variante wieder 2 M2s beinhalten wird und die Leistung somit auf 44W oder exakt DEM was Intels H Notebook Prozessoren (45W) verbrauchen anwächst. Und ja diese benötigen die Leistung auch nur bei voller Last - nur wo wäre da jetzt noch der Vorteil der TEUREN ARM Architektur?

Das große Weinen wird erst mit der Preistafel der M2 MBPs losgehen, speziell der Preise im Euro-Raum, die ja traditionell die Preise im Dollar-Raum subventionieren ....
 
Rockcrusher schrieb:
Ich habe irgendwie Probleme damit tausende von Euros in ein System zu Investieren das ich selbst nicht aufrüsten oder verändern kann.
Naja, wenn du mal so viel Arbeitest das du so ein Monster brauchst hast du eh keine Zeit zum aufrüsten.
 
k0ntr schrieb:
wie der Text schon sagt, der neue M2 Chip. Finde mal die Konkurrenz dazu ;)
Ein kleiner Vergleich 7950X vs 13900K vs M1 Ultra vs M2:

GeekbenchSingle CoreMulti CoreKerne
7950X21912286016P
13900K2169241898P/16E
M1 Ultra17532332216P/8E
M2188787254P/4E

Natürlich alles Näherungswerte von der offiziellen Geekbench Seite. Underclockt man sowohl AMD als auch Intel, landet man bei ähnlichen Single Core Werten wie die Apple Silicons bei unter 100W Verbrauch. Threadripper Storm Peak soll mit 64 Kernen im H1 2023 erscheinen, da wird es mit den hier genannten 48 Kernen auch wieder eng. Und die Kompatibilitätsprobleme kommen dazu.

Ein M1 Ultra Mac Studio mit 64GB/2TB kostet 4800€ aufwärts. 7950X oder 13900K kosten 809€ bzw. 712€, 128GB DDR5 RAM kosten ~600€, bei DDR4 geht's auch für 400€, 2x2TB aktuelle M.2 SSDs kosten ~450€ und bringen im RAID dann maximal über 13GB/s. Für die restlichen 2600-2900€ gibt's dann 'ne 4090 und das ganze Gedöns drum rum. Haste für' nen ähnlichen Preis bessere Single Core, ähnliche Multi Core, unfassbar viel mehr Grafikleistung, doppelten RAM und doppelten (und ~120% schnelleren) Festspeicher.

Anbei nochmal Blender Rendering Benchmarks von iKnowReview:

Screenshot_20221025-075336.png


Screenshot_20221025-075451.png

Die Vega hatte hier entweder Treiberprobleme oder architekturbedingt Schwächen.

Sollte die hier genannte Version so skalieren wie M2 gegen M1 (was zu erwarten ist), dann käme die GPU auf eine Leistung von 2,75 x M1 Ultra. Das wäre schnell, aber immer noch 40% langsamer als das Gespann mit der 3090 in Blender. In Games - sofern man überhaupt welche zum laufen kriegt, die Auswahl zum Vergleich ist doch recht dürftig - lag der M1 Ultra im Schnitt (eigentlich überall ausgenommen Tomb Raider) bei ca. 44% einer 3090, der neue Chip wäre also ca. 20% schneller als eine 3090. DLSS mal ausgenommen ;)

Da bringt es auch nix, irgendwelche neuartigen synthetischen Benchmarks aus dem Nix auszugraben, in denen Apple Silicon besser skaliert als alle anderen. In Summe stellt sich also wirklich die Frage, für wen das Teil sein soll... vor allem bei einem locker fünfstelligen Preis. Für Gamer? Nope. Für Rendering? Nope. Für weird Flexes? Maybe.

Und das soll kein Diss an Apple Silicon sein. Die "normalen" M-SoCs haben absolut ihre Berechtigung in Sachen Leistung und Verbrauch. Aber hier sehe ich schlicht und ergreifend den Anwendungszweck nicht.
 
  • Gefällt mir
Reaktionen: Icke-ffm
DEFCON2 schrieb:
sondern auf Clustern, wo die Hardware ein besseres Preis-Leistungsverhältnis hat...
das natürlich nicht alles auf solchen Kisten machen werden ist klar, aber das tägliche Arbeiten was noch an einen Arbeitsplatz möglich ist. Wenn ich mir Rechenzeit auf dem Cluster reservieren müsste oder 2h warten obwohl das der Rechner am Schreibtisch in ner Viertelstunde mit so einer Ausstattung könnte macht das schon Sinn.
 
k0ntr schrieb:
die ganzen designmemes nerven wirklich, das könnt ihr gerne auf tiktok oder facebook posten. was dieses teil anbietet ist im vergleich zur konkurrenz immens.

Ich hab auch das Vorschaubild gesehen und mich erstmal am Kopf gekratzt, den Schuh haben sie sich jetzt schon irgendwie selbst angezogen ^^
 
Rockcrusher schrieb:
Ich habe irgendwie Probleme damit tausende von Euros in ein System zu Investieren das ich selbst nicht aufrüsten oder verändern kann.
Auch wirklich große PC-Workstations werden selten bis gar nicht aufgerüstet - es wird so gekauft, dass es nicht beim Bestellen untermotorisiert ist und nach der Abschreibedauer kann was neues gekauft werden. Und selbst wenn, dann macht das ein IT-Systemhaus und nicht der kleine Sysadmin, der mit den Grafikkarten von PC zu PC wackelt und umsteckt.
 
  • Gefällt mir
Reaktionen: sikarr
bin mir auch nicht Sicher ob sich das für Apple wirklich lohnt.
Durch die GPU dürfte das teil nicht gerade klein werden, ein späteres aufrüsten von Ram oder GPU dürfte wohl auch wegfallen. aber im vergleich zum Aktuellem MacPro kann weder CPU noch Arbeitsspeicher aufgerüstet werden, der zumal noch von 1,5TB auf nur noch 256MB fallen soll. und das die GPU die Aktuell möglichen 2xRX6900 schlagen sollen, kann ich mir auch nicht wirklich vorstellen
 
Luke S. schrieb:
Nur das kleine Vorschaubild gesehen und gedacht: lol Apple macht jetzt auch Käsereiben?
Nur das kleine Vorschaubild gesehen und sofort vermutet das nun wieder selben Witze kommen wie schon seit Jahren - oh come on!

Die Pros könnten, sofern native Binaries vorliegen, die absoluten Killer werden. Bin immer noch angetan von den passiv gekühlten MB Airs… wenn man dann die SOCs mal so richtig von der Leine lässt…
 
Orim_70 schrieb:
Blöd nur, daß die Pro Variante wieder 2 M2s beinhalten wird und die Leistung somit auf 44W
Ich glaube hier gibt es sehr viel klärungsbedarf.
Was meinst du mit "wieder"? Es gab weder irgendwo 2 M2s, noch 2 M1s.
M1 Pro, M1 Max und M1 Ultra waren keine doppelten M1 Chips.

Und jeder M2 Pro/Max/Ultra/wasauchimmer wird kein doppelter M2 sein. Deine 22w gelten hier also nur für den M2 aus deinem verlinkten Test, für kein anderes Produkt.

Orim_70 schrieb:
oder exakt DEM was Intels H Notebook Prozessoren (45W) verbrauchen anwächst.
Intel's H Prozessoren verbrauchen keine 45 Watt, sondern über 100 Watt, wie sehr viele Tests zeigen.
Die TDP auf dem Papier ist leider nur eine Richtlinie
Selbst ein 1260p mit angeblichen 28w verbraucht 65 Watt im Multicore ohne GPU.

Ein Intel H Prozessor verbraucht demnach sogar mehr im CPU-Benchmark als ein M1 Ultra, der bei allen kernen 68 Watt verbraucht. Von der ersten Sekunde an.

Orim_70 schrieb:
Und ja diese benötigen die Leistung auch nur bei voller Last - nur wo wäre da jetzt noch der Vorteil der TEUREN ARM Architektur?
Genau in der Millisekunde, in der die volle Last aufhört. Also so ziemlich 90-99% der gesamten Nutzungszeit bei den Meisten.
In der Regel liegt 100% Last nämlich nie an, und meistens bewegt man sich im Teillastbereich.

Und im Teillastbereich ist/war ARM die letzten 2 Jahre mit Abstand weit vorne. Dass die ARM Architektur bei aktiver Arbeit 20 stunden hält, während Konkurrenzprodukte von Intel/AMD gerade mal an der 10h Marke gekratzt haben, lag genau daran. Deutlich weniger Stromverbrauch im nicht-volllast-bereich.


AMD hat mit Ryzen 6000 aber durchaus nachgezogen, muss man AMD hier zu gute halten. Ein Thinkpad Z13 mit Ryzen 6850u~ oder so kommt beim Wifi surfen durchaus an einen M2 Macbook Air ran laut Notebookcheck. Ohne dabei auf multicore-Power zu verzichten, wie z.B. beim T16 mit i5 1240p. Ordentliche Akkulaufzeit nur, weil der Chip so stark reduziert ist, dass er im Multicore weniger Leistung erreicht, als ein gedrosselter M1.
Ein Thinkpad Z16 mit 6850H wiederum schafft ähnliche Multicore-Leistung wie ein M1 Pro/M1 Max vom MBP 16". Jedoch nur 10~ Stunden Akkulaufzeit. Ein Macbook Pro mit durstigerem M1 Max hält im Teillast Bereich locker 50% länger durch. Ein M1 Pro hält 71% länger durch, bei weiterhin gleicher CPU Leistung. Und mehr GPU Leistung.


Aber lassen wir diese Punkte mal, da AMD und Intel durchaus ran kommen könnten, wenn sie wöllten. AMD ist vereinzelt sehr nah dran im Teillast bereich nicht unnötig zu saufen, so wie Intel.

TL;DR:
Der Vorteil der "teuren ARM Architektur" ist rein objektiv folgender: Apple kann die Chips im Komplettpaket so designen, wie sie es für ihre Software brauchen. Und die Software so programmieren, dass die Bestandteile des Chips so gut wie möglich ausnutzt. Das reicht an sich schon als Begründung, dass Apple ihre eigenen Chips nutzt.
Und so nutzt Apple eine Codebase für alle Produkte, da von der Uhr, übers Smartphone bis zum Mac Pro die gleiche Architektur drunter läuft.
Ob die Anwendung am Ende des Tages auf einer ARM Plattform oder x86 läuft kann dem User völlig egal sein, solange sie läuft.

Im Teillastbereich kommt AMD nur vereinzelt ran, siehe Thinkpad Z13.
In anderen Exemplaren (Z16) kommt AMD wiederum nicht ran bei der effizienz.
Intel wohl nur, wenn die Leistung des Chips stark gedrosselt wird (Thinkpad T16).
 
  • Gefällt mir
Reaktionen: Cool Master, Kalsarikännit und tidus1979
sloven schrieb:
Scherz beiseite: Ich habe mich Mal bei einer Geburtstagsfeier mit einem Fotografen unterhalten. Der meinte, dass wenn er die Bilder nachbearbeitet, teilweise 1-2 h auf das Ergebnis warten muss.
Photographil schrieb:
Wie er muss warten auf die Ergebnisse? Bilder werden bearbeitet und exportiert. Bearbeitet wird er selbst nehme ich an. Während dem Export macht er netflix an und genießt seinen Feierabend. Oder ruft bereits den nächsten Kunden an...

Vielleicht ist der Export gemeint. Könnte aber auch der Import sein.

Wer z.B. auf modernste Rauschminderung setzt wie DXO deep PRIME XD, und auf eine moderne 50MP Kamera wie eine Sony A1, braucht selbst mit einer RTX 3060 TI (schneller als alles was apple hat) ungefähr 100sec pro Bild.
Um da 2000 Bilder durchzujagen bräuchte man 2 Tage

Das ist workflow mäßig inakzeptabel. (Und wird auch so nicht gemacht, da man erst cullt und dann nur einzelne Bilder die es nötig haben mit deepprime bearbeitet).
Aber wer standardmäßig alle sein Bilder bei import konvertiert kann gar nicht genug Rechenleistung haben
 
phanter schrieb:
Vielleicht ist der Export gemeint. Könnte aber auch der Import sein.
Wenn ich 3000 RAW Bilder (ca. 50 MB ein Bild) dauert das bei mir maximal 10 Minuten. Eher weniger... Capture One.

10 Minuten sind jetzt nicht wirklich viel wenn es um einige Stunden Bearbeitung geht...

Lightroom is wohl schneller was man so hört...
 
Photographil schrieb:
Wenn ich 3000 RAW Bilder (ca. 50 MB ein Bild) dauert das bei mir maximal 10 Minuten. Eher weniger... Capture One.

10 Minuten sind jetzt nicht wirklich viel wenn es um einige Stunden Bearbeitung geht...

Lightroom is wohl schneller was man so hört...

Aber halt nicht wenn du wie beschrieben on import denoising nutzt. Mit z.B. DXO pure RAW
 
Zurück
Oben